AMD Radeon RX Vega 64 und 56 offiziell vorgestellt – Preise, Details und mehr

Wenn sie Volta in die Suppe pi***n und 10% (abrufbare) Leistung drauflegen aber 10% günstiger zu haben sind.. GG. Die fünf Leute, die ihre 1200 Euro gsync Monitore haben, die bleiben natürlich bei nvidia. Der Rest springt dann aber um, i guarantee it ;)
Und schon wird's wieder lächerlich, weil der gleiche Schwurbel schon bei Fury-Release geschrieben wurde.
Zuerst mal die "wenn's", dann noch der Traum davon dass Naiv (auch absichtlich) natürlich einschlägt wie eine Bombe und NV keine Ahnung hat was kommen wird.
Und dass bei einer GPU die Zusammenarbeit von mehreren Kernen nicht so easy going ist wissen wir jetzt auch seit Jahren, da wird nicht nur HW bestimmen wie gut es läuft, sondern eben auch SW.
Aber gut, mit Navi wird alles anders, schauen wir mal, bis Anfang 2019 ist ja nicht mehr lange

Und so nebenbei, aktuell haben unzählige Leute einen FreeSync-Monitor und würden ihn auch gerne nutzen, nur geht das leider nicht weil AMD keine Karte bringt die genug Leistung bringt.
Ich war damals auch so naiv und dachte mir egal, steigst in 2 Jahren eh wieder auf AMD um und sparst dir die 100€ G-Sync-Aufpreis.
Tja, saudumm war ich, jetzt spiele ich seit 2 Jahren ohne Sync (fehlt mir aber nicht gewaltig) und ich jetzt kommt wieder nichts das mich von der Leistung her zufriedenstellt.
Vielleicht verstehst du jetzt warum so viele Leute von Vega enttäuscht sind, das hat nichts mit Hate zu tun, sondern einfach nur dass sie einfach nur gerne eine Alternative zu NV gehabt hätten.
Für 20% Mehrleistung nach 2 Jahren im Vergleich zu meiner jetzigen Karte brauch ich nix kaufen, wäre etwas in Richtung 1080Ti gekommen (~50% mehr Leistung) hätte ich sofort bei Release der ersten Custom-Modelle auf bestellen geklickt.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Und genau das ist doch auch Schwachsinn. Vega hat garantiert genug Puste um nen FreeSyncer ausreichend zu befeuern...
 
Ich warte noch auf die 4 k benches mit freesinc. Ich möchte einfach freesinc nutzen können.
Mit der 1080 gehts halt nicht und das merkt man gewaltig. Da nutz ne Ti dann auch nichts.
Sollte vega da punkten kommt die 1080 in den zweitrechner und fertig. Ich denke es warten einige mit freesinc monis auf vega.
Hoffe nur das durch das sch---- mining die verfügbarkeit nicht leidet.
 
Zuletzt bearbeitet:
Und genau das ist doch auch Schwachsinn. Vega hat garantiert genug Puste um nen FreeSyncer ausreichend zu befeuern...

aber so wie es auschaut nicht in 4K da wird es sehr schwer mit round about 1080 Leistung - Vega ist wohl eine Alternative für alle die auf Amd waren und in 1080 und 1440p spielen - wobei das wohl dann bei den 144 hz Monitoren um in die Sync Range zu kommen wohl auch schon mühselig wird

ich bin gespannt auf die Benches - ich denke Vega wird aktuell eventuell sogar für einige Spiele reichen um in 4K (mit vernüfntigem Einsatz der Qualitätsregler) mit Sync flüssig zu spielen - aber der Spielraum für künftige Spiele in 4K wird wohl wie bei Fury komplett fehlen...
 
Zuletzt bearbeitet:
aber so wie es auschaut nicht in 4K da wird es sehr schwer mit round about 1080 Leistung - Vega ist nett für alle die auf Amd waren und in 1080 und 1440p spielen - wobei das wohl dann bei den 144 hz Monitoren um in die Sync Range zu kommen wohl auch schon mühselig wird

Woher weist du das gibt es schon 4k benches vega vs 1080 ?
Viel mehr hab ich bisher nicht gesehen.
Result
 
Zuletzt bearbeitet:
Na gut fidel, jetzt muss ich wohl dazusagen, dass ich das mit der Fury alles nicht verfolgt habe. Mein Entschluss mal einen aktuellen Rechner zu basteln wurde mit Ryzen angefacht, seit dem bin ich am Lesen. Eine gewisse Verbitterung ist dann nachvollziehbar. Doch so wie es im Moment aussieht, zumindest in dem von mir skizzierten Szenario kann man sich doch vorstellen, dass da was bei rumkommt. Natürlich habe ich jetzt absichtlich markante Zahlen gewählt..
Und wenn nicht, naja dann halt nicht. Dann weißt du in der Zukunft, dass du nicht in den Glauben an irgendwas Geld investierst sondern in gegenwärtige Fakten.
 
@Motkachler
du gehst also davon aus, das Vega in 1080p und 1440p nicht wesentlich schneller als ne 1080 ist, aber in 4k solls dann die große Überraschung geben? Oder wie is dein Kommentar zu verstehen? Übrigens gabs min 5 gamestest mit der Vega in 4k...
 
@Motkachler
du gehst also davon aus, das Vega in 1080p und 1440p nicht wesentlich schneller als ne 1080 ist, aber in 4k solls dann die große Überraschung geben? Oder wie is dein Kommentar zu verstehen? Übrigens gabs min 5 gamestest mit der Vega in 4k...

Das vega in 4k viel schneller ist davon geh ich nicht aus mir würde schon reichen das die lästigen lags der 1080 nicht da wären.
Benches von vega vs 1080 die das beleuchten in 4k hab ich noch keine gesehen.
 
Zuletzt bearbeitet:
wie kann eine 1080 Lags erzeugen? Oo meinst du schwankende Frametimes?
 
wie kann eine 1080 Lags erzeugen? Oo meinst du schwankende Frametimes?

Framtimes und lags die 1080 ohne sync hat auch lags die man merkt ohne sync kurzes ruckeln im game.
Bei the Division ist es besonders zu merken.
Ich hoffe das vega mit freesync da besser ist mehr nicht.
 
Zuletzt bearbeitet:
Und genau das ist doch auch Schwachsinn. Vega hat garantiert genug Puste um nen FreeSyncer ausreichend zu befeuern...
Lieber iCrack aka JtotheK, sinnerfassend lesen wäre angesagt. (obwohl, lesen alleine würde schon reichen)
Ich sage NICHT dass Vega keinen FreeSync-Monitor ausreichend befeuern kann, sondern dass sich ein Umstieg von einer 980Ti aus (darum steht da auch meine Karte) überhaupt nicht lohnt weil da vielleicht 20-25% mehr Leistung ankommen wird und dafür ungefähr gleichviel Kohle fällig wird wie ich damals für die 980Ti gezahlt habe (Thema Preis/Leistung :hust: )
Die Leistungssteigerung ist für 2 Jahre (seit Fury) einfach zu wenig und genau deswegen sind unzählige Leute von Vega enttäuscht.
Wer von einer RX580, GTX780 oder was auch immer kommt, der wird mit Vega eine Leistungssteigerung bekommen die sich lohnt.
Wer aber schon eine halbwegs kräftige Karte hat und nach 1-2 Jahren einfach wieder eine Top-Grafikkarte nachlegen möchte bekommt von AMD überhaupt nichts geboten was nicht schon wirklich lange erhältlich ist

Dann weißt du in der Zukunft, dass du nicht in den Glauben an irgendwas Geld investierst sondern in gegenwärtige Fakten.
Genau das werde ich tun müssen, FreeSync links liegen lassen, auf G-Sync umsteigen und nicht darauf hoffen dass AMD mit Navi den Knüppel aus dem Sack holt
 
Zuletzt bearbeitet:
Bei ihm scheint sein System eh falsch konfiguriert zu sein, da seine 1080 deutlich underperformed.

Siehe Benches die er gepostet hat.

Frames bringt mir die in 4k genug mit dem ryzen wenn das üble lagging nicht wäre ohne sync für mich müll.
Sollte vega das besser können wo ist das problem?
Sollte es nicht so sein muss ich halt in den sauren apfel beisen und auf gsync wechseln.
 
Zuletzt bearbeitet:
Genau das werde ich tun müssen, FreeSync links liegen lassen, auf G-Sync umsteigen und nicht darauf hoffen dass AMD mit Navi den Knüppel aus dem Sack holt

Damit...du dann...wieder wechseln kannst? :hust:
Spaß muss sein. Wenn Vega nicht die von irgendwelchen random Leuten angepriesene Miningleistung bringt, dann fällt mein theoretisches Kartenhaus in einem Stück in sich zusammen. Dann wird nicht genug Geld da sein um zielführend weiterentwickeln zu können. Gerade diese multi gpu Geschichte ist sicher ein gutes Stück Arbeit. Aber das wird dann in nem Jahr rum brennendes Thema sein..
 
Eine GRafikkarte kann nicht laggen. Sie kann ruckeln aufgrund schlechter Frametimes. Laggen ist per Definition etwas technisch völlig anderes. Dass das Ergebnis höchstwahrscheinlich zu Gunsten von Vega ausgeht wenn du Vega mit Sync gegen 1080 ohne Sync vergleichst ist halt ne echte Überraschung, not. Únter gleichen Bedingungen getestet werden sich Vega und 1080 da absolut nicht geben...

Irgendwie scheinst du mir von der MAterie jetzt nicht so wirklich Ahnung zu haben, wenn du derartige Vergleiche machst und das Wort lag in Zusammenhang mit Grafikkarten verwendest...
 
Frames bringt mir die in 4k genug mit dem ryzen wenn das üble lagging nicht wäre ohne sync für mich müll.
Sollte vega das besser können wo ist das problem?

Da gibt es kein Problem. Es ging gar nicht um Vega :fresse:

Deine 1080 liefert in dem Bench weniger Punkte als andere 1080er bei gleichem Takt, also scheint bei dir im System irgendwo der Wurm drin zu sein. Das könnte auch der Grund für die aufkommenden Lags sein.
 
Eine GRafikkarte kann nicht laggen. Sie kann ruckeln aufgrund schlechter Frametimes. Laggen ist per Definition etwas technisch völlig anderes. Dass das Ergebnis höchstwahrscheinlich zu Gunsten von Vega ausgeht wenn du Vega mit Sync gegen 1080 ohne Sync vergleichst ist halt ne echte Überraschung, not. Únter gleichen Bedingungen getestet werden sich Vega und 1080 da absolut nicht geben...

Irgendwie scheinst du mir von der MAterie jetzt nicht so wirklich Ahnung zu haben, wenn du derartige Vergleiche machst und das Wort lag in Zusammenhang mit Grafikkarten verwendest...

Aber du hast die volle ahnung.
Lag in gaming depends on the type of game being played, the graphics properties, and the computer's specifications. Games with large cities of high textures being rendered at high frame rates will generally lag more than a simple three-dimensional platformer. Lag has been an issue since the dawn of gaming and can either be solved by quality lowering or hardware upgrading.
Lag - Scratch Wiki
 
Zuletzt bearbeitet:
Damit...du dann...wieder wechseln kannst? :hust:
Spaß muss sein. Wenn Vega nicht die von irgendwelchen random Leuten angepriesene Miningleistung bringt, dann fällt mein theoretisches Kartenhaus in einem Stück in sich zusammen. Dann wird nicht genug Geld da sein um zielführend weiterentwickeln zu können. Gerade diese multi gpu Geschichte ist sicher ein gutes Stück Arbeit. Aber das wird dann in nem Jahr rum brennendes Thema sein..

Eher später da Navi auf 7nm wie Ryzen 2 setzen soll und das könnte dank der EUV Lithografie noch dauern :(
 
@Motkachler
Schön und welche Referenz hat Scratch Wiki? Wikipedia umreißt lags anders. Und selbst Scratch Wiki beschreibt es als etwas anderes als du hier das Wort benutzt, siehe Botcrusher...
 
Wir wissen doch auch so was gemeint ist ;)
 
Lag hat mit einer Grafikkarte nichts zu tun ;)
Das hat sich aber wohl auch schon langsam eingebürgert, wie das "hacken" in Spielen :rolleyes:
 
Fein. Mal einer als der Marketingabteilung bei dem nicht die Schädigung der Firma in Vordergrund steht. Priorisierung der 56 ist der einzig richtige Weg. Fehlen noch die Herstellerkarten. Irgendwas muss man doch mal aus der Zeit von Hawaii bis Polaris gelernt haben.
 
Es ist einfach ein mühseliges Thema geworden. Gäbe es einen von allen genutzten Standard - ob jetzt FreeSync oder GSync tut grade nichts zur Sache - könnte man fröhlich hin und her wechseln. 2015 AMD, 2016 nVidia, 2017 nVidia,... 2090 AMD.

Aber es ist ja nicht für alle nur die Leistung der Balken ausschlaggebend. Ich hatte bis vor kurzem eine 980Ti, 1500MHz. Die hatte also gut Bumms, dazu einen PG279Q (ich hoffe das ist richtig :d). Super Karte. Leider frühzeitig verstorben obwohl nie mehr als 50°C gesehen (WaKü). Aber: das Spulenfiepen der Dinger war schon abartig. Und die Treiber von nVidia haben bei jedem Update Probleme gemacht. Zur Not dann halt beim maximal möglichen OC. Und GSync im Fenstermodus wurde auch alle Nase lang einfach deaktiviert. Ich fand die Geforce Experience (hihi[emoji23]) nicht so berauschend. Das was ich bei meinem Bruder mit seiner RX580 bei den Treibern sehe ist viel solider und durchdachter.

Dasselbe ist bei CPUs. Ja, mein Ryzen 1800X@4GHz ist etwas langsamer in einigen Spielen als ein 7700K. Aaaber - hat auch Vorteile. Ab von Spielen ist der 7700K mit Abstand geschlagen und ich muss die Garantie nicht durchs delidden verlieren. Da verzichte - ich persönlich - gerne auf maximal 10% mehr fps.

Genauso ist es jetzt bei Vega. Die 1080Ti ist außer Konkurrenz. Aber die 1080 mag vielleicht hier und da Mal schneller sein (davon gehe ich zumindest aus), bei maximalem OC. Die 3-4 fps sind mir aber egal, wenn ich dafür einen soliden und durchdachten Treiber bekomme. Dazu muss ich auch noch sagen, dass ich bei FreeSync 2 Monitoren den Vorteil sehe, dass kein fest von AMD vorgeschriebener HDR Standard definiert ist. Bei nVidia schon.

Die Preise bei nVidia GSync HDR Monitoren sind - mMn - jenseits von jeglichem Erklärungsvermögen. Die Monitorhersteller haben da bei FreeSync 2 HDR mehr Handlungsspielraum.

Es ist immer das Gesamtpaket. Noch dazu ist mir AMD etwas sympathischer. Die kleinen versuchen die großen zu Ärgern. Den Typen mit seiner Lederjacke kann ich mir echt nicht geben. Macht nicht viel aus, aber vielleicht manchmal das letzte benötigte Quentchen um sich für eine Hardware zu entscheiden.

Rein auf die Gamingleistung bezogen MUSS man einen 7700K kaufen, delidden, auf 5GHz (wenn er es packt) takten, mit schnellem RAM flankieren und eine 1080Ti @2100MHz dazu stecken. Dann muss man sich nichts mehr sagen lassen.

Man kann aber auch einen Ryzen und eine RX Vega wählen und hat weniger Leistung zur Verfügung. Dafür passt einem zB das Drumherum besser in den Kram.

Das einzige was bei mir dazu führen könnte, dass ich Vega als Reinfall deklariere ist nicht, wenn NUR GTX 1080 Leistung rum kommt (weil ehrlich, ist die GTX 1080 ein schlechtes Brett? So tun machen hier wenn man "NUR von 1080 Leistung" spricht. Wo stand AMD vorher? Bei maximal 980 OC Leistung!) sondern wenn die Frameschleuder dabei 350W aus der Dose nuckelt. Oder 799€ kostet.

Es ist allerdings auch immer einfach zu mosern. Würde ich die RX Vega entwickelt haben würde auf einer Präsentationsfolie ein alter Kaugummi - unter nem Schuh klebend - abgebildet sein und danach wär 'empty'.

Von daher...
 
Zuletzt bearbeitet:
HDR funktioniert bei Freesync nicht. ausschließlich mit Freesync 2 und muss softwareseitig unterstützt werden, sprich es muss im Game hinterlegt sein. Freesync und HDR zusammen funktioniert nicht. Freesync monis können in HDR nur ohne Sync betrieben werden (falls es überhaupt welche gibt).

Grade hier liegt einer der Vorteile von Gsync, die Freesync nicht bieten kann und mit Freesync 2 nur aufwendig per Softwareunterstützung (also letztlich auch eine Bindung). Einer der Gründe warum Gsync mehr kostet und von NVidia bestimmt so schnell nicht aufgegeben wird, warum sollte man technischen Vorsprung verschenken?
 
Zuletzt bearbeitet:
Ja, sie sind schneller...

Kann ja eigentlich nicht sein...Komisch..

vega 64 wird vermutlich etwa so schnell wie die gtx 1080.

wie viel schneller die 1080 ist als die 500er Serie kannst du in jedem test einsehen.

grob sprechen wir hier von etwa 70% Mehrleistung gegenüber der rx580.
Grafikkarten-Rangliste: GPU-Vergleich - ComputerBase

70% klingt ja schon mal ordentlich. Ich mein aber auch vor allem die kleineren Vega, die Preislich ähnlich liegen werden.
 
HDR funktioniert bei Freesync nicht. ausschließlich mit Freesync 2 und muss softwareseitig unterstützt werden, sprich es muss im Game hinterlegt sein. Freesync und HDR zusammen funktioniert nicht. Freesync monis können in HDR nur ohne Sync betrieben werden (falls es überhaupt welche gibt).

Grade hier liegt einer der Vorteile von Gsync, die Freesync nicht bieten kann und mit Freesync 2 nur aufwendig per Softwareunterstützung (also letztlich auch eine Bindung). Einer der Gründe warum Gsync mehr kostet und von NVidia bestimmt so schnell nicht aufgegeben wird, warum sollte man technischen Vorsprung verschenken?

naja sie könnten ja zusätzlich noch freesync unterstützen, dann hätten die Leute mit einem guten IPS Monitor die Möglichkeit zu Nvidia zu greifen ohne darauf verzichten zu müssen.

@Jtothek
das mit der 1080 sehe ich ähnlich, selbst wenn amd erst jetzt eine gleich starke karte für einen ähnlichen preis ~500€? bringt sollte man nicht vergessen dass damals die karte gute 700 gekostet hat (wenn ich mich richtig erinnere).
 
70% klingt ja schon mal ordentlich. Ich mein aber auch vor allem die kleineren Vega, die Preislich ähnlich liegen werden.

zu der "kleinen" gibt's aktuell nur das gerücht das die karte 20% schneller wäre als die 1070, was etwas seltsam wäre, da man dann die "große" quasi überflüssig macht.

am besten einfach die Tests nächste Woche abwarten ;)
 
Das wäre nicht seltsam.

R9 290 vs R9 290X waren wie viel Unterschied? 5-10% meine ich. Hab damals auch die 290 genommen da viel günstiger und kaum langsamer. Bei AMD war das schon oft so!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh