AMD Radeon RX Vega 64 und 56 offiziell vorgestellt – Preise, Details und mehr

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
also du bist der, der tatsächlich weiß wie die Karte läuft! Na denn ma raus damit!

An welcher Stelle du Argumentationen siehst ist mir völlig schleierhaft. Der Kindergarten hat sich aus dem Prozessorbereich in den Grafikkartenbereich verschoben. Ist noch keinem aufgefallen?
Argumentation auf Faktenbasis. Hier steht ja ne Menge Blödsinn auf den letzten zehn Seiten aber diese Aussage spielt schon sehr weit oben mit..

.... wenn AMD in ihrer Hoch offiziellen mit Cherry picked Benchmarkeds Präsentation Vega der 1080 gegenüberstellt (auch preislich) wo sie mal mehr - eher häufiger weniger - frames als die 1080 hat, denke ich sollte klar sein wie die Karte läuft :fresse2:

Also ich habe zumindest noch keine Produktpräsentation keines Herstellers gesehen, wo mit Absicht tief-gestapelt wird um dann 14 Tage später ein Kaninchen aus dem Hut gezaubert wurde und das Produkt auf einmal viel besser ist .....

Hier wird sich imho an den letzten Strohhalm geklammert, sprich "Wundertreiber" ... aber das kennt man ja hier auch zu genüge.
 
Zuletzt bearbeitet:
Das Bundle ist eh unbrauchbar. Rabatt auf einen der schlechtesten Freesync monis. geil. rabatt auf 1700X/1800X + drei spezifische mobos, wovon das titanium rotz ist. geil. 1700 + board ist genauso günstig, und günstigere boards sind eh nicht in der aktion. der hammer. und dafür will AMD dann 100 eier extra. das bundle ist doch nur leeres PR geblubber, damit Vega allein nicht als so ein schlechter deal gilt. Nahezu niemand wird den inhalt des bundles in der form ausnutzen wollen.
Solche Bundels lohnen sich nur dann, wenn man ohnehin ausgerechnet diese oder vergleichbare Produkte kaufen wollte. Manchmal ist man ja noch an bestimmte Händler gebunden und muss den Cashbackbetrag fristgerecht beim Hersteller einfordern.

also du bist der, der tatsächlich weiß wie die Karte läuft! Na denn ma raus damit!

An welcher Stelle du Argumentationen siehst ist mir völlig schleierhaft. Der Kindergarten hat sich aus dem Prozessorbereich in den Grafikkartenbereich verschoben. Ist noch keinem aufgefallen?
Argumentation auf Faktenbasis. Hier steht ja ne Menge Blödsinn auf den letzten zehn Seiten aber diese Aussage spielt schon sehr weit oben mit..
Dein Vorschlag wäre also noch 2 Jahre zu warten, in der Hoffnung, dass bis dahin alles anders aussieht? Selbst an AMDs Propagandabenchmarks scheinst du nicht zu glauben und gehst wohl davon aus, dass AMD die absichtlich nach unten manipuliert hat. Genauso wie Preise und TDP nach oben manipuliert wurden um dann in 2 Wochen plötzlich zu überraschen. Ja, macht Sinn...

Naja, wäre wenigsten dieser tolle Holocube dabei gewesen:
AMD Radeon Vega Holocube - Vorerst nicht erhältlich - GameStar

aber nein, nun muss AMD alleine mit der Karte punkten. :hmm:
Da frag ich mich aber auch weshalb man so einen Quatsch veranstaltet. Ablenkung vom eigentlichen Produkt?
 
Zuletzt bearbeitet:
Also wenn trotz 345W TDP immerhin 20% schneller als die 1080 TI wäre hätte man die Karte loben können.

Die 8GB HBM2 Speicher wären auch noch vollkommen ok , aber hier ist ein scheiß Produkt entstanden gegenüber Pascal und zudem ist
Pascal schon alt.
 
Da frag ich mich aber auch weshalb man so einen Quatsch veranstaltet. Ablenkung vom eigentlichen Produkt?

Könnte mir schon auch lebhaft vorstellen, dass so ein Cube zur Produkterfahrung beitragen könnte, aber was soll, ist nicht erhältlich, wahrscheinlich zu Navi dann. :fresse:
 
Man muss sich nur die BF 1 Ergebnisse von AMD höchst selbst anschauen damit einem klar wird das Vega die HD2900XT 2.0 geworden ist.

Man bekommt ab 499$ ( also eher so ~600€ hier Zulande )
-enormen Verbrauch
-hohe Abwärme
-gesunkene IPC zu FuryX
-Leistung von vor über einem Jahr im Spektrum von 980Ti custom /1070 - 1080

Bei dem was die da fabriziert haben gemessen an der Konkurenz am Markt ist es kein Wunder das sie keine Ergebnisse präsentieren und versuchen alles zu vernebeln.
Aber selbst der Vergleich zur in house FuryX ist einfach nur katrastrophal.



( Radeon RX Vega 64 und 56: Technische Daten, Release-Termin, Preis & erste Testergebnisse [Update 2] - Bildergalerie, Bild 22 )
 
Da wir hier schon vom Schlechtreden seitens AMD reden.
Die Fury X hatte bzw. hat eine Board-Power von angegebenen 275 Watt TDP. Ist also nicht unweigerlich weit von einer RX VEGA entfernt, die noch mit Luft gekühlt wird.
Die selbe Anzahl von Shadern und fast die selbe Bandbreite des Speichers setzen die beiden Produkte, rein technisch gesehen, auf gleiche Höhe. Also wieder Gleichstand zwischen Fury X und RX Vega.
Was kann nun Vega besser ?
Sie ist 30-40% schneller als Fury X was ja eigentlich für eine neue Generation völlig ok ist oder ? Wo genau ist nun die Katastrophe ?

Man darf nicht vergessen, man vergleicht eine Fury X mit ausgereiften Treibern gegen eine RX VEGA mit Treibern noch im Alpha-Stadium wo noch nicht alles so funktioniert oder aktiv ist, wie es sein sollte.
 
Zuletzt bearbeitet:
"Alpha-Stadium" Treiber !? Eine Karte die es in 14 Tage zu kaufen gibt und seit min. 2 Jahren in der Entwicklung ist ... come on :fresse2:

Wie ich schon schrieb jetzt kommt der "Wundertreiber"-Strohhalm ... ich glaub die Fury Besitzer warten noch heute.
 
Sie ist 30-40% schneller als Fury X was ja eigentlich für eine neue Generation völlig ok ist oder ? Wo genau ist nun die Katastrophe ?
In 2 Jahren ist das sehr mager. V.a. auch weil die Fury X klare Flaschenhälse hat.

Man darf nicht vergessen, man vergleicht eine Fury X mit ausgereiften Treibern gegen eine RX VEGA mit Treibern noch im Alpha-Stadium wo noch nicht alles so funktioniert oder aktiv ist, wie es sein sollte.
Wenn die Treiber immer noch im Alphastadium sind, dann werden die auch nie einen finalen Status erreichen. Und selbst wenn, 2020 ist das auch egal.
 
also du bist der, der tatsächlich weiß wie die Karte läuft! Na denn ma raus damit!

An welcher Stelle du Argumentationen siehst ist mir völlig schleierhaft. Der Kindergarten hat sich aus dem Prozessorbereich in den Grafikkartenbereich verschoben. Ist noch keinem aufgefallen?
Argumentation auf Faktenbasis. Hier steht ja ne Menge Blödsinn auf den letzten zehn Seiten aber diese Aussage spielt schon sehr weit oben mit..


Es gibt Benches. Von AMD selbst. Warum sollten diese keine Fakten sein? Muss erst CB oder Luxx testen damit man fakten hat? Was brauchst du den noch für Fakten um zu erkennen, dass wir die Leistung bis auf 1-2% kennen? Schon bei den FE benches war einem halbwegs intelligenten Wesen klar, wo die Reise hingeht in Anbetracht der Tatsache, dass ne RX und eine FE BAUGLEICH sind abgesehen von der Speichergröße und das Treiber von heute auf morgen 30% herbeizaubern hat es wann gegeben?
 
Zuletzt bearbeitet:
Ein bisschen selber Recherchieren und weniger Bashen würde diese Diskussion weit niveauvoller gestalten. ;)

Zitat:
Auf seinem Tech Day verriet der Chiphersteller, dass der Großteil der zusätzlichen Schaltungen für den höheren GPU-Takt notwendig sind. Zudem wurde gesagt, dass die Radeon Vega Frontier Edition den Draw Stream Binning Rasterizer noch nicht nutze.

AMD Radeon RX Vega: Der hohe GPU-Takt kostet viele Transistoren

- - - Updated - - -

Es gibt Benches. Von AMD selbst. Warum sollten diese keine Fakten sein? Muss erst CB oder Luxx testen damit man fakten hat?

Die Benches sagen nur aus, was 99Prozent der minimalen FPS so treiben. Nicht was Durchschnittlich oder am höchsten ankommt.
Also absolut wertlos für Balkenlängenvergleiche. Aber für den Beweis eines smoothen Spielgefühls unerlässlich. Das wurde hier schon mehr als einmal erklärt aber anscheinend wollen es ein paar nicht begreifen.
 
Ein bisschen selber Recherchieren und weniger Bashen würde diese Diskussion weit niveauvoller gestalten. ;)

Zitat:
Auf seinem Tech Day verriet der Chiphersteller, dass der Großteil der zusätzlichen Schaltungen für den höheren GPU-Takt notwendig sind. Zudem wurde gesagt, dass die Radeon Vega Frontier Edition den Draw Stream Binning Rasterizer noch nicht nutze.

Ist hoffe das ist nicht so ähnlich wie Nvidia bei Pascal Asynchronous Compute deaktiviert hat und nachreicht :teufel: ja, der war böse ...
 
Ich schätze eher es ist einfach noch zu aufwendig um es allumfassend zu implementieren.
Das Problem ist, dass fast die gesamten Spiele eben nicht auf diese Render-Technik basieren. Der Treiber muss das konvertieren und dies fehlerlos.
NVIDIA hat dazu viel mehr Manpower. AMD muss da ihre Ressourcen(RYZEN/Threadripper/EPIC) sinnvoll einteilen, sprich die Mittel sind begrenzt.

Die RX VEGA wird sicherlich in Zukunft reifen, nur muss man ihr eben Zeit lassen.
 
Zuletzt bearbeitet:
95% der Leute hier Hetzen nur gegen AMD ich denke wir sind hier sicher kein Schlüsselmarkt FÜR Amd... Was regt ihr euch auf ist ja schlimmer wie im Affenkäfig.
Hetze? Amd hatte die Eier so eine Karte abzuliefern und die Kunden 1 Jahr zu vertrösten. Dann müssen die jetzt auch den Spott erdulden.
 
so, 599$ also... Leistung vielleicht etwas besser als die 1080... ich schätze die deutschen Preise auf ca 649€... Sorry AMD, da lege ich 300€ drauf und kaufe mir die TI + Aufpreis für gsync Monitor... aber es wird sich gut verkaufen... es ist kein riesen flop...

Preis ist immerhin relativ gut aber ich befürchte, dass NV reagieren wird und Ihre Produkte (1080, 1070) evtl. etwas billiger anbieten... Allerdings erst wenn die ganzen Minningblase endlich endgültig platzt.

Für mich kommt es nicht in Frage... als neu Käufer werde ich wohl etwas angepisst 300€ mehr ausgeben und mir ein TI + GSync Monitor kaufen.
 
Ein bisschen selber Recherchieren und weniger Bashen würde diese Diskussion weit niveauvoller gestalten. ;)

Zitat:
Auf seinem Tech Day verriet der Chiphersteller, dass der Großteil der zusätzlichen Schaltungen für den höheren GPU-Takt notwendig sind. Zudem wurde gesagt, dass die Radeon Vega Frontier Edition den Draw Stream Binning Rasterizer noch nicht nutze.

AMD Radeon RX Vega: Der hohe GPU-Takt kostet viele Transistoren
Ja, bei Vega FE, wir reden hier aber von RX Vega.

Die Benches sagen nur aus, was 99Prozent der minimalen FPS so treiben. Nicht was Durchschnittlich oder am höchsten ankommt.
Also absolut wertlos für Balkenlängenvergleiche. Aber für den Beweis eines smoothen Spielgefühls unerlässlich. Das wurde hier schon mehr als einmal erklärt aber anscheinend wollen es ein paar nicht begreifen.
Bei AVG Frames steht Vega also noch besser da und AMD präsentiert das nicht? Klingt logisch!

- - - Updated - - -

Ich schätze eher es ist einfach noch zu aufwendig um es allumfassend zu implementieren.
Das Problem ist, dass fast die gesamten Spiele eben nicht auf diese Render-Technik basieren. Der Treiber muss das konvertieren und dies fehlerlos.
NVIDIA hat dazu viel mehr Manpower. AMD muss da ihre Ressourcen(RYZEN/Threadripper/EPIC) sinnvoll einteilen, sprich die Mittel sind begrenzt.
Schön, dann kann man ja ewig warten und warten und warten. Davon hab ich als Käufer viel. :coffee:
 
Wenn das ding wirklich jenseits der 600 bei uns kommt, wirst eh nur noch zum heulen, denn in die richtung bewegt sich die 1080Ti wieder.

550€ + bessere Treiber + viel moralisches Mitleid und die Karte findet vielleicht noch Abnehmer.



Sent from OP3T
 
Was machen eigentlich Fanboys aller Lager wenn sie endlich draufkommen, dass es Konzernabsprachen gibt und sich die Konzerne Ihre Claims schon lange abgesteckt haben und die Kunden mit den Scheinduellen immer noch auf Trab halten ...
 
...
Sie ist 30-40% schneller als Fury X was ja eigentlich für eine neue Generation völlig ok ist oder ? Wo genau ist nun die Katastrophe ?

Man darf nicht vergessen, man vergleicht eine Fury X mit ausgereiften Treibern gegen eine RX VEGA mit Treibern noch im Alpha-Stadium wo noch nicht alles so funktioniert oder aktiv ist, wie es sein sollte.
die Katatstrophe ist: gibt keine Konkurrenz für NVs 1080Ti und Titan. vielleicht mal grade so für die 1080. aber NV wird da oben auch mit Vega machen und lassen können, worauf NV Bock hat. Nvidia, Monopol, mimimi und so. Vega ist grade mal auf Augenhöhe mit ner 980Ti OC. Vega isn Spielzeug von irgendwelchen komplett ambitionslosen und demotivierten Entwicklern, die dafür bezahlt werden, zur Arbeit zugehen. und genau das tun die auch, aber auch nicht einen Pups mehr. 2 Jahre alte Leistung, da spielt TBR, AS, HBM und pupsdiewandan keinerlei Rolle. Vega is noch mehr Krüppel als die olle 970 damals. ob du da Kerzen drum stellst oder Peng.
 
Für mich ist die eigentliche Frage ob man wirklich ordentlich über die Taktraten der wassergekühlten Version takten kann mit Custom WaKü oder ob AMD da ab Werk praktisch schon alles rausgeholt hat (wovon ich fast ausgehe). Kaufen werde ich Vega so oder so nicht, aber wenn Vega performt bekomme ich vielleicht meine nächste Titan oder Ti günstiger ;)
 
Finde, man sollte jetzt auch mal so fair sein und einfach mal den Test abwarten oder nicht :)
 
Release / Launch ohne Test-Samples ist schon ein Armutszeugnis :(

Nach Fury / Nano und dem Ryzen-Mist, wartet man lieber 3 Monate.
Bis es verfügbar ist, Treiber und Bios läuft und die Preise fallen :p
 
Warum du immer dem Konsumenten die Schuld gibst, ist mir absolut rätzelhaft.
Ähm pardon aber, dieser Thread ist das beste Beispiel dafür warum der Konsument eben doch Schuld and der Entwicklung im Hardwarebereich ist! Jeder Vollidiot "braucht 4k und Gysync und 144hz/fps". Viele Leute verstehen gar nicht mehr worum es real geht und einzig und allein irgendwelche Benchmarks und dergleichen werden herangezogen um irgendwelche Investitionen zu rechtfertigen. Da verkauft der Kevin seinen Freesync Monitor weil er ja von AMD keine "gescheite" GPU bekommt mit Verlust und schmeißt lieber der Konkurrenz für proprietäre "Technik" noch einen Bonus in den Rachen. In 2 Jahren wird sich dann nochmal bei AMD beschwert warum man zu dumm ist "gescheit zu entwickeln"...

Aber ja der Kevin braucht seine 4k bzw 10 fps mehr weil sonst ist ihm die Realitätsflucht nicht mehr immersiv genug um von anderen Problemen abzulenken.

wenn dir das zu müßig ist können wir das ganze aber auch abkürzen: linux hat für spieler quasi keine relevanz, daran ändern auch bessere treiber nichts.
Windows 10 - Bei 51,2 Prozent der Steam-Spieler installiert - GameStar
Jetzt hast du ihn aber argumentativ ausgehebelt, Glückwunsch.
 
Zuletzt bearbeitet:
Für mich kommt es nicht in Frage... als neu Käufer werde ich wohl etwas angepisst 300€ mehr ausgeben und mir ein TI + GSync Monitor kaufen.

Ich glaube nicht, dass du damit repräsentativ bist, zumal es nicht um 300 Euro insgesamt, sondern um 300 Euro *mehr* geht. Wenn das reicht. Allein für den G-Sync-Monitor muss man schon 200 zusätzlich rechnen.
Auch verstehe ich nicht ganz, wieso Du angepisst wärst. Die Marketingentscheidung von AMD ist zwar Doof, aber nachvollziehbar. Statt Nvidia den Midrange-Markt zu überlassen und ein paar tausend Highend-Karten mit Bragging Rights für die schnellste zu verkaufen haben sie die Lücke oberhalb der aktuellen Fidschi-Rebrands geschlossen. Sie werden mit Sicherheit auf die Weise wesentlich mehr Grafikkarten verkaufen.
 
Zuletzt bearbeitet:
wenn da etwas smooth ist, dann die performance und effizienzsprüge pro generation.

@topic:
Hier meinte mal iwer die kleine 56er RX gäbe es ab 380€, stimmt das? Woher stammt die Info?

Also wenn es eine 56er (auf die ich eh mein Hauptaugenmerk lege, die 64 liegt außerhalb dessen, was ich zu zahlen bereit bin), wirklich für unter 400€ zu haben ist, dann ist das für mich ein Pflichtkauf. Da denke ich gar nicht drüber nach, um ehrlich zu sein...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh