Finale Daten und Preis zur Radeon Pro Duo bekannt

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.015
<p><img src="/images/stories/logos-2013/amd-radeon-2013.jpg" alt="amd radeon 2013" style="margin: 10px; float: left;" />Mit der Radeon Pro Duo hat AMD Mitte März die lange erwartete Dual-GPU-Grafikkarte mit zwei Fiji-GPUs vorgestellt. Wohlgemerkt handelt es sich dabei um ein Nischenprodukt, denn wer zwei Fiji-GPUs in seinem Sytem möchte, verbaut einfach zwei Radeon R9 Fury X oder Radeon R9 Nano – der Reiz der Radeon Pro Duo liegt vielmehr in der Tatsache, dass sich hier zwei GPUs auf einem PCB befinden. Nach der <a href="index.php/news/hardware/grafikkarten/38417-amd-praesentiert-die-radeon-pro-duo-mit-zwei-fiji-gpus-und-spricht-ueber-vr.html" target="_self">Vorstellung der Radeon Pro Duo</a> haben wir uns auch schon <a...<br /><br /><a href="/index.php/news/hardware/grafikkarten/38857-finale-daten-und-preis-zur-radeon-pro-duo-bekannt.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
War das entwickeln dieses PCBs so aufwändig oder warum ist sie so Teuer, ich mein für den preis kauft man sich lieber drei Fury X.
 
Für 1700€ bekommt man also sagenhafte 4GB Speicher und einen 120er Radiator der über 500W an Abwräme abführen soll?
Also solange die Karte nicht irgendwie zaubern kann um das alles auszugleichen, ist sie mMn ne Totgeburt.
Für 500€ weniger bekommt man zwei 980Ti die mehr Speicher haben und ungefähr gleich schnell, wenn nicht schneller, sind.
Oder wenn man schon doppelt soviel Geld in eine GPU steckt wie andere in ihr ganzes System, kann man auch gleich für 300€ mehr zu einem Titan X SLI Gespann greifen.
 
Naj der Preis hats aber mal in sich...
Hatte auf ca. gute 500€ weniger gehofft und dann nen etwas niedrigeren Straßenpreis.
Das is allerdings "etwas" viel des Guten...
 
Dual GPU Karten wären nur dann attraktiv, wenn die wenigstens ein klein wenig günstiger wären, als 2 einzelne Karten (oder wenigstens das selbe kosten würden).
Aber die Karte wird wohl den Weg der Titan Z gehen.
 
Für 500€ weniger bekommt man zwei 980Ti die mehr Speicher haben und ungefähr gleich schnell, wenn nicht schneller, sind.
Oder wenn man schon doppelt soviel Geld in eine GPU steckt wie andere in ihr ganzes System, kann man auch gleich für 300€ mehr zu einem Titan X SLI Gespann greifen.

Du hast dir anscheinend nicht die letzten DX12 Benchmarks angeschaut hm? Ich schätze einfach mal Pi mal Daumen, dass man mit vier GTX980Ti die gleiche Leistung kriegt... vielleicht 😜.

Außerdem, wie oft müssen AMD und alle Redaktionen der Welt erwähnen, dass es sich hierbei um eine Nische handelt. Für jemanden, der SLI oder Crossfire-Leistung in einem ITX Gehäuse möchte, ist diese Karte die beste Wahl. Mit DX12 ist es auch 8GB Gesamtspeicher, nicht mehr wie früher nur 4. Und wer sich die Benchmarks der letzten DX11 Spiele angeschaut hat weiß, dass für diese vier GB HBM absolut ausreichend sind, auch bei 4K.

Immer wieder die Nörgler mit ihren unüberwindbaren Tellerrändern und unzerstörbaren Scheuklappen.
 
Was waren das noch für Zeiten, als das Top-Modell mit zwei GPUs 600€ gekostet hat. Meiner Meinung nach war meine 5970 damals ja schon relativ teuer, aber die hier kostet ja fast das dreifache.
 
Du hast dir anscheinend nicht die letzten DX12 Benchmarks angeschaut hm? Ich schätze einfach mal Pi mal Daumen, dass man mit vier GTX980Ti die gleiche Leistung kriegt... vielleicht .

Außerdem, wie oft müssen AMD und alle Redaktionen der Welt erwähnen, dass es sich hierbei um eine Nische handelt. Für jemanden, der SLI oder Crossfire-Leistung in einem ITX Gehäuse möchte, ist diese Karte die beste Wahl. Mit DX12 ist es auch 8GB Gesamtspeicher, nicht mehr wie früher nur 4. Und wer sich die Benchmarks der letzten DX11 Spiele angeschaut hat weiß, dass für diese vier GB HBM absolut ausreichend sind, auch bei 4K.

Immer wieder die Nörgler mit ihren unüberwindbaren Tellerrändern und unzerstörbaren Scheuklappen.

Das ist aber wirklich eine Nische, die meisten kaufen sich da lieber 2-3 Fury X und haben mehr davon.
 
Mit 1500 war zumindest zu rechnen.
 
Wart mal ab bis die kommt. Das Teil wird neue Maßstäbe in Sachen Lautstärke und Wärmeabgabe setzen.
 
Wart mal ab bis die kommt. Das Teil wird neue Maßstäbe in Sachen Lautstärke und Wärmeabgabe setzen.
Naja, das hat sich bei der 295X2 auch durchaus in Grenzen gehalten.
Da würde ich nicht viel befürchten.

Der Preis ist allerdings in der Tat recht happig.
Mal sehen was für Argumente, AMD dafür findet.

Das ist aber wirklich eine Nische, die meisten kaufen sich da lieber 2-3 Fury X und haben mehr davon.
Schon CF/SLI selbst ist eine Nische ;)
 
Mit der Karte hat sich AMD eh nen Bock geschossen es stehen Karten in 16Nm vor der Tür.
Viel zu spät.
 
Schlimmer als die 295X2 kann es auch kaum werden.

Mit der Karte hat sich AMD eh nen Bock geschossen es stehen Karten in 16Nm vor der Tür.
Viel zu spät.

Genau dies ist mein Gedanke. Wer gibt 1500 € für eine Dual-GPU-Karte aus wenn in einigen Monaten sowas von einer Karte erreicht wird? Vielleicht wie bei Titan X<>295X2, aber dennoch. Zu der Zeit verbrauchte die Titan fast die Hälfte für die annäherende Leistung auf einer GPU.

Das Jahr geht schnell vorbei und dann stehen auch schon die Bigchips vor der Tür.

- - - Updated - - -

Schlimmer als die 295X2 kann es auch kaum werden.

Mit der Karte hat sich AMD eh nen Bock geschossen es stehen Karten in 16Nm vor der Tür.
Viel zu spät.

Genau dies ist mein Gedanke. Wer gibt 1500 € für eine Dual-GPU-Karte aus wenn in einigen Monaten sowas von einer Karte erreicht wird? Vielleicht wie bei Titan X<>295X2, aber dennoch. Zu der Zeit verbrauchte die Titan fast die Hälfte für die annäherende Leistung auf einer GPU.

Das Jahr geht schnell vorbei und dann stehen auch schon die Bigchips vor der Tür.
 
Mit DX12 ist es auch 8GB Gesamtspeicher

Da hat jemand DX12 nicht ganz verstanden, und 4k auch noch nicht wirklich mit Potenter Grafik genutzt oder wie, den 4 GB, bei schöner Grafik (erst recht wenn man die Leistung der Chips voll nutzen will, und dann auch gerne mal die Config über Ultra einstellt) sind zu wenig. Mir laufen sogar schon meine 6 GB regelmäßig voll.
 
Mit der Karte hat sich AMD eh nen Bock geschossen es stehen Karten in 16Nm vor der Tür.
Viel zu spät.
Nicht direkt, denn bis die nächste Dualkarte, also die in 16nm kommt, wird wieder gut über ein Jahr vergehen.

Wie das mit dem Zusammenlegen des SPeichers läuft haben wir leider in der Praxis, also einem Game noch immer nicht gesehen.
Hoffentlich wird das noch was.
 
Es ist schon eine weile her als ich mich zuletzt mit Dual-GPU-Grafikkarten beschäftigt habe, haben solche Karten Vorteile in Bezug Mikroruckler, benötigen derartige Karten auch Crossfire (bzw bei Nvidia SLI) Treiber sodass beide GPU's genutzt werden?
 
Es ist schon eine weile her als ich mich zuletzt mit Dual-GPU-Grafikkarten beschäftigt habe, haben solche Karten Vorteile in Bezug Mikroruckler, benötigen derartige Karten auch Crossfire (bzw bei Nvidia SLI) Treiber sodass beide GPU's genutzt werden?
Es ist schon weiterhin Crossfire/SLI. Also man ist auf Profile angewiesen und die ursache für Mikroruckler besteht weiterhin.
Angeblich sollen diese aber aufgrund des eigenen PLX Chips (kein separater auf dem Mainboard) sowie der kürzeren Sigallänge, aber schwächer ausfallen...
Aus erster Hand kann ich das nicht prüfen.
 
Danke dir für die Infos,
aber ist es überhaupt bei so einer Karte möglich, dass man manuell auswählen kann das nur eine GPU läuft?
Bei Zwei Karten ist dies ja möglich bei SLI/Crossfire, aber bei einer Karte wie regelt man dies, ganz genauso?
 
Danke dir für die Infos,
aber ist es überhaupt bei so einer Karte möglich, dass man manuell auswählen kann das nur eine GPU läuft?
Bei Zwei Karten ist dies ja möglich bei SLI/Crossfire, aber bei einer Karte wie regelt man dies, ganz genauso?

Natürlich, man kann Crossfire mit einem Klick im Crimson deaktivieren oder nur für bestimmte Spiele aktivieren ;)
Und das mit den Mirkorucklern ist sehr viel besser geworden. Das Problem sind Spiele-Engines die einfach nicht mit mehreren GPUs zurecht kommen - und davon gibt es leider noch genug. Mit der vollständigen Umstellung auf DX12 wird sich dies aber grundlegend ändern.

Ohne jetzt viel TamTam zu machen - diese Karte ist für Enthusiasten. Da zählt die Abwärme oder die Geräuschkulisse nicht (wobei diese Punkte mit der 290X2 schon exzellent bewältigt wurden) - es geht um das letzte Quäntchen an Leistung. Und speziell in Bezug auf VR kann das für viele sehr interessant sein. Selbst wenn Polaris/Pascal deutlich schneller sein werden glaube ich nicht dass die jeweils schnellste Karte der neuen Generation die Pro Duo in einem Spiel mit CF Support schlagen kann.

Und dann wären da noch die Hauptabnehmer im professionellen Bereich (so ziemlich alles rund um OpenCL/GL).

mfg,
Markus
 
Zuletzt bearbeitet:
Ja, die sellt alles je dagewesene in den Schatten. Beim Preis, Leistung und Energiehunger, denke aber mit der Lautstärke wirds nicht so schlimm. Sind ja keine Lüfter verbaut, jedenfalls nicht direkt.
 
Ja, die stellt alles je dagewesene in den Schatten. Beim Preis, Leistung und Energiehunger, denke aber mit der Lautstärke wirds nicht so schlimm. Sind ja keine Lüfter verbaut, jedenfalls nicht direkt.

Das stimmt natürlich nicht - beim Preis gibt es da garkeinen Argumentationsspielraum. nvidias Titan Z hatte eine fast doppelt so hohe UVP, und ist selbst in ihren "günstigsten" Zeiten nicht unter 1350€ gefallen; die R9 295X2 war quasi genauso schnell, hatte aber eine UVP von 1500$ und war bestenfalls für ~650€ zu haben.
Bei der Leistung hast du sicherlich recht: so lange wir keine Big-Chips in 14/16nm sehen, dürfte Dual-Fiji nicht zu schlagen sein.
Was den Energiehunger angeht werden wir Tests abwarten müssen, welche der drei Dual-GPU-Karten diesen zweifelhaften Titel davontragen kann: Die R9 295X2 kam ihrerzeit auf ca. 550W Maximalverbrauch [CB / PCGH]. Zur Titan Z habe ich auf die Schnelle nur den Test auf chip.de gefunden, wo das Gesamtsystem im Leerlauf 120W und unter Last 693W zieht - die Titan Z alleine dürfte sich also in einer ähnlichen Liga wie die R9 295X2 bewegen. Wo die Radeon Pro Duo landen wird können wir erst nach dem Fall des NDAs mit Sicherheit wissen, denn unter anderem wäre ja vorstellbar, dass der Verkaufsstart solange hinausgezögert wurde, damit AMD die Fiji-Chips, die mit besonders niedriger Vcore laufen, extra aussortieren kann um Dual-Fiji auf einem erträglichen Stromverbrauch zu halten.
In Bezug auf die Lautstärke bin ich optimistisch. Wenn AMD es diesmal hinbekommt, im Leerlauf vernünftige Drehzahlen für den / die Lüfter am Radiator anzulegen, dann könnte die Karte durchaus erträglich werden.
 
Da hat jemand DX12 nicht ganz verstanden, und 4k auch noch nicht wirklich mit Potenter Grafik genutzt oder wie, den 4 GB, bei schöner Grafik (erst recht wenn man die Leistung der Chips voll nutzen will, und dann auch gerne mal die Config über Ultra einstellt) sind zu wenig. Mir laufen sogar schon meine 6 GB regelmäßig voll.

Du hast ja offensichtlich auch keinen HBM sonder noch GDDR5, da ist ein Unterschied.
 
Du hast ja offensichtlich auch keinen HBM sonder noch GDDR5, da ist ein Unterschied.

Die Speichertechnik macht da aber nicht direkt den Unterschied in wie weit der Speicher vollläuft. Das ist eher eine Sache, an der AMD über den Treiber mit gewissen Optimierungen drehen kann. Stichwort Komprimierung.
 
Der Preis ist happig, wann werden wir einen Test lesen können?

Wobei man ja schon davon ausgehen kann, das die Leistung etwas unter furyx cf liegen wird, aber die Speicherverwaltung wird interessant sein ...
 
Zuletzt bearbeitet:
Du hast dir anscheinend nicht die letzten DX12 Benchmarks angeschaut hm? Ich schätze einfach mal Pi mal Daumen, dass man mit vier GTX980Ti die gleiche Leistung kriegt... vielleicht 😜.

Außerdem, wie oft müssen AMD und alle Redaktionen der Welt erwähnen, dass es sich hierbei um eine Nische handelt. Für jemanden, der SLI oder Crossfire-Leistung in einem ITX Gehäuse möchte, ist diese Karte die beste Wahl. Mit DX12 ist es auch 8GB Gesamtspeicher, nicht mehr wie früher nur 4. Und wer sich die Benchmarks der letzten DX11 Spiele angeschaut hat weiß, dass für diese vier GB HBM absolut ausreichend sind, auch bei 4K.

Immer wieder die Nörgler mit ihren unüberwindbaren Tellerrändern und unzerstörbaren Scheuklappen.

Man braucht 4 980TI für eine Dual Fury X? Interessant, wieso nicht gleich 10 oder 15? Manche Leute reden sich ihre Welt ganz schön hübsch.
 
Du hast dir anscheinend nicht die letzten DX12 Benchmarks angeschaut hm? Ich schätze einfach mal Pi mal Daumen, dass man mit vier GTX980Ti die gleiche Leistung kriegt... vielleicht .

Außerdem, wie oft müssen AMD und alle Redaktionen der Welt erwähnen, dass es sich hierbei um eine Nische handelt. Für jemanden, der SLI oder Crossfire-Leistung in einem ITX Gehäuse möchte, ist diese Karte die beste Wahl. Mit DX12 ist es auch 8GB Gesamtspeicher, nicht mehr wie früher nur 4. Und wer sich die Benchmarks der letzten DX11 Spiele angeschaut hat weiß, dass für diese vier GB HBM absolut ausreichend sind, auch bei 4K.

Hast du dir denn mal DX12 Benchmarks angesehen?
Mir scheint, dass es eher Mau mit CF und SLI überhaupt aussieht in DX12... Also nix mit dem tollen Leistungsplus ;) Geschweige denn irgendwelchen Marketinggeblobber von verdoppeltem Speicher. Die Entwickler der Software müssen da liefern. Haben die keinen Bock drauf, ist nix mit MGPU.
Auch das ITX Argument zieht nicht. Das winzige "Kärtchen" bringt mal grob schlappe 28cm auf die Uhr. Das sind mal brachiale 2,5cm weniger als die alte 295X2 hat. Für ein ITX Gehäuse gibt es bessere Vertreter... Einziger sinnvoller Einsatzzweck von MGPU Karten auf einem PCB war schon immer nur die maximale Höhe von 2-3 Slots. Das liefert man nicht mit SGPUs im Doppelpack. Oder wenn man eben mehr vier GPUs für GPGPU, Rendering oder sonstwas nutzen will.

Und wer sich Benchmarks der letzten DX11 Spiele angesehen hat, der weis, dass 4GB hart an der Grenze sind. Auch mit dem HBM Speicher, der im Endeffekt genau gar nix an der Situation ändert. Einzig AMD optimiert für diese Modelle, damit es eben mit dem Speicher klappt. Wie lange man das Problem damit rausschieben kann, ist bestenfalls aber fraglich...

Und dann wären da noch die Hauptabnehmer im professionellen Bereich (so ziemlich alles rund um OpenCL/GL).

Diese Leute geben sich idR aber nicht mit 4GB zufrieden. Geschweige denn, dass sie sich mit nem Gamermodell zufrieden geben. Dazu fehlt der Support auf die Karte usw. usf.
Für den Profimarkt gibt es andere Karten, die eine weit bessere Figur machen. Je nach Anforderung halt.

Das Problem sind Spiele-Engines die einfach nicht mit mehreren GPUs zurecht kommen - und davon gibt es leider noch genug. Mit der vollständigen Umstellung auf DX12 wird sich dies aber grundlegend ändern.

Eher wird sich das Problem mit DX12 noch verschlimmern... Denn MGPU ist und bleibt (vorerst) ein Randprodukt. Kein Entwickler der Welt wird dafür massiv Geld und Zeit investieren, wenn es nicht einen massiven Gegenwert bringt. Es schaffen ja heute nichtmal alle Entwickler ihre Produkte auf grundsätzliche MGPU Tauglichkeit hinzubauen. Und da liefert idR noch der Hersteller einen Großen Teil dazu bei.
Mit DX12 ändert sich dies zu deutlich mehr Implementationsarbeit für die Entwickler... Und genau das IST ein Problem, wo es eben diese Entwickler teilweise nichtmal hinbekommen, eine halbwegs fehlerfreie Software anzubieten, wie auch der Kunde oftmals den Betatester spielt und die Publisher das Produkt am Ende so schnell wie möglich, allen Problemen zum Trotz auf den Markt schmeißen wollen.
Also ne. MGPU wird in Zukunft viel beschissenere Vorzeichen haben als heute noch.
 
Zuletzt bearbeitet:
ein Machbarkeitsstudie, einfach nur weil mans kann. 1600€ abhängig vom oder krankend am CF support der Spieleentwickler und des Treiberteams. je nach dem ...
ich finds witzig.
 
Naja bisher waren die Duals von AMD mehr als eine Machbarkeitsstudie von der 4870x2 mal angefangen :d

Es wird einfach mal Zeit für den Test ... :p
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh