Finale Daten und Preis zur Radeon Pro Duo bekannt

@fdsonne

Wen interessieren denn DX11 Games in 2 bis 3 Monaten noch...
FarCry 4 in DX11 und Batman AK laufen in 4K HERVORRAGEND unter den mickrigen 4GB HBM Speicher.
Kann man diesen bei der Duo addieren ist doch alles in Butter und sollte das MAß alles extrem Entusiasten sein und werden.
Selbst Vega 10 und Big GP102 werden sich performancemässig an der Duo die Zähne ausbeissen und auch nicht weit unter 1000 Euro kosten.

Dennoch hast recht und die Karte wird sich nicht oft verkaufen können, AMD will sich halt profilieren,- und hoffe sie beißen sich diesesmal nicht!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eher in 2-3 Jahren, davor bezweifle ich sehr das es weit vertreten Support für DX12 geben wird, viele Entwickler setzten zwecks maximaler erreichbar von Kunden weiterhin auf DX11, DX12 würde ich so früh nur von großen Entwicklern erwarten.

Edit: Ich finde die Karte ist mehr oder weniger als eine Machbarkeitsstudie anzusehen, ähnlich wie damals die Titan-Z und dadurch auch nett anzusehen, sie wird sicher auch viel Leistung bieten. Nur die Aussage von StefanG3 das man mindestens 4 980 TI braucht um auf Augenhöhe zu sein ist ziemlich realitätsfremd, eher 2 980 TI oder 2 Fury X.
 
Zuletzt bearbeitet:
@fdsonne

Wen interessieren denn DX11 Games in 2 bis 3 Monaten noch...
FarCry 4 in DX11 und Batman AK laufen in 4K HERVORRAGEND unter den mickrigen 4GB HBM Speicher.
Kann man diesen bei der Duo addieren ist doch alles in Butter und sollte das MAß alles extrem Entusiasten sein und werden.
Selbst Vega 10 und Big GP102 werden sich performancemässig an der Duo die Zähne ausbeissen und auch nicht weit unter 1000 Euro kosten.

Dennoch hast recht und die Karte wird sich nicht oft verkaufen können, AMD will sich halt profilieren,- und hoffe sie beißen sich diesesmal nicht!

Spiele wie GTAV hatten bei mir im Schnitt 5,5 - 6,5 GB VRAM-Auslastung auf einer Titan X. 4 GB mögen zwar meist noch gerade so ausreichen, aber zukunftsweisend sind die nicht.

GP102 wird die 980Ti ersetzen, die wird dann am Ende ab 650 € kosten. Erstmal kommt natürlich wieder eine Titan. Gleiches gilt für die Vega-Karte, die wird vermutlich leistungstechnisch ähnlich sein. 1600 € für eine Dual-GPU oder ~700 für eine Single-GPU (Ohne die damit einhergehenden Probleme) die vielleicht 75-85 % der Leistung schafft mit OC? Zumal die Furys schlecht übertakten und auf 16nm neue Dimensionen der Übertaktung kommen werden.
 
@Berni_ATI: Bis DX12 so weit verbreitet ist und vor allem alle seine Vorteile ausspielen kann, ist die aktuelle Grafikkartengeneration (und auch die nächste) schon längst veraltet und bestenfalls noch Mittelklasse. Das war bei DX11, das erheblich leichter zu implementieren war ja schon so, die erste Spiele hatten für 3 Modele Tesselation drauf gehauen und dann groß mit DX11 geworben. DX12 hat seine größten Stärken sowieso eher in CPU intensiven Spielen, also abseits der "Grafikkracher".
Auch laufen die von dir benannten Spiele alles andere als "hervorragend" mit 4GB HBM. Hervorragend bedeutet alles max. @ 60 FPS und da bist du schnell bei über 4 GB VRam. Kann sein das dir diese Minilags nicht auffallen, mir aber waren die zuviel. 4 GB sind einfach nur für FullHD, aber nichts für jemanden der wirklich in UHD spielen will.
 
Zuletzt bearbeitet:
Wollte klarlegen dass nicht alle Games, auch und vor Allem in 4K nicht schlecht oder gar extrem gut mit 4GB HBM laufen.
Sind halt die Entwickler gefordert, aber Batman AK sieht unter 4K einfach Hammer aus und zusammen mit 8GB Arbeitsspeicher Keine Ruckler sichtlich.
Selbst probiert und mit nur 4GB Arbeitsspeicher Ruckelparty wohin das Auge reicht.
 
Klar wird hier das Thema DX12 klein geredet. Ist ja schließlich ein Punkt, den NVIDIA nicht besonders schmeckt und vermutlich auch so bei Pascal bestehen bleibt.
Übrigens DX12 soll das Implementieren erleichtern und nicht erschweren. Deshalb stürzt sich mittlerweile auch jede Softwareschmiede darauf wie ausgehungerte Wölfe, denen es egal ist, was NVIDIA dazu zu sagen hat. ;)
Natürlich benötigt DX12 eine gewisse Einarbeitungszeit, die aber bei jeder neuen Grafik-Schnittstelle von Nöten ist, aber mit Sicherheit schneller von statten geht, als bei den anderen Schnittstellen vorher. DX10 und DX11 haben Jahre gebraucht um sich zu etablieren, wobei DX11 DX10 komplett verdrängt hat. DX12 wird mittlerweile schon fast als Standard bei jedem neuen Game angeboten und sogar so manchem Game nachgereicht.
Klar, gibt es noch ein paar Holpersteine, aber da kommen noch ein paar Updates und dann läuft die Sache rund.

Diese Karte hier ist zur Zeit das Modernstmögliche, was man bekommen kann. Der Preis wird sich sehr schnell nach unten bewegen genauso wie bei der letzten X2. Anfänglich mit 1500 Euro gestartet, hat sich damals binnen ein paar Tagen der Preis auf 1100-1200 Euro eingependelt und das wird auch hier der Fall sein.

AMD wird sicherlich ein paar Samples verschicken und sich nicht so zickig und ängstlich verhalten wie NVIDIA mit ihrer Titan-Z auch wenn sie weniger V-RAM hat, als es den Leuten lieb ist.

Übrigens. Eine GTX 980Ti hat mehr als 175 Watt TDP. Ist wohl ein Fehler.
 
Zuletzt bearbeitet:
Wer kauft denn diese dual Kochplatte für diesen Preis...

ich hoffe Polaris/Vega wird da deutlich besser.
aber ich glaube Nvidia wird weiterhin die besseren Grafikkarten haben wie schon Jahre zuvor.
 
Was ist das für ein Gehäuse das man da auf den Bildern sieht?
 
Übrigens DX12 soll das Implementieren erleichtern und nicht erschweren.

Das Problem ist nicht die Möglichkeit, sondern viel eher das machen ;) Die Möglichkeit nutzt nix, wenn die Entwickler da keine Lust drauf haben. Und MGPU ist halt eine Randerscheinung. Das wird sich vorerst auch nicht ändern... Und "Machen" für die Entwickler der Spiele heist Zeit/Geld aufwenden für ne Randerscheinung -> und damit ohne wirklichen Mehrwert. Du kannst dir selbst denken, dass dies nicht überall aufgehen wird, zumal die Entwickler eben es heute schon nicht richtig hinbekommen in vielen Fällen.
Bestenfalls mit VR könnte das Thema noch interessant werden. Aber auch dort gibts ganz paar Baustellen, die es erst anzugehen gilt. Einfach nur zwei GPUs haben bringt dir dort auch nix. Von daher...

Wen interessieren denn DX11 Games in 2 bis 3 Monaten noch...
FarCry 4 in DX11 und Batman AK laufen in 4K HERVORRAGEND unter den mickrigen 4GB HBM Speicher.
Kann man diesen bei der Duo addieren ist doch alles in Butter und sollte das MAß alles extrem Entusiasten sein und werden.

Alle die in 2-3 Monaten noch spielen. Warum sollte es keine DX11 Games nach 2-3 Monaten mehr geben?
Es gibt heute noch Games, die können nichtmal DX11. Und das sind nicht wenige...
Noch dazu, das VRAM Thema ist reinstes Marketingblabla. Da wird sich nix addieren. Bestenfalls erhält man etwas mehr wie 4GB real nutzbar... Wie viel genau? Abwarten.
Keins der aktuellen DX12 Titel profitiert in irgend einer weise davon. Und von den paar DX12 Titeln (DX12 gibts nunmehr schon seit wie vielen Monaten?) können nichtmal ALLE mit MGPU Gespannen umgehen.

PS: FC4 ist ein alter Hut und nicht so wirklich VRAM fordernd, dazu mit intelligenter Engine zum Streamen der Objekte ausgestattet. Meist hast du da nichtmal Nachladeruckler, wenn der VRAM überläuft, dafür sichtbar schlechtere Qualität durch direkt vor der Nase aufpoppende Objekte. Und das olle Batman ist technisch gesehen der letzte Husten und musste zurecht dafür Kritik einstecken.
 
Zuletzt bearbeitet:
Das Problem ist nicht die Möglichkeit, sondern viel eher das machen ;) Die Möglichkeit nutzt nix, wenn die Entwickler da keine Lust drauf haben. Und MGPU ist halt eine Randerscheinung. Das wird sich vorerst auch nicht ändern... Und "Machen" für die Entwickler der Spiele heist Zeit/Geld aufwenden für ne Randerscheinung -> und damit ohne wirklichen Mehrwert. Du kannst dir selbst denken, dass dies nicht überall aufgehen wird, zumal die Entwickler eben es heute schon nicht richtig hinbekommen in vielen Fällen.
Trotdzem hat so gut wie jeder AAA Titel ein CF und auch ein SLI profil. Also etwas wird gemacht.
Wenn nun DX12 das ganze wirklich auch noch vereinfacht, bzw. es dank der zusätzlichen kontrolmöglichkeiten, ermöglicht gleich deutlich bessere Anpassungen vorzunehmen, damit es nicht so viele Probleme gibt, dann kann man durchaus davon ausgehen dass DX12 in der Hinsicht Verbesserung bringen wird.

Bedenke auch dass ja nicht jedes Studio selbst die Anpassungen vornehmen muss. Wie du ja selbst öffters erwähnt hast, werden Engiens und Biblotheken hinzugekauft.
Beim Entwickeln dieser Engiens wiederum stehen durchaus Resorucen auch für sowas bereit was eben nur 1-5% der Nutzer verwenden.
Gib dem ganzen 1-2 Jahre und es wird Stand der Technik sein (denn man hat schon seit einiger Zeit damit angefangen).

Die Karten die in diesem Jahr erscheinen, sind dann auch noch aktuell.
 
Da magst du recht haben, aber es gibt trotzdem ne Menge, vor allem neuerer (AAA) Titel, die das nicht liefern.
Wie gesagt ist das Problem bei DX12 eben die Freiheit, die die Entwickler da nun haben. Vorher lief das nach dem Motto, wenn der Entwickler aus welchen Gründen auch immer nicht auf einen MGPU Support verzichtet, bspw. bei gewissen Features und Effekten, dann kann der Hersteller ein MGPU Profil im Treiber liefern. Welches der DX12 Titel aktuell hat denn SLI/CF Support? Und in welchem läuft denn schon was von den Neuerungen der DX12 MGPU Seite?
Bei DX12 läuft das halt anders... Da ist die Arbeit vom Entwickler zu tätigen... Macht der das nicht, ist nix mit MGPU. Da wird der Hersteller wenig Chance haben, was dran zu drehen... Die Arbeit verschiebt sich also von Hersteller zu Entwickler.

Was die Kaufengines angeht, da sehe ich noch die besten Möglichkeiten. Einfach weil A) idR finanzieller Background da ist und B) eben eine große breite Masse damit angesprochen wird. Nur was ist mit dem Rest? Wie viele der aktuellen AAA-TIteln kommen UE4, Cryengine, Unity oder Frostbit based? Die paar popligen Titel kannst du an ein zwei Händen voll abzählen. Was ist mit den restlichen 50-100 AAA Titeln pro Jahr? Oder den tausenden oder zentausenden Games, die weniger bekannt sind?
Das könnte schnell eine art Zweiklassengesellschaft werden, wo dann die großen finanzstarken Unternehmen kleinere Entwicklerstudios verdrängen... Denn wenn der Stein einmal im Rollen ist, wirds schwer mit aufhalten ;)
 
@fdsonne: Auch Spiele die auf einer 3rd Party Engine wie UE4, Cryengine usw. laufen nicht immer einwandfrei im CF / SLI (hat man ja schon oft genug bei Unreal 3 Engine Spielen gesehen), auch hier werden kleinere Entwickler eher das nachsehen haben, umso mehr, da man ja jetzt auch noch bei vielen Engines die Source verändern kann (wodurch ein Standardprofil noch weniger funktionieren kann).

Auch werden viele DX12 Features in diesen Engines eher mäßigen Nutzen haben, da der Hauptgrund so eine Engine zu verwenden mitunter der ist, das man sich dann damit nicht beschäftigen muss (Engine zu Hardware). Darüber hinaus scheint DX12 auch für die Engine Entwickler noch Neuland zu sein, Unreal Engine 4 hat selbst in der 4.11 Version noch massive Probleme mit dem DX12 Modus (welcher für mich vor allem wegen den Drawcalls interessant ist, da man sich somit theoretisch jedenfalls einiges an optimierungsarbeit sparen könnte, alles andere, wenn es nicht gerade von der Engine selbst erledigt wird, ist für mich zB den Zeitaufwand nicht wert, mich da reinzuarbeiten).
 
Single-Radi und dann noch der hoffnungslos überzogene Preis, was stimmt denn bei denen nicht :-/ ?
 
Meine FuryX heizt mit ihrem 120mm Radiator schon bedenklich, was zum Teil auch am kleinen Gehäuse liegen mag.
Aber die doppelte Abwärme bei gleicher Größe? Halte ich für mehr als fragwürdig.
 
stimmt. bei dem fundierten Link, den du da postest, muss ich schon sagen: wahrlich fern ab jeglicher Objektivität.
 
Single-Radi und dann noch der hoffnungslos überzogene Preis, was stimmt denn bei denen nicht :-/ ?

Und was ist am Single-Radi so schlecht ?
AMD Radeon R9 295X2 im Test - Hardwareluxx
51 db sind jetzt zwar nicht super silent, aber durchaus mit gängigen Grafikkarte dieser Enthusiastenklasse zu vergleichen. Die Pro Duo wird sogar 100-150 Watt weniger TDP benötigen als die R9 295X2. Also schätzungsweiße 45 db besitzen.
Und der Preis ist weder fest ausgerufen noch der Straßenpreis.

Meine FuryX heizt mit ihrem 120mm Radiator schon bedenklich, was zum Teil auch am kleinen Gehäuse liegen mag.
Aber die doppelte Abwärme bei gleicher Größe? Halte ich für mehr als fragwürdig.

:confused:
AMD Radeon R9 Fury X im Test - Hardwareluxx
Ich glaube, das was du hörst sind andere Lüfter wie z.B. der von der CPU oder ein paar Laufwerksgeräusche. ;)

Wie schon oben beantwortet, war selbst eine 550Watt R9 295X2 ausreichend und angemessen zu kühlen mit nur einem Radi. Eine Pro Duo wird nochmals optimiert sein, weil die Chips nur mit 1000 Mhz statt mit 1050 Mhz arbeiten. Das heißt, weniger Takt und weniger Spannung werden anliegen, was die Effizienz nochmals erhöht.
Bei der R9 Nano konnte man sogar deutliche Verbesserungen erzielen, so das die Karte nur mit einem einzigen Luft-Lüfter auskommt.
AMD Radeon R9 Nano im Test - Hardwareluxx

Ich gehe davon aus, das bei der Pro Duo eben so zwei mal Nano verbaut sind, die eben dank der Wasserkühlung ihre 1000 Mhz halten können, also zusammen etwa 350-400 Watt TDP benötigen.
Und das jetzt sogar mit 3x8 Pin PCIe-Strom-Anschlüssen was ja bei der R9 295X2 extra umjammerten und verurteilten wurde, das sie nur 2x8 Pin besaß und einem dadurch die Karte im Gehäuse abbrennen sollte, was aber irgendwie bis Heute nicht so ganz bei den Besitzern passiert ist.

Das Einzige worüber ich mir Sorgen mache ist wieder die Pumpentechnik von Cooler Master. Da gab es ja Probleme mit dem Pumpengeräuschen bei der Fury X. Die R9 295X2 hatte keine Probleme trotz 2xPumpen, weil diese von Asetek stammten. Schade das AMD nicht wieder Asetek verwendet.(Wohl mal wieder den günstigeren Lieferanten ausgesucht...) :shake:
 
Zuletzt bearbeitet:
Bezüglich der Pumpentechnik würd ich mir keine Sorgen machen oder glaubst du ernsthaft das AMD nach dem Shitstorm bei FuryX das wiederholen tut :confused:
 
:confused:
AMD Radeon R9 Fury X im Test - Hardwareluxx
Ich glaube, das was du hörst sind andere Lüfter wie z.B. der von der CPU oder ein paar Laufwerksgeräusche. ;)

In dem Fall war mit "heizt" tatsächlich die Abwärme und die Temperatur gemeint die am Radiator anliegt. Und durch die zweite GPU, effizienter oder nicht, wird die Temperatur bei gleicher Radiatorfläche sicher nicht geringer ausfallen. Aber wie gesagt, bestimmt ist das in einem größeren Gehäuse besser, allerdings ist das ITX-Argument damit wieder hinfällig.
 
In dem Fall war mit "heizt" tatsächlich die Abwärme und die Temperatur gemeint die am Radiator anliegt. Und durch die zweite GPU, effizienter oder nicht, wird die Temperatur bei gleicher Radiatorfläche sicher nicht geringer ausfallen. Aber wie gesagt, bestimmt ist das in einem größeren Gehäuse besser, allerdings ist das ITX-Argument damit wieder hinfällig.
Man lässt doch den Radiator hinausblasen. Damit ist die Gehäusegröße recht irrelevant.
 
@Pickebuh: AMD / ATI war seit jeher, was Technik angeht Vorreiter. Nur es hat nie etwas gebracht, was hatte man zB von TrueForm bei der Radeon 8500, das wurde in 1-2 Spielen verwendet, danach hat es ATI selbst beerdigt. Ich hab seit der ATI Rage 128 immer ATI / AMD verbaut, oft mit der Hoffnung, das die neuen Technologien durchschlagen werden und wenn man ehrlich ist, ist dies aber nie geschehen. Ich hab meine R9 290er (CF) mit 980ti ersetzt, meine erste nVidia Karte überhaupt, weil die Furry X mit ihren 4 GB für UHD einfach keine Alternative war (die 4 GB der R9 290 waren mir schon zu wenig, für UHD). Ich verwende nun einmal gerne Texturemods (wenn verfügbar), da die meisten default Texturen für UHD einfach nur grausam sind.
Darüber hinaus muss man auch zugeben, das das was nVidia an Hardwaretechnik fehlt, sie wieder mit Gameworks ausgleichen. Gameworks ist für jeden kleinen Indientwickler ein Segen, da ich es zB schon in Unreal 4 integriert bekomme, wohingegen ich noch nicht einmal TressFX für Unreal 4 bekomme (vorintregiert, jemand hat es mal versucht und ist daran gescheitert in der Unreal Community). Darüber hinaus hat AMD immer noch eine beschiedene Tesselationleistung, ein Feature mit dem man eigentlich viel mehr Details rausholen könnte als es heute üblich ist (ich kann mir in meiner Texturierungsarbeit jederzeit auch die Hightmap ausgeben und für Tesselation verwenden, so das jede Oberfläche mehr Details bekommt, das würde aber AMD Karten abrauchen lassen auch unter DX12 - Kannst du auch gerne selber in Unreal 4 ausprobieren).
 
Hoch überlegen würde ich so nicht stehen lassen. Maxwell ist nur in manchen Bereichen besser, weil sie im GPGPU-Bereich nichts mehr kann, quasi nur auf einem Gebiet hoch spezialisiert wurde(DX11). GCN ist dagegen hoch flexibel und daher ein Multitalent und wie man jetzt erst erkennt bei DX12 sogar talentierter als Maxwell.
Aber so ist es bei hoher Spezialisierung. Ändert sich das Umfeld, so geht das Erfolgsmodell schnell unter.

Wir werden sehen ob NVIDIA auch in Zukunft unter diesen Vorzeichen das besser Produkt abliefern kann. Aber mir scheint, das es in der kommenden Generation nicht mehr ganz so selbstverständlich für NVIDIA werden wird.
 
Man muss aber auch sagen, dass diese Geschichte um die langsamere Anbindung von 512 MB Speicher der GTX 970 nicht geschadet hat. NVIDIA hat in der Sache viele Fehler gemacht, vor allem in der Kommunikation, aber das Produkt hat sich verkauft wie warme Semmeln.

Aber noch einmal zur Radeon Pro Duo: AMD wird den Namen nicht zufällig gewählt haben. Beim Rendering in bestimmten Bereichen oder beim professionellen Arbeiten im Allgemeinen wird nicht so sehr auf den Preis geschaut. Die Arbeit muss gemacht werden und wenn eine Radeon Pro Duo die gewünschte Arbeit schnell erledigt, dann spielen 1.700 Euro nun einmal keine Rolle – zumal wenn man die Preise der Workstation-Karten miteinander vergleicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh