Radeon Pro Duo neu aufgelegt: 4.608 Shadereinheiten und 32 GB GDDR5

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.965
amd-radeon-pro.jpg
AMD hat im Rahmen der NAB Show 2017 in Las Vegas, die Radeon Pro Duo neu aufgelegt. Zur etwa gleichen Zeit im Frühjahr 2016 stellte AMD bereits eine Radeon Pro Duo vor, verwendete damals aber zwei Fiji-GPUs und demnach ingesamt nur 8 GB an HBM der ersten Generation. Ausreichend Rechenleistung dürfte also nicht das Problem der Karte gewesen sein, wohl aber die fehlende Speicherausbau.AMD macht also einen neuen Anlauf für die Radeon Pro Duo, dieses mal mit einem Fokus auf die Rechenleistung und den Speicherausbau. Die...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hab ich eine falsche Preisvorstellung oder stimmt es das die Pro Duo im professionellen Arbeitsumfeld recht günstig ist im Vergleich zu manchen Komkurrenzprodukten?
 
Naja, ja, sie ist günstiger als z.b. Nvidia Quattro Karten, jetzt kommt aber das große "Aber". Zum einem hinkt AMD bei vielen Programmen für welche diese Karten gemacht sind massiv hinterher (Catia, CAD, Maya, 3DsMax) und des Weiteren wird hier die Leistung per Crossfire realisiert. Die meisten Programme können, vor allem im Viewport, kein SLI/Crossfire, womit dann mal eben die theoretische Leistung mal eben halbiert wird. (da nur eine GPU genutzt wird)
 
wie sie einfach kein Vega haben :d
 
Naja, ja, sie ist günstiger als z.b. Nvidia Quattro Karten, jetzt kommt aber das große "Aber". Zum einem hinkt AMD bei vielen Programmen für welche diese Karten gemacht sind massiv hinterher (Catia, CAD, Maya, 3DsMax) und des Weiteren wird hier die Leistung per Crossfire realisiert. Die meisten Programme können, vor allem im Viewport, kein SLI/Crossfire, womit dann mal eben die theoretische Leistung mal eben halbiert wird. (da nur eine GPU genutzt wird)

Ist das Crossfire bei solchen Karten nicht "on board"?

Ich finds aber schon bedenklich, dass die Profi-Programme das nicht können. Ist wahrscheinlich ne historisch gewachsene Aversion.
 
hab so einen Brocken noch nicht in der Hand gehabt, aber sollte sich das CF nicht deaktivieren lassen und somit möglich sein beide Chips zu nutzen? Zur Leistung: In allem, was OpenCL nutzt statt Cuda (hat AMD halt nich... :P ) kann AMD super mithalten von der Rechenleistung. Apple setzt auch nicht von ungefähr seit Jahren nur noch auf AMD Karten.

Da war doch letztens z.B. mal nen Anwendungsfall, wo drei RX480 zwei Titan X nackig gemacht haben, vielleicht find ich den Link wieder (kann man jetzt natürlich nicht verallgemeinern, aber die AMD Karten sind von der Rohleistung Top )
 
Immerhin bietet sie mal anständigen Speicher. Warum bringen sie keine Dual-Vega? Das wäre bestimmt ein absolutes Compute-Monster.
 
AMD möchte erst einmal Single-GPU-Vega im Desktop- und Pro-Segment auf den Markt bringen.
 
@Don aber wann denn nun endlich?

In meinem PC upgrade was ich mir irgendwann mal anschaffen will, plane ich immer öfter mit einer Nvidia Karte.
Mein verstand mahnt mich jedes mal auf Vega zu warten, positiv ist aber dass ich vor dem Vega Release wahrscheinlich eh noch nicht genug geld beisammen habe.
 
Ist das Crossfire bei solchen Karten nicht "on board"?

Ich finds aber schon bedenklich, dass die Profi-Programme das nicht können. Ist wahrscheinlich ne historisch gewachsene Aversion.

Klar ist das Crossfire onboard, macht aber technisch gesehen keinen Unterschied. Ob nun 2 separate Karten oder 2 Chips auf einer Karte ist völlig egal. Crossfire ist Crossfire. Und wenn da Profile fehlen bzw. die Anwendung kein Crossfire kann hat man eben nur noch 1 Chip der genutzt wird.
 
Naja, ja, sie ist günstiger als z.b. Nvidia Quattro Karten, jetzt kommt aber das große "Aber". Zum einem hinkt AMD bei vielen Programmen für welche diese Karten gemacht sind massiv hinterher (Catia, CAD, Maya, 3DsMax)
Umgekehrt wird ein Schuh draus. Nvidia war mal führend bei Computing. Das hat sich seit GCN1 und Kepler aber umgekehrt. Mittlerweile ist AMD führend bei Computing und Nvidia hinkt hinterher. Dass die Radeon Pro hier "relativ günstig" angeboten wird, hat einen anderen Grund. Zwar richtet sich die Karte an professionelle Anwender, sie wird aber nicht direkt in AMDs professionellem Portfolio geführt. Es gibt also auch keinen speziellen Treibersupport dafür.
 
Umgekehrt wird ein Schuh draus. Nvidia war mal führend bei Computing. Das hat sich seit GCN1 und Kepler aber umgekehrt. Mittlerweile ist AMD führend bei Computing und Nvidia hinkt hinterher. Dass die Radeon Pro hier "relativ günstig" angeboten wird, hat einen anderen Grund. Zwar richtet sich die Karte an professionelle Anwender, sie wird aber nicht direkt in AMDs professionellem Portfolio geführt. Es gibt also auch keinen speziellen Treibersupport dafür.


Naja, Computing ist für mich der Bereich wo gar keine Grafikanschlüsse sind. So im Bereich Tesla usw. In CAD und 3D Anwendungen dominiert Nvidia (leider) bis auf ein paar Ausnahmen noch mächtig gewaltig.
 
@Don aber wann denn nun endlich?

Es heißt doch zu Vega nun schon seit Monaten "Q2 2017". Das heißt, dass es bis Ende Juni oder evtl. Anfang Juli dauern kann.

Wie gesagt, davon ist schon eine ganze Weile die Rede und das wird sich nicht ändern, nur weil manche immer ungeduldiger werden. Dann kauft euch eben eine NVidia Karte, wenn ihrs nicht abwarten könnt. Aber dann jammert am Ende nicht rum, falls Vega deutlich besser sein sollte.
 
Naja, ungeduldig schon, da hast du recht. Aber ich werde ganz sicher auf vega warten. Ich hatte nur gehofft, sie würden "Q2" nicht bis auf den letzten tag herauszögern.
 
ich hoffe das im Computing dann auch ordentlich Geld für Amd reinkommt und das ganze neben der Warterei im High - End Gamingbereich auch wirklich was bringt

leider ist das wechseln nicht immer so einfach weil halt auch andere nicht ganz billige Peripherie dranhängt :(

Als Endkunde der sich vor 2 Jahren entschieden hat (allen Unkenrufen zum trotz) Amd zu unterstützen und auf Fury und nicht eine 980Ti zu setzen und sich dafür auch noch nen freesync Monitor zugelegt hat, wird man von Amd auf eine ziemliche Geduldsprobe gestellt, bei Nvidia gibts seit über nem Jahr mehr Power in Form der 1080 und nun sogar massig mehr in Form der 1080Ti und Amd scheint bei Vega wieder mal den angekündigten Releasezeitraum bis quasi zum letzten Tag auszureizen :kotz:

Ich hoffe wenigstens das sich die Warterei lohnt - wenn Nvidia mal über den eigenen Tellerrand rauskäme und endlich adaptive Sync unterstützen würde, hätte ich mittlerweile schon ne ti bestellt.
 
ich hoffe das im Computing dann auch ordentlich Geld für Amd reinkommt und das ganze neben der Warterei im High - End Gamingbereich auch wirklich was bringt

leider ist das wechseln nicht immer so einfach weil halt auch andere nicht ganz billige Peripherie dranhängt :(

Als Endkunde der sich vor 2 Jahren entschieden hat (allen Unkenrufen zum trotz) Amd zu unterstützen und auf Fury und nicht eine 980Ti zu setzen und sich dafür auch noch nen freesync Monitor zugelegt hat, wird man von Amd auf eine ziemliche Geduldsprobe gestellt, bei Nvidia gibts seit über nem Jahr mehr Power in Form der 1080 und nun sogar massig mehr in Form der 1080Ti und Amd scheint bei Vega wieder mal den angekündigten Releasezeitraum bis quasi zum letzten Tag auszureizen :kotz:

Ich hoffe wenigstens das sich die Warterei lohnt - wenn Nvidia mal über den eigenen Tellerrand rauskäme und endlich adaptive Sync unterstützen würde, hätte ich mittlerweile schon ne ti bestellt.

Die Fury (X) hatte halt die Limitation mit HBM1, was es nur mit 4 GB gab. Die Rechenpower der Fury wäre mit 8 GB besser bedient gewesen, aber das gabs halt nicht. Trotzdem ist die für alles unter 4k Auflösung immer noch ne nette Karte. Vega wird da besser passen, vor allem hinsichtlich Freesync 2 (HDR + geringe Latenz und der neuen Speicherkompression + tiled rasterization etc bla)

Hätte ich ne Fury würde die mit nem 2k Monitor und Freesync bestimmt noch weitere 2 Jahre mitmachen. Meine alte 7970 macht sogar heute noch alles mit, was ich der an den Kopf werfe (Fallout 4, Witcher 3) - natürlich auf "nur" 1920x1080. Kann nicht behaupten, dass ich von AMD da enttäuscht wäre.
 
Naja, Computing ist für mich der Bereich wo gar keine Grafikanschlüsse sind. So im Bereich Tesla usw. In CAD und 3D Anwendungen dominiert Nvidia (leider) bis auf ein paar Ausnahmen noch mächtig gewaltig.
Nicht wirklich. Selbst hier hat sich zumindest mit Polaris, und darum geht es ja, im Vergleich zu älteren GCN Generationen viel getan. Sowohl hard- als auch softwareseitig. Und Vega wird da sicherlich nochmal einiges nachlegen.

 
In den meisten Anwendungen liegt NV weit vorne. Deine Grafik ist noch mit Maxwell, und selbst da dominiert NV meist. Es sind leider nur die Ausnahmen wo AMD mithalten oder gar überflügeln kann. Und Pascal hat halt nochmals ne Schippe drauf gelegt. (DP kommt in diesen Anwendungsbereich nicht zur Anwendung)
 
Hätte ich ne Fury würde die mit nem 2k Monitor und Freesync bestimmt noch weitere 2 Jahre mitmachen. Meine alte 7970 macht sogar heute noch alles mit, was ich der an den Kopf werfe (Fallout 4, Witcher 3) - natürlich auf "nur" 1920x1080. Kann nicht behaupten, dass ich von AMD da enttäuscht wäre.

und genau da beisst sich das ganze - Fury bringt ihre Rohpower (die ja da ist) in FHD und selbst 1440p kaum auf den Monitor - da ist jede 390X und seit vorigem Jahr ne 480 und nun 580 die intelligentere Wahl die sind alle dicht an der Fury drann in diesen Auflösungen einzig in 4K kann Fury davonziehen und da limitiert dann immer öfter der Vram - ich selbst hab wohl den worst case Fury und nen freesync 4K Monitor :( - mir bleibt einfach nix übrig ausser warten und mittlerweile sind da schon einige Games die hier auf Halde liege weil meine Fury es in 4K einfach nicht packt (Dishonored 2, Wildlands zb)

Vega kann nicht schnell genug kommen, aber in letzter Zeit hört man ja kein Sterbenswörtchen mehr ... und Amd steckt die ohnehin begrenzte Manpower lieber in nen doppelten Polaris fürs Computing - darum hoffe ich eben das da dann auch wirklich Kohle auch rausschaut, wenn sie schon die geneigten High End Interessenten so kompromisslos warten lassen...
 
Zuletzt bearbeitet:
@Don aber wann denn nun endlich?

In meinem PC upgrade was ich mir irgendwann mal anschaffen will, plane ich immer öfter mit einer Nvidia Karte.
Mein verstand mahnt mich jedes mal auf Vega zu warten, positiv ist aber dass ich vor dem Vega Release wahrscheinlich eh noch nicht genug geld beisammen habe.

Nach wie vor Q2 2017, geht noch bis Ende Juni ;)

ps. wer denkt Computing wäre nicht wichtig für Games...
Pascal is GCN-like: What this means for Maxwell, Gaming VR [Louder] - YouTube
 
und genau da beisst sich das ganze - Fury bringt ihre Rohpower (die ja da ist) in FHD und selbst 1440p kaum auf den Monitor - da ist jede 390X und seit vorigem Jahr ne 480 und nun 580 die intelligentere Wahl die sind alle dicht an der Fury drann in diesen Auflösungen einzig in 4K kann Fury davonziehen und da limitiert dann immer öfter der Vram - ich selbst hab wohl den worst case Fury und nen freesync 4K Monitor :( - mir bleibt einfach nix übrig ausser warten und mittlerweile sind da schon einige Games die hier auf Halde liege weil meine Fury es in 4K einfach nicht packt (Dishonored 2, Wildlands zb)

Vega kann nicht schnell genug kommen, aber in letzter Zeit hört man ja kein Sterbenswörtchen mehr ... und Amd steckt die ohnehin begrenzte Manpower lieber in nen doppelten Polaris fürs Computing - darum hoffe ich eben das da dann auch wirklich Kohle auch rausschaut, wenn sie schon die geneigten High End Interessenten so kompromisslos warten lassen...

Ja gut, 4k saugt natürlich ungemein am VRam - da ist Vega dann die nächste Wahl mit 8 GB davon. Da wäre es natürlich besser gewesen den entsprechenden Monitor zum VRam zu haben. Bei Vega siehts wesentlich balancierter mit Rohpower zu VRam aus. Ich warte mal die ersten Benches ab wie die Speicheroptimierung wirkt und ob das tatsächlich "effektive 16" sind, oder ob das eher Marketingzeug ist. In jedem Fall sind die Randdaten aber schon besser - ja.

Ich wäre mit ner Fury aber auch eher auf 120 - 144 Hz bei geringerer Auflösung gegangen, als auf 4k mit 60 Hz oder so. mit 8 GB Vram sollte es diesmal aber klappen, den 4k Monitor zu betreiben. Nachteil ist dann natrülich 'Freesync 2. Wenn du HDR haben willst, muss wohl auch ein neuer Monitor her und das geht so langsam echt hart ins Geld.
 
wenn Nvidia mal über den eigenen Tellerrand rauskäme und endlich adaptive Sync unterstützen würde, hätte ich mittlerweile schon ne ti bestellt.

Same here, ich häng auch immer noch auf meiner uralten 290 und suche nach Ersatz, aber ich hab das gleiche Problem (bzw noch schlimmer nachdem meine 290 in UHD selbst der inzwischen lahmen Fury noch hinterherröchelt)...
 
Zuletzt bearbeitet:
Same here, ich häng auch immer noch auf meiner uralten 290 und suche nach Ersatz, aber ich hab das gleiche Problem (bzw noch schlimmer nachdem meine 290 in UHD selbst der inzwischen lahmen Fury noch hinterherröchelt)...

Die 290 ist doch immer noch ausreichend, nur für 2160p nicht. Das ist aber keine Karte in der Leistungsklasse. Selbst Vega (Das wohl nicht signifikant schneller sein wird als die Ti, eher langsamer) wird ähnlich wie diese nur etwa 40 FPS in den neusten Titeln erreichen. Dreht man alles auf so bekommt man auf einer 1080 (!) in 2160p oft nur 20 - 25 FPS.
 
Das wohl nicht signifikant schneller sein wird als die Ti, eher langsamer

Aus welch Spährischen Luftschichten werden diese VERMUTUNGEN gegriffen? Es ist zu den Dingern quasi nichts bekannt was auch nur Ansatzweise auf die Realperformance der fertigen Karten schließen lässt. Die Architektur wurde massiv überarbeitet und ALLES was ihr so vermutet könnt genau so gut einer 9Live Kristalllkugel entstammen. Einfach mal aufs fertige Produkt bzw. erste, wirklich handfeste Benches warten und DANN auch Fakten in der hand halten ;) Kaffeesatzleserei ist SOOOOOO uncool...
 
Ich hoffe das jemand damit mal Spiele-Benchmarks macht :fresse2: Das ding hört sich fast Interessant an..

Edit: Kann das Teil Crossfire?

Edit 2: Und wie ist es mit Eyefinity?
 
Zuletzt bearbeitet:
Aus welch Spährischen Luftschichten werden diese VERMUTUNGEN gegriffen? Es ist zu den Dingern quasi nichts bekannt was auch nur Ansatzweise auf die Realperformance der fertigen Karten schließen lässt. Die Architektur wurde massiv überarbeitet und ALLES was ihr so vermutet könnt genau so gut einer 9Live Kristalllkugel entstammen. Einfach mal aufs fertige Produkt bzw. erste, wirklich handfeste Benches warten und DANN auch Fakten in der hand halten ;) Kaffeesatzleserei ist SOOOOOO uncool...

Ähm... die DX11 Performance kann man schon abschätzen, dank geleakter Benches auf nem Prototypen. Der hatte geringeren Takt und alpha-Treiber. Schraubt man den Takt hoch und knallt bei den Alpha-Treibern 10% - 15% mehr Rohleistung drauf, bekommt man schon eine ordentliche Abschätzung und die liegt im Breich der 1080 Ti.

Was hingegen eine völlig dunkle Unbekannte ist, ist Vulkan. Hier könnte der Vega Vollausbau genauso schnell bis 3x so schnell sein, wie ne 1080 Ti. Das ist tatsächlich Kaffeesatz-Lesen.

Ansonsten ging es hier um das Verhältnis von VRam zu Rohleistung. 4GB waren bei der Fury einfach zu wenig - allein mit 6 wäre die besser gefahren. 8 GB bei Vega ist entspannt und wer nicht grad auf so ein marketing-bla wie 8k reinfällt, sollte damit keine Probleme haben.
 
Macht euch doch alle keinen Kopf über VEGA. Es sind schon einzelne Leaks draußen. Und die Quellen haben auch alle bei der 470,480,570 und 580 richtig gelegen.

- 4 oder 8 GB HBM2
- Leistung zwischen 1080 und 1080 TI ( Vermutlich dann bei Vulkan oder bestimmten DX12 Spielen fast gleich mit der 1080 TI )


Frage wird der Preis sein. Wenn unter 500 Euro inkl. Steuern, dann wäre es top. Aber HBM2 bleibt teuer. Ich hole mal meine Glaskugel raus und sage, dass sie 600-700 Euro kosten wird.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh