AMD präsentiert die Radeon Pro Duo mit zwei Fiji-GPUs und spricht über VR

was soll die GPU dabei?

Dummy oder kaputt ab Werk?

coole Idee jedenfalls ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Erstes Unboxing der Radeon Pro Duo – Die Yield muss bei AMD gut sein, sonst könnte man keine Fiji-GPU beiliegen ;)

Anhang anzeigen 358404
Hammer Idee :d

Besser als die DIEs wieder einzuschmelzen. Bei der Zahl an DUOs, die aus den Fiji-Waffern hergestellt werden, könnte das vieleicht gut hinkommen, denn bei 100% ist die Ausbeute selbst in 28nm natürlich nicht.
 

So werden Holzschrauben im Baumarkt genannt.
Das bezieht sich dann darauf:
Nvidia bestätigt: Karte mit Fermi war Attrappe, Demos nicht - Golem.de

Genauer hier:
Nvidia fakes Fermi boards at GPU Technology Conference - SemiAccurate

NVIDIA musste daher alles im Nachhinein zugeben. War wohl schon damals ein Kommunikationsproblem. :d

- - - Updated - - -

Dürften 305 mm sein, also ATX-Norm und damit eigentlich nichts besonderes.

Ich glaube eher das ist ein Micro-ATX-Board. Das hat 24cm. Dann noch 2-3 cm drüber und 1 cm für die Halterung. Das macht dann 27,5-28cm...Reicht doch... :haha:
 
Zuletzt bearbeitet:
Es sind 281 mm laut Spezifikation. Die 305 mm waren damals geschätzt. Inzwischen gibt es ja weitere Informationen.
 
Zuletzt bearbeitet:
Derzeit gibt es noch keine Informationen zu Samples in Deutschland.
 
Lustig, wie sich alle hier immer wieder an den 4 GB aufhängen. Keiner dieser Leute hat eine Fury. Meine Fury X stellt mich zufrieden. Speicher Probleme habe ich keine. Wenn, dann geht mir bei der Auflösung von 5920x1080 die GPU Power aus. Für die Grafikfeatures die den Speicherbedarf künstlich erhöhen fehlt der Karte einfach die Grundpower.
Eigentlich sah ich die X als Übergangskarte zu Pascal oder Polaris aber so wie es ausschaut wird es eine GDDR5(x) Generation eventuell mit einem Pascal HBM2 Paperlaunch im Herbst. Ich denke ich werde meine X noch eine Weile behalten.

Dir ist klar dass dies weniger Pixel sind als 4K?
 
Wobei man ab 4K kein AA mehr benötigt. Das spart eine menge V-RAM ein.
 
Das solltest du dann mit einberechnen wenn du sagst 4 GB reichen. Das stimmt für die meisten Titel, aber es ist hart an der Grenze. Bei zwei Karten ist man dann im Limit.

GTAV benötigte bei mir zum Beispiel 6,5 GB im Schnitt auf einer Titan X alles Very High, bei so einem Spiel ist VRAM schon nützlich, wenn man die Vorbelegung mal runterrechnet dürften hier die 4 GB dennoch überschritten sein.
 
Das solltest du dann mit einberechnen wenn du sagst 4 GB reichen. Das stimmt für die meisten Titel, aber es ist hart an der Grenze. Bei zwei Karten ist man dann im Limit.

GTAV benötigte bei mir zum Beispiel 6,5 GB im Schnitt auf einer Titan X alles Very High, bei so einem Spiel ist VRAM schon nützlich, wenn man die Vorbelegung mal runterrechnet dürften hier die 4 GB dennoch überschritten sein.
GTA zeigt einfach irgendwas an. Als ich es gespielt habe hatte ich auch über 4GB - aber keine Probleme oder Mikroruckler.

Auch bei zwei Karten seke ich das Problem nicht. Warum? Weil selbst mit zwei Karten bei 4K für Max Detail noch nicht genug Power vorhanden ist um AA und damit dem RAM Verbrauch künstlich in die Höhe zu schießen.
AMD und Nvidia verkaufen die Highendkarten als 4K Karten aber keine von beiden hat genug Power dafür wenn man gerne max Detail und hohe FPS hat.
 
Zuletzt bearbeitet:
GTAV benötigte bei mir zum Beispiel 6,5 GB im Schnitt auf einer Titan X

das dir das spiel 6,5gb vram belegt bedeutet nicht zwangsweise das es so viel vram auch benötigt.

ich sehe es aber auch so das 4gb vram bei der pro duo alles andere als optimal sind, gerade bei dem preis.
 
Wann löst man sich denn endlich mal von dem Märchen, dass in erster Linie die Auflösung und/oder AA für den VRAM Bedarf verantwortlich ist?
Das ist ein Überbleibsel aus den Anfängen der 3D Grafik. Wo es Grafikkarten mit 2, 4, vielleicht 8MB Speicher gab und dieser Speicherausbau maßgeblich dafür verantwortlich war, wie hoch man die Auflösung einstellen konnte...
Heute läuft der Hase doch etwas anders... Da gibt es einen Verbrauch in der Basis, dass sind Daten vom Spiel/der Engine in einer gewissen Höhe. Dann gibt es einen riesigen Block von Texturdaten, welche idR gestreamt werden, sprich anhand der Playerposition/des Sichtfeldes des Spielers variabel sind. Und es gibt ein paar "Schalter" im Spiel, die für Mehr/Minderverbrauch des Speichers zuständig sind.
Die Auflösung hat heute einen sehr geringen Einfluss auf den echten Bedarf. Echter Bedarf meint dabei, das, was zwingend notwendig ist, damit überhaupt anständige FPS Raten bei rum kommen... Sofern sichergestellt ist, dass durch Texturstreaming die Änderungrate beim Bewegen des Sichtfeldes abgefedert werden kann, dann bleibt das idR auch über die Spielzeit so.
Nicht das wir uns falsch verstehen. Die Auflösung lässt durchaus den Speicherverbrauch varieren. Aber in Relation zur Pixelanzahl ist das ein Witz. 4x so viele Pixel, wie von FHD auf UHD macht vielleicht 10-30% mehr Verbrauch aus. Absolut gesehen, bei 4GB Basis Verbrauch wären das zwar immerhin 400-1200MB, aber eben in Relation zu 4x so vielen Bildpunkten ist das lachhaft wenig.
Das Argument mit der Auflösung hält sich wohl deswegen noch, weil diese paar wenigen MB mehr Speicher möglicherweise den Ausschlag zwischen spielbar und unspielbar bringen können. Wenn 4GB gerade so reinpassen und man legt 800MB drauf, dann wird das nicht aufgehen ohne mindestens mal unruhige Frametimes. Natürlich knickt bei 4x so vielen Bildpunkten die FPS Rate um Faktor 2-3 ein und damit wird das Spiel möglicherweise sogar unspielbar. Aber das liegt dann eben NICHT am VRAM.

Das Problem, was wir heute haben, die Texturdetailqualität ist einstellbar. Das ist ein Fluch und Segen zugleich. Man kann sie runter drehen -> dann gibts idR Matsche Patsche Texturen, oder man kann sie hoch drehen, dann werden die Texturen idR höher aufgelöst. Und das völlig Auflösungsunabhängig und vor allem, völlig unabhängig der GPU Power. Die kleinsten GPUs mit ausreichend Speicher können "Ultra" Texturen spielend abdecken. Die schnellsten GPUs ohne ausreichend Speicher aber zum Teil auch nicht. Ein gewisses Verhältnis zwischen GPU Leistung und Speichergröße ist zwar zu erkennen. Aber es ist nicht fix... Das Verhältnis wird durch verbreitete Produkte am Markt bestimmt. Und nicht durch Auflösungen oder sonstwas... Gängige Produkte am Markt mit wenig Speicher lassen Spieletitel mit "wenig" Speicherbedarf erscheinen. Gängige Produkte am Markt mit viel Speicher ziehen Spieletiteln mit viel Bedarf nach sich.

Der Sprung, den man 2016 sehen wird, wird gewaltig sein. Heute, vor diesen neuen Generationen haben wir GPUs mit 2-4 GB im Mittelfeld. Obenraus 4-6, Hawaii gar mit 8GB. Die kommende Generation wird dort Faktor 2 anlegen. Das untere Mittelfeld wird wohl mindestens 4GB, vielleicht gleich 8GB Speicher erhalten. Die größeren Modelle mindestens 8GB. HighEnd (2017?) wohl nochmals mehr. 12-16GB je nach Typ des Speichers sind nicht ausgeschlossen.
Lasst einfach ein paar Monate ins Land gehen und die Spieletiteln mit 5, 6, 8GB und mehr Speicherverbrauch bei vollen Texturdetails werden folgen... Dann sieht es ziemlich dünster aus mit Karten, welche da nicht mithalten können. Das trifft Fiji mit 4GB genau so wie die GM204 mit 4GB. Schlimmer noch die 970er mit nichtmal 4GB bei voller Beanspruchung.
 
Zuletzt bearbeitet:
Wann löst man sich denn endlich mal von dem Märchen, dass in erster Linie die Auflösung und/oder AA für den VRAM Bedarf verantwortlich ist?
Das ist ein Überbleibsel aus den Anfängen der 3D Grafik. Wo es Grafikkarten mit 2, 4, vielleicht 8MB Speicher gab und dieser Speicherausbau maßgeblich dafür verantwortlich war, wie hoch man die Auflösung einstellen konnte...
Heute läuft der Hase doch etwas anders... Da gibt es einen Verbrauch in der Basis, dass sind Daten vom Spiel/der Engine in einer gewissen Höhe. Dann gibt es einen riesigen Block von Texturdaten, welche idR gestreamt werden, sprich anhand der Playerposition/des Sichtfeldes des Spielers variabel sind. Und es gibt ein paar "Schalter" im Spiel, die für Mehr/Minderverbrauch des Speichers zuständig sind.
Die Auflösung hat heute einen sehr geringen Einfluss auf den echten Bedarf. Echter Bedarf meint dabei, das, was zwingend notwendig ist, damit überhaupt anständige FPS Raten bei rum kommen... Sofern sichergestellt ist, dass durch Texturstreaming die Änderungrate beim Bewegen des Sichtfeldes abgefedert werden kann, dann bleibt das idR auch über die Spielzeit so.
Nicht das wir uns falsch verstehen. Die Auflösung lässt durchaus den Speicherverbrauch varieren. Aber in Relation zur Pixelanzahl ist das ein Witz. 4x so viele Pixel, wie von FHD auf UHD macht vielleicht 10-30% mehr Verbrauch aus. Absolut gesehen, bei 4GB Basis Verbrauch wären das zwar immerhin 400-1200MB, aber eben in Relation zu 4x so vielen Bildpunkten ist das lachhaft wenig.
Das Argument mit der Auflösung hält sich wohl deswegen noch, weil diese paar wenigen MB mehr Speicher möglicherweise den Ausschlag zwischen spielbar und unspielbar bringen können. Wenn 4GB gerade so reinpassen und man legt 800MB drauf, dann wird das nicht aufgehen ohne mindestens mal unruhige Frametimes. Natürlich knickt bei 4x so vielen Bildpunkten die FPS Rate um Faktor 2-3 ein und damit wird das Spiel möglicherweise sogar unspielbar. Aber das liegt dann eben NICHT am VRAM.

Das Problem, was wir heute haben, die Texturdetailqualität ist einstellbar. Das ist ein Fluch und Segen zugleich. Man kann sie runter drehen -> dann gibts idR Matsche Patsche Texturen, oder man kann sie hoch drehen, dann werden die Texturen idR höher aufgelöst. Und das völlig Auflösungsunabhängig und vor allem, völlig unabhängig der GPU Power. Die kleinsten GPUs mit ausreichend Speicher können "Ultra" Texturen spielend abdecken. Die schnellsten GPUs ohne ausreichend Speicher aber zum Teil auch nicht. Ein gewisses Verhältnis zwischen GPU Leistung und Speichergröße ist zwar zu erkennen. Aber es ist nicht fix... Das Verhältnis wird durch verbreitete Produkte am Markt bestimmt. Und nicht durch Auflösungen oder sonstwas... Gängige Produkte am Markt mit wenig Speicher lassen Spieletitel mit "wenig" Speicherbedarf erscheinen. Gängige Produkte am Markt mit viel Speicher ziehen Spieletiteln mit viel Bedarf nach sich.

Der Sprung, den man 2016 sehen wird, wird gewaltig sein. Heute, vor diesen neuen Generationen haben wir GPUs mit 2-4 GB im Mittelfeld. Obenraus 4-6, Hawaii gar mit 8GB. Die kommende Generation wird dort Faktor 2 anlegen. Das untere Mittelfeld wird wohl mindestens 4GB, vielleicht gleich 8GB Speicher erhalten. Die größeren Modelle mindestens 8GB. HighEnd (2017?) wohl nochmals mehr. 12-16GB je nach Typ des Speichers sind nicht ausgeschlossen.
Lasst einfach ein paar Monate ins Land gehen und die Spieletiteln mit 5, 6, 8GB und mehr Speicherverbrauch bei vollen Texturdetails werden folgen... Dann sieht es ziemlich dünster aus mit Karten, welche da nicht mithalten können. Das trifft Fiji mit 4GB genau so wie die GM204 mit 4GB. Schlimmer noch die 970er mit nichtmal 4GB bei voller Beanspruchung.
tl:dr
Es geht primär um die Bandbreite.
 
Es zwingt dich keiner den Text zu lesen... Sollte man vielleicht aber, wenn man nicht immer den Märchen der Vergangenheit nachhängen will.
Und nein, es geht/ging nicht um Bandbreite, sondern um Bedarf nach VRAM Größe in Abhängigkeit der Auflösung -> das war zumindest die Behauptung.
 
Hab nicht über die Behauptung geredet... Sondern was der Flaschenhals wirklich ist.
 
Wann löst man sich denn endlich mal von dem Märchen, dass in erster Linie die Auflösung und/oder AA für den VRAM Bedarf verantwortlich ist?
Das ist ein Überbleibsel aus den Anfängen der 3D Grafik. Wo es Grafikkarten mit 2, 4, vielleicht 8MB Speicher gab und dieser Speicherausbau maßgeblich dafür verantwortlich war, wie hoch man die Auflösung einstellen konnte...
Heute läuft der Hase doch etwas anders... Da gibt es einen Verbrauch in der Basis, dass sind Daten vom Spiel/der Engine in einer gewissen Höhe. Dann gibt es einen riesigen Block von Texturdaten, welche idR gestreamt werden, sprich anhand der Playerposition/des Sichtfeldes des Spielers variabel sind. Und es gibt ein paar "Schalter" im Spiel, die für Mehr/Minderverbrauch des Speichers zuständig sind.
Die Auflösung hat heute einen sehr geringen Einfluss auf den echten Bedarf. Echter Bedarf meint dabei, das, was zwingend notwendig ist, damit überhaupt anständige FPS Raten bei rum kommen... Sofern sichergestellt ist, dass durch Texturstreaming die Änderungrate beim Bewegen des Sichtfeldes abgefedert werden kann, dann bleibt das idR auch über die Spielzeit so.
Nicht das wir uns falsch verstehen. Die Auflösung lässt durchaus den Speicherverbrauch varieren. Aber in Relation zur Pixelanzahl ist das ein Witz. 4x so viele Pixel, wie von FHD auf UHD macht vielleicht 10-30% mehr Verbrauch aus. Absolut gesehen, bei 4GB Basis Verbrauch wären das zwar immerhin 400-1200MB, aber eben in Relation zu 4x so vielen Bildpunkten ist das lachhaft wenig.
Das Argument mit der Auflösung hält sich wohl deswegen noch, weil diese paar wenigen MB mehr Speicher möglicherweise den Ausschlag zwischen spielbar und unspielbar bringen können. Wenn 4GB gerade so reinpassen und man legt 800MB drauf, dann wird das nicht aufgehen ohne mindestens mal unruhige Frametimes. Natürlich knickt bei 4x so vielen Bildpunkten die FPS Rate um Faktor 2-3 ein und damit wird das Spiel möglicherweise sogar unspielbar. Aber das liegt dann eben NICHT am VRAM.

Das Problem, was wir heute haben, die Texturdetailqualität ist einstellbar. Das ist ein Fluch und Segen zugleich. Man kann sie runter drehen -> dann gibts idR Matsche Patsche Texturen, oder man kann sie hoch drehen, dann werden die Texturen idR höher aufgelöst. Und das völlig Auflösungsunabhängig und vor allem, völlig unabhängig der GPU Power. Die kleinsten GPUs mit ausreichend Speicher können "Ultra" Texturen spielend abdecken. Die schnellsten GPUs ohne ausreichend Speicher aber zum Teil auch nicht. Ein gewisses Verhältnis zwischen GPU Leistung und Speichergröße ist zwar zu erkennen. Aber es ist nicht fix... Das Verhältnis wird durch verbreitete Produkte am Markt bestimmt. Und nicht durch Auflösungen oder sonstwas... Gängige Produkte am Markt mit wenig Speicher lassen Spieletitel mit "wenig" Speicherbedarf erscheinen. Gängige Produkte am Markt mit viel Speicher ziehen Spieletiteln mit viel Bedarf nach sich.

Der Sprung, den man 2016 sehen wird, wird gewaltig sein. Heute, vor diesen neuen Generationen haben wir GPUs mit 2-4 GB im Mittelfeld. Obenraus 4-6, Hawaii gar mit 8GB. Die kommende Generation wird dort Faktor 2 anlegen. Das untere Mittelfeld wird wohl mindestens 4GB, vielleicht gleich 8GB Speicher erhalten. Die größeren Modelle mindestens 8GB. HighEnd (2017?) wohl nochmals mehr. 12-16GB je nach Typ des Speichers sind nicht ausgeschlossen.
Lasst einfach ein paar Monate ins Land gehen und die Spieletiteln mit 5, 6, 8GB und mehr Speicherverbrauch bei vollen Texturdetails werden folgen... Dann sieht es ziemlich dünster aus mit Karten, welche da nicht mithalten können. Das trifft Fiji mit 4GB genau so wie die GM204 mit 4GB. Schlimmer noch die 970er mit nichtmal 4GB bei voller Beanspruchung.

Das habe ich schon prophezeit, bei der neuen Titan gehe ich sogar von 32 GB aus. Karten wie die 970, 980 und Fury werden sterben, gerade aber die 970, da dann selbst eine Mittelklassekarte mehr VRAM hat (Obwohl dies aktuell mit den 960 und 380X schon der Fall ist), die kommende Mittelklasse dürfte aber locker 4-6 GB haben, Einsteigerkarten 4, GP102 / Vega um die 16.
 
Oh wie jetzt soll es doch eine 4K Karte sein.:haha:
 
Zuletzt bearbeitet:
Und trotzdem alles andere als 60 FPS... Dafür über 1000 €? Selbst 2 Titans schaffen das nicht.
 
Wollte eigentlich nur auf die 2×4GB hinaus.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh