DirectX 12: 800 % Leistungsplus auf unveröffentlichten AMD-GPUs

S

Sharif

Guest
Protal

DirectX 12: 800 % Leistungsplus auf unveröffentlichten AMD-GPUs

Erneut hat sich Stardock-CEO Brad Wardell zu einigen interessanten Aussagen zu DirectX 12 über Twitter verleiten lassen. Demnach habe er einen Test mit einer "unveröffentlichten GPU" gemacht, die mit DX12 gut 900 Prozent mehr Fps brachte als mit DX11. Auf Nachfrage hieß es, dass ein Crossfire-System genutzt wurde.
Schon in den vergangenen Wochen war Stardocks CEO Brad Wardell in der Hardware-Welt wegen Neuigkeiten zu DirectX 12 im Gespräch. Weitere Informationen folgten seitdem über Twitter, welche die Kollegen von dsogaming.com zusammengefasst haben. Demnach habe man einen Test mit einer bisher "unveröffentlichten GPU" gemacht, die unter DirectX 11 13 Fps erreicht habe und unter DX12 120 – ein Plus von über 800 Prozent. Vermutlich kam der hauseigene Star-Swarm-Benchmark zum Einsatz, derbekanntlich schon eine DX12-Implementierung erfahren hat.


Auf Nachfrage hin, hieß es, dass dabei ein Crossfire-System zum Einsatz kam. Bei den getesteten GPUs muss es sich also um AMD-Chips gehandelt haben. Interessant ist, dass er zu Beginn von einer einzelnen GPU gesprochen hat. Auf die Frage hin, was der größte Vorteil von DirectX 12 sein wird, wurde zudem nicht die verbesserte CPU-Performance genannt – und das, obwohl man mit Star Swarm das Draw-Call-lastigste Szenario überhaupt abliefert, das am meisten von DX12 und auch Mantle profitiert. Vielmehr sprach er an, dass man Multi-GPU-Konfigurationen wie eine einzelne Grafikkarte ansprechen kann (Stichwort SFR). Rein spekulativ könnte man das Ganze mit den Vermutungen in Zusammenhang bringen, dass AMD bei seinem kommenden Flaggschiff auf eine Dual-GPU-Lösung setzen könnte. Die eingesetzten GPUs sollen "weit über" die Performance der Xbox One hinausgehen.
Davon ab sprach Wardell schon im Vorfeld an, dass es auf der GDC Anfang März "großartige Neuigkeiten" von AMD geben werde. Bislang vermuteten wir, dass ein Teaser für neue Grafikkarten eher unwahrscheinlich ist, da man so die Lagerverkäufe gefährden könnte. Dass der Stardock-CEO nun aber schon neue GPUs testen kann, lässt leichte Zweifel an dieser Vermutung aufkommen.

 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Sensationsgeilheit des CEOs? Ich kann natürlich einen total schlampig implementierten DirectX11-Renderpfad gegen einen super optimierten DirectX12-Renderpfad antreten lassen. Ungefähr das macht MS$ seit Jahr(zehnt)en mit OpenGL: Allen Entwicklern erzählen, wie wenig OpenGL kann und wie schlecht es zu implementieren sei. Doof nur, dass inzwischen (beispielsweise bei Metro: Last Light REDUX) locker das Gegenteil bewiesen wurde.


Jetzt können alle Leute wieder DX feiern - aber eigentlich ist es lediglich ein Stück proprietäre Software wie jede Andere. Offenen Standards gehört die Zukunft, beispielsweise glNext. ;)
 
Man darf auf jeden fall nicht vergessen das sich der Performance schub auf die Draw Calls bezieht.
Bei heutigen Games wird viel mit Drawcall-Batching gearbeitet damit man so wenig draw calls wie möglich hat.

Das ganze sollte aber entwickler wohl gut entlasten und ermöglicht viel mehr Dynamische Objekte auf dem Bildschirm :)
 
"Die eingesetzten GPUs sollen "weit über" die Performance der Xbox One hinausgehen."
na wäre auch schlimm, wenn dem nicht so wäre, denn selbst die r9 290x bzw 295x2 geht schon "weit über" die Perfomance der Konsolen hinaus ^^

800% klingt natürlich toll, wir wissen aber denke ich alle, dass das viel "blabla" ist. Wir hatten noch nie einen so heftigen Leistungssprung und das wird seine Gründe haben ;-).
 
Wenn AMD es dann noch tatsächlich schafft, den kompletten Speicher eines CFs anzusprechen, wäre das ein enormer Fortschritt.


Sent from my iPhone using Hardwareluxx app
 
AMD? das müssen doch die (Spiele)Entwickler mit der Mantle API "nur" implementieren, dann geht es doch heute schon ;-)
 
Na da bin ich ja mal gespannt ;)
Klar, viel marketing aber etwas wird sicher hängen bleiben von dem gebluber.
Freuen würde es mich für AMD wenn mal wieder ein Hammer kommt.
Aber letztendlich kochen alle nur mit Wasser... äh Silizium :d
 
Klingt natürlich schon toll, aber was bringt das wenn irgendwelche hochoptimierten Extremfälle gebencht werden, verglichen mit noch weniger nachvollziehbaren Referenzfällen.
Das will ich mal mit tatsächlich erhältlicher Hardware und echten Anwendungen (primär natürlich Games) sehen. Unter vernünftig dokumentierten und nachvollziehbaren Bedingungen.
 
Also ich würde das jetzt nicht zwingend mit AMD in Verbindung bringen.
Dass DX12 irgendwie deutlich besser mit den AMDs läuft als mit Nvidias halte ich für eher unwahrscheinlich - MS hätte von solch einer Einseitigkeit auch nichts.
Für den Test hier hatte AMD nur einfach eher die richtigen Karten parat - NV's Vollausbau ist wahrscheinlich nicht so nah an der Fertigstellung.
 
Zuletzt bearbeitet:
big Maxwell ist schon lange fertig, du weißt schon das sich nvidia und amd immer gegenseitig absprechen?
beide Karten werden wie immer zur gleichen zeit veröffentlicht.

erst AMDs Schiff, zweite tage nvidia.
Beim letzten mal wars ja anders rum.

und natürlich sind die Karten wieder identisch schnell.
 
Zuletzt bearbeitet:
Typsiches Marketing BlaBla... Warscheinlich hat man für den Test dann auch auf die AMD DX11 Umsetzung gesetzt, damit die Werte am Ende gewaltiger erscheinen. Das Gleiche Spiel sahen wir mit Mantle schon... Darauf geben würde ich einfach nix.
 
ich mein ... lol ...

blah blah 5 billion times faster ... blah blah ... less than 0.0001 % power usage blahblahblah costs next to NOTHING blahlblah...

wie ernst kann man 800% leistungssteigerung schon nehmen? wünsch-dir-was?
 
 
wie ernst kann man 800% leistungssteigerung schon nehmen? wünsch-dir-was?

Im Grunde ziemlich ernst... Es wurde halt einfach eine Rosine gesucht, was DX12 im Vergleich bedeutend schneller kann als DX11. Das wird schon so stimmen...
Selbst AMD und NV sprachen mit ihren Treiberupdates für DX11 Games davon, dass man unter DX11/Mantle die draw call Performance um ähnlich hohe Regionen steigern kann/konnte. Und natürlich ist das auch wirklich so nutzbar...

Das Problem dabei ist viel eher, dass ein Spiel nicht ausschließlich daraus besteht, "Elemente" aufzurufen ;) Das Thema ist nur ein Teil vons Ganzen, wenn auch dieser Teil seit Monaten/Jahren schon in der Kritik der Entwickler steht, was DX11 angeht... Um so besser, dass nun auch DX sich dieser Problematik annimmt und da versucht besser zu werden.

Real in Games werden allerdings dort weit weniger von übrig bleiben. Wenn überhaupt... Die Mehrheit spielt immernoch im GPU Limit oder wenigstens nahe diesem. Und somit wird die Mehrheit auch einfach weniger absolute Mehrperformance durch sowas am Ende erhalten. Mit Mantle war/ist das nix anderes. :wink:
 
@fdsonne

ja gut, so schon. hat dann halt natürlich genau die aussagekraft die ich in meinem post karikiert habe. ;)
 
;)
Gibt durchaus Titeln, die da deutlich profitieren... Die Star Swarm Demo bspw. nuckelt extrem an der CPU. Dort konnte Mantle bspw. auch überdurchschnittlich viel Punkten. Und nun DX12 eben auch...

Interessant dabei dürfte werden, wie das in Zukunft weiter geht. Denn die CPUs werden ja nur bedingt schneller. Die GPUs hingegen legen immernoch stark zu von Gen. zu Gen. Das (Un)gleichgewicht zuungunsten der CPU wird immer größer. Titel könnten also in Zukunft mehr profitieren...
 
Heißt das dann ich dann 2 380X mit 4GB HBM Speicher den nichtmehr teilen sondern dieser Addiert wird?

dAs wäre natürlich mal eine neuentwicklung die mich freuen würde
 
Heißt das dann ich dann 2 380X mit 4GB HBM Speicher den nichtmehr teilen sondern dieser Addiert wird?

dAs wäre natürlich mal eine neuentwicklung die mich freuen würde

Nicht durchgängig - Viele Texturen die halt von beiden Grafikkarten gebraucht werden, werden weiterhin in beiden Karten, speicher belegen müssen.
Soweit ich das verstanden habe, wird es wohl hauptsächlich auf die Entwickler ankommen, da Mantle (und wohl auch DX12) schlicht die Kontrolle darüber gibt was wo hinkommt und welche Graka was rendert.
Das Resultat ist wohl allerdings wahrscheinlich schlechtere Skalierung da man statt AFR, SFR nutzt.
 
Nicht durchgängig - Viele Texturen die halt von beiden Grafikkarten gebraucht werden, werden weiterhin in beiden Karten, speicher belegen müssen.
Soweit ich das verstanden habe, wird es wohl hauptsächlich auf die Entwickler ankommen, da Mantle (und wohl auch DX12) schlicht die Kontrolle darüber gibt was wo hinkommt und welche Graka was rendert.
Das Resultat ist wohl allerdings wahrscheinlich schlechtere Skalierung da man statt AFR, SFR nutzt.


Das Resultat ist wohl allerdings wahrscheinlich?

Entschuldige ich verstehe den letzten Satz nicht. Was genau meinst du ist Wahrscheinlich?



Das heißt aber das es in Games eigentlich schon so ist das mit DX12/Mantle 4GB mehr sind als 4GB mit DX 11 odeR?
 
Bestcase praktisch 8 gib. Vorstellbar beispielsweise bei einem Rennspiel mit Splitscreen für 2 Spieler.
Worstcase 4 gib Open World mit schnellen Drehungen des Charakters mit Ego Perspektive.
Average Case tja keine Ahnung bei einem Flugsimulator lässt sich beispielsweise das Cockpit gut Aufteilen oder die Waffe in der Mitte bei einem Egoshooter kann sicher auch komplett von nur einer GPU berechnet werden, halt alles was starr ist, muss nicht in beiden Speichern der Grafikkarte abgelegt werden.
Wird sich zeigen was sich da rausholen lässt.
Es lassen sich sicher auch Texturen, die noch nicht benötigt werden auf beide Grafikkarten aufteilen, um dann bei Gebrauch aus dem jeweils anderen Grafikspeicher kopiert zu werden. Sollte eigentlich schneller sein als sie aus dem Hauptspeicher zu laden.
 
Zuletzt bearbeitet:
wer hat die Ente verbreitet ? ... wirklich .. sowas glaubt ihr ?

dazu sag ich nur:

kitten-troll-890x593.png


badass-badger.jpg
 
Zuletzt bearbeitet:
Ich sehe keinen post der die 800% glaubt.
 
Es lassen sich sicher auch Texturen, die noch nicht benötigt werden auf beide Grafikkarten aufteilen, um dann bei Gebrauch aus dem jeweils anderen Grafikspeicher kopiert zu werden. Sollte eigentlich schneller sein als sie aus dem Hauptspeicher zu laden.

Source wäre in beiden Fällen der PCIe Slot ;) Der Speed sollte also identisch sein.
Von der (theoretischen) RAM Verdopplung halte ich aktuell gar nix... Es muss sich erstmal zeigen, wie die Entwickler das bewerkstelligen wollen. Da einfach aktuell sogut wie gar kein Spiel dafür überhaupt geeignet ist. Alle fordernden Titel sind aus meiner Sicht Volldynamisch in der Darstellung. Da gibts nix starres. Selbst die Waffen der von dir benannten Egoshooter bewegt sich mittlerweile.

Das Problem ist und bleibt die Verteilung auf den/die GPUs. Und hier hängts vom Muster ab. Bleibts beim bisherigen SFR Ansatz der Splittung auf Bildebene (egal ob nun horizontal/vertikal oder in anderen Mustern), wird der Nutzbare Mehrwert durch mehr VRAM einfach nahezu völlig verpuffen. Vor allem in Titeln, die Volldynamisch ihren Kontent darstellen. -> Shooter, Strategiespiele, SImulationen usw. usf.
Der einzige möglich sinnvolle Aspekt wäre eine Verteilung auf Objektebene in Verbindung mit einem Pool, der abgearbeitet wird. So dass jede GPU Berechnungen aus dem Pool ausfasst und somit die Last verteilt wird. Bleibt am Ende nur die Frage nach "Postprozessing" Effekten, die auf die dargestellten Objekte wirken, die lassen sich so ohne weiteres ja nicht aufsplitten. AA, Weichzeichner, Bloomeffekte usw. werden nicht pro Objekt berechnet, sondern auf Bildebene.
 
Falls sie das mit der VRAM aufteilung ordentlich schaffen sollten wäre das natürlich hammer.

Aber 800% klingt schon etwas abgehoben. Vielleicht 200-300% aber 800:stupid:
Falls es wirklich stimmt dann muss DX11 ja noch ne viel schlimmere Katastrophe sein als bis jetzt angenommen...
 
Das Resultat ist wohl allerdings wahrscheinlich?

Entschuldige ich verstehe den letzten Satz nicht. Was genau meinst du ist Wahrscheinlich?

Sorry, ja, das war bescheuert formuliert :d
Eigentlich wollte ich damit nur ausdrücken dass noch garnichts sicher ist, da noch kein game auf dem Markt, Mantle in dieser Weise unterstützt und DX12 ja auch noch meilenweit weg ist.
Es ist aber wahrscheinlich dass dies, wenn es überhaupt funktioniert, Nachteile mitbringen wird - wie schlechtere Skalierung (was bei SFR fast immer der Fall ist, dafür sollte es z.B. keine Mikroruckler mehr geben).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh