AMD- und NVIDIA-Grafikkarten unter DirectX 12 im Multi-Adapter-Modus

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.060
<p><img src="/images/stories/logos-2015/Microsoft2012.jpg" width="100" height="100" alt="Microsoft2012" style="margin: 10px; float: left;" />Bisher konzentrierte sich vieles bei der Berichterstattung über DirectX 12 auf die Low-Level-Natur der API sowie den geringeren Overhead und damit das freiwerdende Leistungspotenzial. Auch wir haben bereits einige Tests durchgeführt – einmal zum entsprechenden <a href="index.php/news/software/benchmarks/34730-3dmark-api-overhead-test-amd-besser-als-nvidia-dx12-und-mantle-ebenbuertig.html" target="_self">Draw-Call-Test des 3DMark von Futuremark</a> und inzwischen gehört ein <a href="index.php/artikel/hardware/grafikkarten/36571-so-testet-hardwareluxx-die-grafikkarten.html" target="_self">DirectX-12-Benchmark zum Grafikkarten-Testparcours</a>....<br /><br /><a href="/index.php/news/hardware/grafikkarten/36982-amd-und-nvidia-grafikkarten-unter-directx-12-im-multi-adapter-modus.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Aktuell gibt es schon genug Probleme bei den Entwicklungen eines neuen Spiels. Ständig Terminverschiebungen, oder ein Beta Spiel...
Da kann man sich nur ausmalen was passiert, wenn die Spieleschmieden jetzt noch komplexere Sachverhalte implementieren müssen :eek:
 
"Relativ gering sind die Unterschiede hingegen bei der Wahl der jeweils primären Grafikkarte."

Bitte nochmal auf die letzte und vorletzte Grafik im Artikel schauen ;) Generell scheint AMD die bessere primary Karte zu sein, teilweise mit sehr großem Abstand.
 
Das sieht ja alles ganz gut aus aber wie viele Entwickler werden die technologie dann auch tatsächlich implementieren. Die großen wie Ubi/EA/Activision kümmern sich doch eh einen dreck um den PC die werden sich sicher nicht die mühe machen.
 
Dann gibt's ja kein getrolle mehr, wenn man die beste Leistung aus Rot+Grün hat.
Am Ende liegen sich dann alle Fanboys in den Armen :xmas:

Wo bleibt dann der ganze Spaß, in den ganzen Graka-Freds :fresse2:
 
Ohne Mist, aber wie geil ist es denn? AMD und nVidia zusammen! Hat schon was.. Wenn sich das etablieren würde. Schön wärs, vor allem in Hinblick auf Monitore welche GSync und FreeSync zugleich unterstützen... :)
 
*aufgeräumt*
 
"Relativ gering sind die Unterschiede hingegen bei der Wahl der jeweils primären Grafikkarte."

Bitte nochmal auf die letzte und vorletzte Grafik im Artikel schauen ;) Generell scheint AMD die bessere primary Karte zu sein, teilweise mit sehr großem Abstand.

hahahaha statt auf die tollen Möglichkeiten zu schauen die sich da ergeben würden ................ obwohl ich auch glaube die Studios sollten mal bei all Ihren Problemen bleiben und um ein Bug freies Spiel in einem gescheiten Zeitfenster zu bringen ............

Ps. ein Fury / Fury Gespann sieht ja nicht doll aus :) und in den Settings ist es mit Sekundär bei Fury auch nicht weit her :banana:
 
Das ist ja das ganz besondere:

AMD + Nvidia Gespann ist schneller als Crossfire oder SLI :fresse:
 
Zudem würde NVIDIA allseitsbekannt, so einen Fusion schnell per Treiber-Sperre unterbinden. Das wissen wir doch alle. ;)

Wissen wir das?
Das Feature ist ein DX12 Feature... Es spricht nicht viel dafür, dass hier ein Hersteller die Geschichte unterbinden kann... Wichtig ist viel eher, das Spiel muss explizit den Modus supporten. Ob das passieren wird? Abwarten... Wohl wird man sich eher auf den linked mode oder gar auf den dritten, eher heutigem SLI/CF ähnlichen Modus festlegen. Um den unlinked mode kommt man aber dann nicht drum rum, wenn eine IGP zusammen mit einer dGPU am Spiel arbeiten soll. -> das ist zumindest für die Zukunft sehr warscheinlich, gerade bei so vielen Intel IGPs in den ganzen Mainstream CPUs.


PS: der Vergleich mit dem Hydra Chip hinkt aus meiner Sicht auch etwas... Denn das war ein Stück Hardware, was versucht hat, von hinten einfach die Kommunikation anzuzapfen und mehr oder weniger transparent auseinander zu klamüsern sowie eine Aufteilung auf mehrere GPUs zu ermöglichen. Das setzt einen extremsten Pflegeaufwand vorraus, der definitiv höher ist, als der, wenn ein Hersteller diese Aufteilung in während der Erstellung des Spiels mit einfließen lässt.


Aber mal schauen, wie sich das am Ende überhaupt durchsetzt, die Abgabe der Verantwortung an die Entwickler schön und gut. Aber wenn der Entwickler Optimierungen einfließen lassen MUSS, damit das funktioniert, wirds schnell interessant, wo es doch heute gerade an dieser Optimierung eher massiv mangelt. Und das völlig ohne so eine Spielerei ;)
 
@heigro

Ich glaube du hast meinen Post falsch aufgefasst. Das sollte kein "AMD ist besser" Post sein, sondern eine objektive Betrachtung der Diagramme und Bewertung der getätigen Aussage. Ich finde das generell gut, da wir so langsam in die Richtung kommen, das selbst MultiGPU durch DX12 gewissen Standards unterliegt ;)

Ich im übrigen eher grün als rot, also die falsche Adresse für Fanboy-Unterstellungen, zumindest wenns pro AMD sein soll ;)
 
Gut, das gleiche konnte der Hydra Lucid auch, nur sehen hier die Ergebnisse besser aus :d
 
Gut, das gleiche konnte der Hydra Lucid auch, nur sehen hier die Ergebnisse besser aus :d

Die Ansätze unterscheiden sich fundamental und sind überhaupt nicht miteinander vergleichbar.

Der Unterschied zwischen Lucid und dem DX12 MAM ist so groß wie der zwischen Tag und Nacht.

Eigentlich ist es was völlig anderes....
 
Na dann hoffe ich jede DX12 fähige Onboard Grafikkarte trägt endlich ihren Teil bei!
 
Diese Tests sind ja schön und gut, aber warum haben die keine benchmarks mit gleichen grafikkarten als vergleich gemacht z.b. GTX 980 Ti Sli oder Fury X Crossfire. So das man wenigstens anhaltspunkte hätte, auch wen die treiber da sicher besser wären.

aber abgesehen davon wäre das mit einer kleinen nvidia z.b. für physx oder hairworks oder was es auch immer gibt "wieder" möglich... wie damals mit den ageia karten, das würde mich schon reizen. aber da kann man warscheinlich noch lange warten... oder aber es würde ein offener standard kommen der auch verwendet wird, das wäre natürlich auch ok.
 
Aktuell gibt es schon genug Probleme bei den Entwicklungen eines neuen Spiels. Ständig Terminverschiebungen, oder ein Beta Spiel...
Da kann man sich nur ausmalen was passiert, wenn die Spieleschmieden jetzt noch komplexere Sachverhalte implementieren müssen :eek:
:heuldoch:
Solche Kombinationen sind m.M n. sehr wichtig, da kann man z.B. auch die Speicheradressen Gemeinsam Festlegen.
Nicht oft passiert es, dass die Treiber auf die selbe Adresse Zugreifen wollen (Übrigbleibsel von 32Bit).

Richtig interessant wird das erst wenn auch die Energie Optionen ergänzt werden.
So kann man z.B. die AMD als Sekundäre Karte laufen lassen und ZeroCorePower nutzen.
Da die AMD Karte dann nicht mehr Sichtbar ist für die Software, könnte z.B. PhysX auf der primären nvidia Karte laufen.
Da ja keine AMD Karte mehr physikalisch vorhanden ist. ;)
 
Solche Kombinationen sind m.M n. sehr wichtig, da kann man z.B. auch die Speicheradressen Gemeinsam Festlegen.
Nicht oft passiert es, dass die Treiber auf die selbe Adresse Zugreifen wollen (Übrigbleibsel von 32Bit).

Was willst du uns damit sagen???
Die Aussage ergibt genau NULL Sinn...

Richtig interessant wird das erst wenn auch die Energie Optionen ergänzt werden.
So kann man z.B. die AMD als Sekundäre Karte laufen lassen und ZeroCorePower nutzen.
Da die AMD Karte dann nicht mehr Sichtbar ist für die Software, könnte z.B. PhysX auf der primären nvidia Karte laufen.
Da ja keine AMD Karte mehr physikalisch vorhanden ist. ;)

Das wird nicht gehen, da IMMER der Treiber aktiv sein muss. Und der verrät schon einfach mal, welche Karte im System steckt.
Ebenso schlummert eine Device/Vendor ID der steckenden, ja selbst der steckenden, aber schlafenden Hardware durch das System... Auch diese lässt eineindeutig die Hardware identifizieren.
Wenn NV nicht will, das PhysX per GPU bei steckender AMD Karte geht, dann gibt es zu 99% auch einen Weg, das zu unterbinden... DX12 wie auch irgendwelche Energieeinstellungen/Optionen ändern an der Situation genau nichts.
Bitte nicht so einen Unsinn verbreiten... Vor allem der letzte Satz. Die Karte ist physisch vorhanden. Selbst im ZeroPower State oder wie sich das Ding schimpft... Und genau DAS wird dir unter diesem Gesichtspunkt auch zum "Verhängnis" und lässt diese (aus meiner Sicht völlig unsinnige) Trickserei nicht aufgehen.
 
Zuletzt bearbeitet:
Wissen wir das?
Das Feature ist ein DX12 Feature... Es spricht nicht viel dafür, dass hier ein Hersteller die Geschichte unterbinden kann...

Natürlich geht das, wie du schon so schön erläutert hast.

......da IMMER der Treiber aktiv sein muss. Und der verrät schon einfach mal, welche Karte im System steckt.
Ebenso schlummert eine Device/Vendor ID der steckenden, ja selbst der steckenden, aber schlafenden Hardware durch das System... Auch diese lässt eineindeutig die Hardware identifizieren.
Wenn NV nicht will, das PhysX per GPU bei steckender AMD Karte geht, dann gibt es zu 99% auch einen Weg, das zu unterbinden... DX12 wie auch irgendwelche Energieeinstellungen/Optionen ändern an der Situation genau nichts.

Manchmal kommt man eben selber drauf. ;)
 
Nvidia wird bestimmt unterbinden, dass haben Sie schon mal gemacht und das werden Sie bestimmt wieder machen. Ich hoffe dann das MS NV in den Arsch treten wird wenn Sie sowas wieder machen sollten.
Pickebuh Natürlich hast du in der Sache recht.

Und wie soll das bitte funktionieren?

Dieser unlinked Mode kommt nicht von NV. Er kommt von MS in den Grundzügen und ist vom Entwickler der Spiele zu implementieren. NV hat da keinen wirklichen Einfluss drauf, geschweige denn, dass die da irgendwas unterbinden können.

Was du und auch Pickebuh aber einfach mal überhaupt nicht verstehen, das hat nichts mit PhysX per GPU zu tun. Die beiden gequoteten Aussagen meinerseits sind zwei völlig verschiedene paar Schuhe. Was man durchaus erkennt, wenn man nicht in jedem Satz irgendwelche Verschwörungen und böses Blut ggü. Herstellern und Produkten sehen würde.

Nochmal zum Verständnis. NV kann sich wenig bis gar nicht gegen eine Implementation des unlinked Modes in einer DX12 Anwendungen wehren. Sie können da nix unterbinden und es auch nicht irgendwie verhindern. Was sie machen können, ist A) die Entwickler bestechen -> was allerdings bei vielen verschiedenen Entwicklern und der Tatsache, dass der unlinked Modus vor allem in Verbindung mit IGPs Sinn ergibt, aussichtslos erscheint. Und B) können sie sich gegen DX12 stellen. Auch das werden sie nicht machen...

Der andere Part ist PhysX per GPU. Das ist NVs Baustelle und hat rein gar nix mit Microsoft oder DX zu tun. Wenn NV nicht will, das es auf anderen Herstellers Hardware läuft, verhindert man dies eben... Was auch ihr gutes Recht ist. Allerdings geht der Trend auch dort eher in Richtung Öffnung als in Richtung NV only. Siehe Gameworks in TW3 als Beispiel.

Wie schön die Diskusionen doch wären, wenn die Leute wenigstens den Background verstanden hätten :wall:
 
Zuletzt bearbeitet:
Wenn das von den Spieleentwicklern zukünftig so gut unterstützt wird, dass es mit SLI/Crossfire vom Support relativ vergleichbar wird, wäre das doch ein Hammer.
Dann könne man sich jeweils einmal grün und einmal rot anschaffen. Werden beide Unterstützt ist das toll, ansonsten wählt man die jeweils vom Spiel besser unterstützte Karte. Dafür würde ich auch ein wenig an Performance im Vergleich zu einem reinen SLI/Crossfire System opfern.

Ich bin aber skeptisch, ob und wie viele Spieleentwickler sich die Mehrarbeit wirklich antun werden.
 
Ich bin aber skeptisch, ob und wie viele Spieleentwickler sich die Mehrarbeit wirklich antun werden.

Das ist wohl die größte Unbekannte bei der Frage, wie sich DX12 machen wird... Die Entwickler haben einfach hier Arbeiten zu erledigen, die sie vorher nicht machen hätten müssen.
Wenn ein Studio sich das nicht leisten kann oder will, wird man womöglich nur den dritten Modus implementieren, wo dann wieder die Geschichte am Treiber hängt.


Allerdings sehe ich ehrlich gesagt den Sinn dahinter nicht, ne NV und ne AMD GPU miteinander zu paaren... was kann denn die Paarung im Vergleich zu einer reinen homogenen ein Hersteller Kombo besser? Wo soll der Vorteil liegen?
Ich sehe eher den potentiellen Vorteil darin, brachliegende GPU Ressourcen für die Berechnungen mitzubenutzen. Und das ist in den allermeisten Fällen die IGP. Diese ist allerdings auch idR schwächer, teils sogar drastisch schwächer... Und es gibt noch extrem viel Variationsmöglichkeiten zwischen den Modellen. Da muss ne Menge Hirnschmalz reinfließen, damit das sauber tut.
Die paar Benches und Demos, die es atm gibt, sind da mit ziemlich hoher Sicherheit ein Stück weit gestellt. Das meint dabei einfach, dass die Situation des Benches gerade passend für die gezeigte Kombination ist. Im regulären Spielebetrieb hingegen wird das eher spannend. Sprich was bringt es wirklich? Wo krankt es? Welchen Vorteil lässt sowas durchblicken? Im Moment ist das alles noch reichlich unklar...
 
Allerdings sehe ich ehrlich gesagt den Sinn dahinter nicht, ne NV und ne AMD GPU miteinander zu paaren... was kann denn die Paarung im Vergleich zu einer reinen homogenen ein Hersteller Kombo besser? Wo soll der Vorteil liegen?
Ich sehe eher den potentiellen Vorteil darin, brachliegende GPU Ressourcen für die Berechnungen mitzubenutzen. Und das ist in den allermeisten Fällen die IGP. Diese ist allerdings auch idR schwächer, teils sogar drastisch schwächer... Und es gibt noch extrem viel Variationsmöglichkeiten zwischen den Modellen. Da muss ne Menge Hirnschmalz reinfließen, damit das sauber tut.
Die paar Benches und Demos, die es atm gibt, sind da mit ziemlich hoher Sicherheit ein Stück weit gestellt. Das meint dabei einfach, dass die Situation des Benches gerade passend für die gezeigte Kombination ist. Im regulären Spielebetrieb hingegen wird das eher spannend. Sprich was bringt es wirklich? Wo krankt es? Welchen Vorteil lässt sowas durchblicken? Im Moment ist das alles noch reichlich unklar...

Nutzung von G-Sync, PhysX, CUDA + günstige AMD Karte als Hilfskarte für Spiele. Oder AMD + FreeSync + PhysX-Ersatzkarte(GTX670) ect.
Man kann sich quasi die Vorteile herauspicken und genau das ist der Grund, warum NVIDIA es dann unterbinden wird und das sicherlich nicht nur per Treiber. Da werden dann Anwälte eingeschaltet, die in der Nutzung von nicht genehmigten NVIDIA-Featuers Rechte verletzt sehen.
Und ja, NVIDIA traue ich das 100% zu.
 
Zuletzt bearbeitet:
Nutzung von G-Sync, PhysX, CUDA + günstige AMD Karte als Hilfskarte für Spiele. Oder AMD + FreeSync + PhysX-Ersatzkarte(GTX670) ect.
Man kann sich quasi die Vorteile herauspicken und genau das ist der Grund, warum NVIDIA es dann unterbinden wird und das sicherlich nicht nur per Treiber. Da werden dann Anwälte eingeschaltet, die in der Nutzung von nicht genehmigten NVIDIA-Featuers Rechte verletzt sehen.
Und ja, NVIDIA traue ich das 100% zu.

Nein, das funktioniert eben so nicht. Da die von dir aufgezählten Features propritäre Mittel der Hersteller sind. Und auch dort die Hersteller die Finger drauf haben...
Das hat aber immernoch nix mit der generellen Möglichkeit eines unlinked Multiadapter Modus unter DX12 zu tun... Eben genau das, was hier Thema ist und was im Test gezeigt wurde. Denn das war einfach nur eine AFR Umsetzung, wo jedes zweite Bild von der einen und die Restbilder von der anderen Karte kommen. Alle AFR Nachteile wie ungleiche Frametimes usw. inkl. Die Implementation basiert aber "nur" auf Standard DX12 ohne propritärem Zusatz. Dagegen kann sich der Hersteller nicht wirklich zur Wehr setzen, da es im Standard offenbar vorgesehen ist, dass sowas geht. Nur verstehst du anscheinden nicht, dass all die aufgezählten Features nichts mit dem quasi Standard DX12 zu tun haben und damit auch freilich nicht angedeckt werden.

Mal ganz davon ab, was hindert sich, einfach so eine Kombo aufzubauen?
Ne primäre NV Karte mit ner sekundären AMD Karte bringt dir bis auf GPU PhysX all diese Features. Ebenso ist es andersrum denkbar, aber wiederum ohne PhysX per GPU.
Da PhysX per GPU aber so oder so nur in zwei Händen von Titel implementiert ist, hält sich der Nachteil in Grenzen. Zumal GPU PhysX per Cuda Implementierung quasi tot ist. Und NV hat offenbar auch gelernt, da die neueren Gameworks Bestandteile offenbar auf DirectCompute basieren anstatt auf Cuda, ebenso eine Herstellerabhängigkeit an die GPU nicht dediziert mehr gegeben ist. (TW3) Cuda selbst kannst du aber auch heute nutzen wenn eine primäre AMD GPU drin steckt. Genau so wie G-Sync mit der NV GPU (als sekundäre Karte) funktionieren sollte, wenn der G-Sync Monitor an dieser GPU steckt.
 
Zuletzt bearbeitet:
Muss ja kein "CrosSli"-Gespann sein. Vielleicht überrascht Amd oder NV uns mit ein Grafikkarten-bundle für den SFR Modus.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh