AMD kontert im Einsteigermarkt mit Radeon RX 6500 XT in 6 nm

Allerdings müsste über DX12 multi GPU nativ unterstützt werden, ich denke die Meisten Entwickler haben das nur nicht... auf Empfehlung von den jeweiligen Grafikkarten Sponsoren nicht aktiviert.
Nicht musste - eher konnte ;)
Es gibt keinen Zwang, dass MGPU supportet werden MUSS.

Auch wenn die Leistung nicht 100 % skalierte sondern im durchschnitt nur 50% mehr FPS gingen, aber bei 100fps, dann 150fps zu haben macht schon was aus.
Echt schade den gerade im oberen Mittelklasse Segment war das echt ne Preiswerte Methode.
Ehrlich gesagt? Ja, das macht schon was aus, nur aber bei weitem nichts positives.
Wenn du dir die technische Funktionsweise von AFR anschaust (und es gibt nahezu keine Fallbeispiele von Games mit MGPU Support, die nicht AFR nutzen), dann wird dir auch klar warum.

Ja es mag sein, dass man Microruckler selbst nicht spürt, aber wer die Differenzen der inhomogen ausgegebenen Frames nicht spürt, der spürt auch mehr oder weniger Frames im gleichen Delta nicht. Sprich, wenn du von 100 auf 150 FPS erhöhst, wären das homogene 10ms pro Frame bei 100 FPS vs. angenommen bei Microrucklingen 10ms - 3,33ms - 10ms - 3,33ms - 10ms, usw.
Zwei Frames zusammen ergeben 13,33ms, also pro Frame 6,66ms und damit 150 FPS auf die Sekunde gesehen.
Das Ding dabei ist nur, während das erste Frame nach im Beispiel auch 10ms kommt, kommt das zweite zwar nach in Summe 13,33ms, hat aber den Input von ähnlich alt dem ersten Frame
- das heist, taucht in diesem Frame theoretisch bei SGPU ein Gegner auf, dann siehst du den im zweiten Frame - bei MGPU mit AFR siehst du ihn erst im dritten und damit erst nach 23,33ms. 100 FPS wären hier also schneller als 150 FPS ;)

Noch schlimmer wurde das, als die Hersteller mit Frame Pacing bzw. Frame Metering bei der Konkurrenz versucht haben, Microruckler zu eliminieren. Denn diese Methode ist nichts anderes als das weiter künstliche Ausbremsen der Frames bis zu einer halbwegs homogenen Bildausgabe. Ausbremsen heist dabei, der Lag zwischen Input und Output steigt noch weiter an. Phasenweise bei stark schwankenden Frameraten erhöht sich das Lag bis in den Worstcase fast Faktor 2 zur Single GPU. Das heist, du hast zwar im Best Case doppelte FPS, aber nur jeder zweite Frame ist im schlechtesten Fall überhaupt mit einem Input gepaart. In reaktionsschnellen Online FPS Shootern bspw. bist du im Worst Case einen Frame "Blind" während der Gegner dich hingegen schon einen Frame eher sieht.

PS: MGPU war nie eine valide Option für mehr Leistung in der Mittelklasse. MGPU war aller bestenfalls dort sinnvoll, wo man mehr haben wollte bzw. höhere Anforderungen abdecken musste, ohne dass es eine SGPU als Alternative gab, die das konnte. Alles andere ist technisch leider totaler Nonsens. Man kann sich zwar selbst immer viel einbilden, aber die Technik lügt in dem Fall einfach nicht.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Noch schlimmer wurde das, als die Hersteller mit Frame Pacing bzw. Frame Metering bei der Konkurrenz versucht haben, Microruckler zu eliminieren. Denn diese Methode ist nichts anderes als das weiter künstliche Ausbremsen der Frames bis zu einer halbwegs homogenen Bildausgabe. Ausbremsen heist dabei, der Lag zwischen Input und Output steigt noch weiter an. Phasenweise bei stark schwankenden Frameraten erhöht sich das Lag bis in den Worstcase fast Faktor 2 zur Single GPU. Das heist, du hast zwar im Best Case doppelte FPS, aber nur jeder zweite Frame ist im schlechtesten Fall überhaupt mit einem Input gepaart. In reaktionsschnellen Online FPS Shootern bspw. bist du im Worst Case einen Frame "Blind" während der Gegner dich hingegen schon einen Frame eher sieht.
Die Welt ist nicht nur Battlefield oder Call of Duty... there is another world.

Ashes of Singularity funktioniert ziemlich gut mit Async Compute, sogar zwischen den Herstellern.

Hatte man nicht auch mal vor 10 Jahren bei CPUs den Monolithischen Kern gehuldigt und hat MCM Designs als nicht tauglich, vor allem auch im Hinblick auf Gaming gehalten?
Ich glaube wo es technische Probleme gibt, gibt es auch Lösungen nur sind die Hersteller nicht gewillt in das Problem zu investieren, solange es billigere und praktische Lösungen gibt.

Wenn man sich AMDs Ansatz über die Zen Generationen anschaut, hatte man mit jeder Generation die Latenzen verbessert und das MCM Design so weit optimiert das es zu Intels Mono Design zumindest konkurrenzfähig geworden ist. Klar es hat immer noch Nachteile, aber die sind tolerierbar geworden.
a es mag sein, dass man Microruckler selbst nicht spürt, aber wer die Differenzen der inhomogen ausgegebenen Frames nicht spürt, der spürt auch mehr oder weniger Frames im gleichen Delta nicht. Sprich, wenn du von 100 auf 150 FPS erhöhst, wären das homogene 10ms pro Frame bei 100 FPS vs. angenommen bei Microrucklingen 10ms - 3,33ms - 10ms - 3,33ms - 10ms, usw.
Die größte Latenz ist immer noch der Spieler selbst, jemand der Professionell spielen will wird sich immer das bessere Modell kaufen das seinen bedarf deckt. Ich glaub für Online Coop Shooter spielt das nicht so eine riesige Rolle z. B Destiny. Es ist sogar auf Konsole mit einem 60hz 15ms lahmen Panel spielbar gewesen...Ps3...da hast du ganz andere Probleme wie nur 10ms zwischen jedem Frame :P
 
Ich glaube wo es technische Probleme gibt, gibt es auch Lösungen nur sind die Hersteller nicht gewillt in das Problem zu investieren, solange es billigere und praktische Lösungen gibt.
Jein, es gibt schon gewisse Dinge die prinzipbedingt kaum gehen. AMD und NV hätten sicher gern eine Lösung gefunden denn das hätte es ihnen z.B. ermöglicht mehrere kleinere GPUs aufs selbe PCB zu machen und dadurch die Leistung einfacher zu skalieren.
Bei der CPU funktioniert Multithreading inzwischen "nur" deswegen wirklich gut weil es den Level 3 Cache gibt welcher von allen Cores zugreifbar ist, so dass man Daten sinnvoll austauschen und die Kerne somit wirklich an der Selben Sache feingranular arbeiten lassen kann.
Soetwas wird man auch im Chiplet Design von GPUs über das gemunkelt wird, höchstwahrscheinlich sehen. PCIE selbst und auch die SLI\CF Brücken reichen leider nicht.
 
Jein, es gibt schon gewisse Dinge die prinzipbedingt kaum gehen. AMD und NV hätten sicher gern eine Lösung gefunden denn das hätte es ihnen z.B. ermöglicht mehrere kleinere GPUs aufs selbe PCB zu machen und dadurch die Leistung einfacher zu skalieren.
Bei der CPU funktioniert Multithreading inzwischen "nur" deswegen wirklich gut weil es den Level 3 Cache gibt welcher von allen Cores zugreifbar ist, so dass man Daten sinnvoll austauschen und die Kerne somit wirklich an der Selben Sache feingranular arbeiten lassen kann.
Soetwas wird man auch im Chiplet Design von GPUs über das gemunkelt wird, höchstwahrscheinlich sehen. PCIE selbst und auch die SLI\CF Brücken reichen leider nicht.
Ich glaube einfach früher gab es keine bessere Lösung oder alternative als die Brückentechnik.
Wenn man sich die Entwicklung des PCB und dessen Lanes anschaut:
1640815255715.png

Braucht man effektiv die Brücke nicht, um schnell genug Daten zwischen zwei Karten zu schieben.
Wenn man an die Zeiten von SLI und Crossfire denkt, hatte man gerade mal so ~16GB als Bandbreite zur Verfügung, in der Regel wurde ja PCIE 3.x in x8 Lanes geteilt.
Wenn ich mir aktuell meine 3080 anschaue mit GDDR6x, schafft die ~760GB/s das ist klar nochmal ne andere Hausnummer.
1640815606102.png

Aber Grafikkarten mit 128Bit interface wie eine 6600XT schaffen um die 256GB/S und die kommende 6500xt an die 128GB/s mit 64Bit, also wäre der PCIEGen5 schnell genug um die Daten hin und her zu schieben.
Damit würde ich assoziieren das man ohne Probleme Multigpu betreiben kann ohne zu große Nachteile zu bekommen, bzw. die würden einfach kleiner werden.
Prinzipell muss ja nur eine Karte für die andere jedes 2-3 Bild erzeugen und sie der anderen Karten für die Ausgabe Buffer zur Verfügung stellen, dafür sollte Bandbreite mit PCIE5.0 ausreichen.
Ich will damit nicht sagen, das man nicht noch Probleme durch Latenz hätte, gerade bei Shootern im Online Wettbewerb.
Aber für die meisten anderen Games würde man das schon so gut wie nicht mehr bemerken. Wenn man nicht den Ansatz verfolgt das beide Karten 1 Frame gemeinsam berechnen sollen, den das sollte so nicht in der Praxis tauglich sein, eben wegen der Latenz zwischen beiden GPUs.
 
Braucht man effektiv die Brücke nicht, um schnell genug Daten zwischen zwei Karten zu schieben.
Hmm, bedenke allerdings dass du trotzdem noch die Kommunikation mit der CPU brauchst und zwar für jede GPU einzeln. Also musst du das mal GPU Anzahl nehmen und zusätzlich noch für die inter-GPU Kommunikation abzwacken. So eine breite Anbindung ist dann bei Single GPU Verschwendung bzw. weit überdimensioniert.
Bandbreite ist auch nicht alles sondern braucht auch Latenz. L3 Cache ist viel schneller als RAM z.B.

Prinzipell muss ja nur eine Karte für die andere jedes 2-3 Bild erzeugen und sie der anderen Karten für die Ausgabe Buffer zur Verfügung stellen
Da hast du leider einen Denkfehler. Woher sollen die GPUs selbstständig zum Zeitpunkt für Frame #X wissen was für Frame #X+1 und Frame #X+2 gerendert werden soll? Du willst ja nicht 3 mal das Selbe Frame.
Die CPU müsste dann drei mal so viele Renderbefehle rausschicken - und die sind bereits jetzt ein großer Flaschenhals. Eins der wichtigsten Optimierungsaufgaben die man als Gameentwickler hat, ist die sogenannten "Drawcalls" zu reduzieren. Game Engines wie z.B. Unity im zeigen diese darum als eine von nur einer Hand voll Metriken mit im Editor mit nur einem Klick an, damit man sie nicht aus den Augen verliert.
Im Idealfall müsste man auch die Physik und alles andere auf einmal vorrausberechnen (also bei 3 GPUs, schlicht dreifache CPU Last), denn wenn du schon in der Wartezeit auf die GPU, die nächsten Frames vorbereitest, hast du genau die Erhöhung der effektiven Latenz die @fdsonne erwähnt hat (bei SLi/CF hat man darum mit gewissen Interpolationstechniken gearbeitet um zumindest offensichtliche Bewegungen smooth zu halten ohne alles doppelt zu rechnen).
Bei Multiplayer bzw. schon bezüglich User-Input kannst du auch bei unendlich CPU Ressourcen nicht wissen was die User\Gegner in 2 Frames machen.

Eine Technik die für competitive FPS Games prinzipiell nicht taugt wird sich leider kaum groß durchsetzen... Solche Games dürften für einen signifikanten Teil des Umsatzes an mid\high end GPUs verantwortlich sein.

Wenn man nicht den Ansatz verfolgt das beide Karten 1 Frame gemeinsam berechnen sollen, den das sollte so nicht in der Praxis tauglich sein, eben wegen der Latenz zwischen beiden GPUs.
Fürchte das ist der einzig wirklich sinnvolle Ansatz.

EDIT: Erklärung oben etwas geändert, hatte selbst auch nen Denkfehler bezüglich der Wartezeit auf die GPU.
 
Zuletzt bearbeitet:
Aber Grafikkarten mit 128Bit interface wie eine 6600XT schaffen um die 256GB/S und die kommende 6500xt an die 128GB/s mit 64Bit, also wäre der PCIEGen5 schnell genug um die Daten hin und her zu schieben.
Milchmädchenrechnung:

1. CPU Kommunikation fehlt
2. Anbindung der GPUs ist ja ab Navi23 nur noch 8 Lanes, was bei PCIe4.0 bereits nur noch 32GB/s sind und nicht jeder hat in dem Bereich ne CPU und nen passenden Chipsatz für PCIe4.0 Support.
Bei PCIe3.0 und 8 Lanes sind es dann nur noch 16GB/s ...
3. Die Karte kann max PCIe4.0 und PCIe5.0 ist sicherlich für die aktuelle generation an Navi Chips auszuschließen ...
 
Wobei an der CPU Leistung sollte es nicht liegen, davon haben wir genug... Vor allem auch genug Kerne :unsure:
Außerdem ist seit PCIE Gen4 genug Bandbreite auch für die Interkommunikation zwischen CPU und RAM, hier ist auch ab einem gewissen Punkt Richtung UWQHD/4k+ sowieso GPU Limit angesagt.
 
Aha und ist WQHD und Full HD etwa nicht auch schon GPU Limierend oder entscheidet da eher die CPU dann über das Ergebnis?
 
Aha und ist WQHD und Full HD etwa nicht auch schon GPU Limierend oder entscheidet da eher die CPU dann über das Ergebnis?
Kommt aufs Spiel an... gibt schon Games die fressen soviel das GPU auch unter FHD limitiert.
 
Ja also selbst bei den alten Games ,sind überwiegend GPU Limitierend. Fps sind mehr als genug da,CPU wird nur so auf 3-4 Kernen belastet.Hat schon nen Vorteil nebenbei auch noch was anderes auf der CPU laufen zu lassen. Ich nutze also schon die ganze Zeit die Nachteile zu meinem Vorteil aus.Gut das Games nicht so Kern Hungrig sind.
 
kannst ja mal versuchen BF2042 mit einem 4 kerner zu spielen. also im multiplayer, wo es richtig zur sache geht.

'7700k bEStee g4m0r CpU EVaa!' :bigok:
 
ah heißt die Frage nur,im Postitiven oder im Negativen Sinne die beste CPU für BF2042?

Naja zum Glück zocke ich nur per Splittscreen oder Lokal und nicht im Mehrspieler Modus.

Wobei Counterstrike Souce mit rund 30 Bots zieht auch Ordentlich CPU Leistung also für sein ALter des Games.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh