Nvidia versucht dies jetzt über den Treiber zu erschlagen, sprich einen Scheduler einzubauen, der die Last auf der GPU steuern soll.
Bis hier hin stimme ich dir durchaus zu, allerdings stellen sich mir hier weitgehend andere Fragen als die vielfach angesprochene, NV hat mal wieder die Kunden verarscht, Propaganda...
Mal ein paar Sachen zum Anregen:
- wer sagt, dass eine GPU immer und in jeder Lebenslage auch so viel Luft auf ihren Einheiten hat, dass es sich überhaupt auszahlt, asyncron Berechnungen auszuführen? -> nimm dein Beispiel von oben, wenn du 10ms für die Berechnung brauchst um den Grafikpart abzudecken und dies die ALUs an ihre Grenzen bringt, wie sollen die selben ALUs dann zur selben Zeit nochmal geschätzt knapp 50% der Last abfangen können? -> was ist, wenn du bei gleichzeitiger Berechnung von Compute und Grafik für letzteres sagen wir 15ms brauchst (was 50% drauf wären) und dann inkl. Compute in Summe auf 15-17ms kommst?
- wer sagt, dass AMD und NV GPUs mit ihren doch schon teils ziemlich unterschiedlichen Implementationen (gerade im Frontend und dem Threadscheduler) hier direkt vergleichbar sind? Sprich, wenn AMD auf ihrer Hardware Leistungssteigerungen im mittleren zweistelligen Prozentbereich bestätigt, wer sagt, dass dies auch analog auf NV anzuwenden ist?
- unter welchen Voraussetzungen sind diese Werte überhaupt ermittelt wurden? Wie realitätsnah sind diese "Messungen" mit praxisrelevanten Workloads vergleichbar?
- wo stehen Fakten zu den Parallelen zwischen den Messungen auf Konsolen (AMD APUs mit "lahmen", dafür breitem CPU Part) und den endgültigen Konsolenports auf dem PC?
- wo sind in der Betrachtung die möglicherweise (bei verschiedenen Klassen allerdings definitiv vorhandenen) Leistungsunterschiede zwischen den Modellen? Sprich wer sagt, dass überhaupt jede GPU Leistungsklasse davon profitieren kann? Tonga mit dem "vierfach" Frontend und unter 2000 ALUs vs. Fiji mit nem quasi relativ gleichen Frontend bei mehr als 4000 ALUs sind schon ziemlich eklatante Unterschiede, um mal ein Beispiel zu nennen.
- wo steht festgeschrieben, dass eine Softwareemulation zwingend langsamer sein muss, als eine Abarbeitung in Hardware? Vor allem, wenn nichts, aber auch gar nichts über die direkte Leistungsfähigkeit der Hardware, wie auch der Softwarelösung bekannt ist?
Ich weis nicht, aber irgendwie zieht man hier (und auch in vielen anderen Foren) Rückschlüsse über ziemlich unsichere Sachlagen. Von NV gibt es nahezu gar keine Infos zu dem Thema, sprich was läuft wie und wo genau. Bei AMD gibt es deutlich mehr zu dem Thema. Aber eben klar auf AMD Hardware bezogen... Dass das für ihre Hardware passt, dürfte wohl ziemlich außer Frage stehen. Nur wie passt das mit Maxwell und möglicherweise Kepler unter einen Hut?
Was ich aber definitiv weis, diese Kritik an der Argumentationweise hier wird mir ziemlich sicher wieder als pro NV ausgelegt werden... Mal schauen wer auf die genannten Punkte stichhaltige Fakten bringen kann. -> denn ohne das ist die ganze Diskussion hier reichlich für den Hintern. Da wir einfach so gut wie gar nix über den Background kennen...
PS: hier mal ein paar Vergleiche zwischen AMD und NV:
Ashes of the Singularity Bench - Overclockers UK Forums
Sieht definitiv nicht so schwarz aus, wie man es hier macht... Oder ich hab irgendwie was auf den Augen
Wenn jetzt NV den DX12 Part noch Minimum auf das DX11 Leistungsniveau bringt, dann reicht es imho für diesen Titel wohl aus um weiterhin NV ganz oben stehen zu sehen. Wie viel man davon auf andere Titel übertragen kann, siehe oben, steht völlig in den Sternen...
........... Viel wichtiger: lernt den gamedevs mal coding .... effizienzes coding ... nicht 0815 geht schon irgendwie emulating
Hier sehe ich eine noch extrem ungewisse Schattenseite von DX12... Der Entwickler hat hier eine gewisse Verantwortung. Ob er dieser nachkommen wird und auch vor allem über mehrere Monate nach Spielerelease überhaupt nachkommen kann/will, steht ebenso noch lange nicht in Stein gemeißelt.
Man stelle sich nur einfach mal vor, mit der nächsten oder übernächsten Generation ändert sich irgendwas ziemlich gravierend an der Hardware im Vergleich zu den Konsolen. Was wird wohl passieren? Wird der Entwickler darauf reagieren? Wird er sich dem stellen?
Mal ganz platt angenommen. Man treibt das Thema hier auf die Spitze und baut stark darauf. Sprich NV und AMD würden GPUs bringen, die die ASync Compute Fähigkeiten der APUs stark übersteigen und schlimmer noch, die es notwendig machen (für optimale Leistung), dass man sich von Entwicklerseite dahingehend anpasst? Meinst du das wird man tun? -> ich sehe da noch sehr sehr viele Probleme. Die Abstraktion von DX11 von der Hardware hat nicht nur Nachteile... Vor allem unter solchen generationsübergreifenden Gesichtspunkten
Zuletzt bearbeitet: