Tile Based Rasterization als Geheimrezept hinter der Maxwell/Pascal-Architektur enthüllt

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
26.932
Tile Based Rasterization als Geheimrezept hinter der Maxwell/Pascal-Architektur enthüllt

<p><img src="/images/stories/logos-2013/nvidia_2013.jpg" alt="nvidia 2013" style="margin: 10px; float: left;" />Ein Trend der vergangenen GPU-Architekturen von AMD und NVIDIA: Zwar stellen die Hersteller der Presse möglichst viele Informationen zu neuen Funktionen zur Verfügung, bei den Details zur Implementation der einzelnen Shadereinheiten werden die Hersteller aber plötzlich recht wortkarg. Der Grund ist ganz einfach, man will dem Konkurrenten keine Hinweise auf die Optimierungen geben und diese werden immer wichtiger, wenn die Effektivität gesteigert werden soll. Dabei spielt der Umstand eine Rolle, dass AMD und NVIDIA lange auf die Fertigung in 28 nm angewiesen waren.</p>
<p>David Kanter von Real World Tech ist ein ausgesprochener GPU-Experte und hat sich genauer angeschaut,...<br /><br /><a href="/index.php/news/hardware/grafikkarten/39964-tile-based-rasterization-als-geheimrezept-hinter-der-maxwell-pascal-architektur-enthuellt.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das erklärt eingies. 3dfx nutzte übrigens nie TBDR, sie hatten aber wie erwähnt die Technologie dafür. Der einzige TBDR, den es für PC je gab war von PowerVR, beispielsweise die DX7-Variante Kyro, leider ohne HardwareT&L damals, sonst wär das Teil bombastisch gewesen ;).
Die Energieeffizienz zwischen Kyro und Geforce war ungefähr ähnlich besser wie bei Maxwell heute.
 
Zuletzt bearbeitet:
Mal sehen was dran ist, aber wer weiss, vielleicht unterstützt das gcn4 oder gncn5 eh auch, laut AMD wurde bei gcn4 ja viel erneuert.

Aber am Ende bestimmen eh die Konsolen was genutzt wird ... Spiele müßten zunächst auch angepasst werden, wird so schnell nichts passieren ...
 
Zuletzt bearbeitet:
@Don, kannst du das mal etwas näher/spezifischer ausführen?
Der Part mit der XBox 360/One ist irgendwie ziemlich verwirrend... Denn wenn die One es kann, kann es AMD auch. Die One nutzt schließlich ein GCN Backend...

Und so recht erschließt sich mir noch nicht aus dem Text, wo das "Geheimrezept" nun wirklich ist...
Es ist einfach doch "nur" ein etwas anderer Ansatz.

Aber am Ende bestimmen eh die Konsolen was genutzt wird ... Spiele müßten zunächst auch angepasst werden, wird so schnell nichts passieren ...

Das eine hat mit dem anderen nicht viel gemein... Entscheidend ist eher, was macht der Hersteller der GPU mit den zugrunde liegenden Anforderungen. Mit Maxwell/Pascal gelingt es NV offenbar, das Prinzip aufgehen zu lassen. Auch wenn ich skeptisch bin, dass dieser Punkt hier wirklich das "Geheimrezept" sein soll.
 
Mal sehen was dran ist, aber wer weiss, vielleicht unterstützt das gcn4 oder gncn5 eh auch, laut AMD wurde bei gcn4 ja viel erneuert.

Aber am Ende bestimmen eh die Konsolen was genutzt wird ... Spiele müßten zunächst auch angepasst werden, wird so schnell nichts passieren ...

Ich glaube du hast nicht ganz verstanden, dass diese Technik bei NVIDIA jetzt schon dafür verantwortlich ist, dass eine Steigerung bei der Effizienz erreicht wurde.
 
FYI.

Konsolen bestimmen derzeit nichts ;)
das war einige Jahre so, aber aktuell ist jedes Konsolengame erstmal auf PC lauffähig bevor es auf der Konsole läuft. Die neuen Möglichkeiten etc. haben jedes Studio zum PC wieder getrieben in den letzten Jahren.

Ein sehr gutes Beispiel ist die Tekken Reihe, der neueste Ableger auf der Gamescom 2016 wird auf PC gezeigt da der Code für Konsole noch nicht fertig ist.

Schaut man sich die heutigen Konsolen an, sind es Multimediaboxen die eine Abgespeckte Form des PCs darstellen.

Sony versucht sich gegen diesen Trend zu wehren, klar vor allem nachdem VAIO veräußert wurde wollen die auch nicht back to the roots.

Microsoft, Nintendo und Apple fahren absolut den PC Weg und nutzen die Optionen die seitens Soft- und Hardware gegeben werden.

Also Thema Erst Konsole dann PC ist seid 2014 Essig - wir sind back to the roots. Nur weil ein Game im Menü noch Konsolenseitig designed ausschaut, hat das nichts zu sagen - da dies heute eh dem Trend der Vereinfachung und Verschlankung geschuldet ist - Stichwort: Clean & Reduziertes Design mit nativer Menüführung.

ob AMD die Funktionalität aufgreift wage ich zu bezweifeln, aber dass bedeutet nicht es gibt nur einen Weg nach Rom, gibt ja bekanntlich immer mehr als nur einen Weg.
 
@Don: Okay, sagen wir mal, ich verstehe, daß bei Nvidia bei einem Zwischenschritt des Renderings eine Aufteilung des Bildes in Kacheln für eine höhere Effizienz der Karte sorgt. Ich frage mich allerdings, ob damit auch Nachteile verbunden sind, z.B. - ähnlich wie bei JPEG - üblicherweise unsichtbare, aber dennoch vorhandene Kanten, wo die Kacheln wieder zusammengefügt werden. Ist da irgendwas bekannt oder zumindest denkbar?
 
So wie ich es verstehe, geht es hier um verschiedene Sachen:

(1) Immediate Mode Rendering
(2) Tile Based Deferred Rendering
(3) Tile Based Immediate Mode Rendering

Immediate Mode ist also nicht gleich Immediate Mode.

(1) wird typischerweise für High-Performance GPUs verwendet, (2) und (3) für mobile GPUs. AMD hat das Thema TBR schon seit langer Zeit auf der Agenda. Hier werden auch die Gründe für TBR nochmal explizit hervorgehoben:
Why is TBR so Popular in Embedded Devices?
• Reduced bus bandwidth
• Lower polygon counts in mobile games are an ideal match for TBR

David Kanter behauptet nun, dass AMD (1) verwendet und Nvidia mit (3) was neues implementiert hat. Beides ist mMn falsch.

Dass David Kanter behauptet, AMD würde (1) nutzen, liegt vermutlich einfach daran, dass er eine ziemlich alte Radeon als Vergleich heranzieht, die noch nicht mal auf der GCN Architektur basiert. Mit meiner R7 260X (GCN Gen2) zeigt das Tool jedenfalls was anderes. Schaut definitiv nach TBR aus:





Und (3) ist nicht was völlig neues und wird auch von anderen Herstellern genutzt, laut Wikipedia zB von ARM Mali und Qualcomm Adreno (ehemals AMD).

Mehr gibt dann der Vergleich von Kanter leider nicht her. Was hier wie effizient arbeitet, bleibt ungeklärt.



edit:

Hier habe ich noch einen Screen einer Skylake GPU (i5-6500 / HD 530). Intel scheint in der Tat kein TBR zu nutzen. Schaut ähnlich wie bei der alten Radeon von Kanter aus.

 
Zuletzt bearbeitet:
Am Ende spielt die Hardwarelösung im Detail keine Rolle weil die Leistung von suboptimalen Schnittstellen wie DirectX und von schlecht programmierten Spieleengins gefressen wird. Bekanntlich arbeiten die Spieleschmieden eng und i.d.R. selektiv mit AMD, Microsoft, Intel und Nvidia zusammen. Jeder Spieler kennt die Brandings wie "The way its meant to be played" oder "Intel inside" die beim Spielestart präsentiert werden.
Was nützt dann der Vorteil der Hardware von Nvidia wenn das Lieblingsspiel von einer Spieleschmiede kommt die vornehmlich mit AMD zusammenarbeitet und ihr Produkt eben auf AMD-Technik optimiert hat. Und dann kommt noch die Frage wie gut (z.B. neue Doom) oder schlecht (Gothic 3) überhaupt programmiert wurde.
 
Das stimmt so einfach nicht. Es gibt Ausnahmen, wie viele GW-Implementationen oder auch direkte Unterstützung wie bei ROTTR, jedoch erschöpft sich das meist damit auch. Wenn beispielsweise sich ein Hersteller dazu entscheidet AsyncCompute einzusetzen, so handelt der nicht pro-AMD. Zwar unterstützen momentan nur AMD-GPUs überhaupt echtes AsyncCompute (Pascal kann nur Preemtion und Maxwell kann es gar nicht), aber der id-Technikchef hat ja schon klargemacht, in welche Richtung das gehen soll, nämlich zu massiven Einsatz von AsyncCompute, um deutlich mehr Parallelität und Effizienz zu erreichen mit dieser Technologie, id besitzt aber keine erkennbare Hardwarenähe z.Z. Das ist halt eine OoO-Implementation für Grafikkarten, das ist so revolutionär wie nur wenige Dinge im Grafikbereich, beispielsweise die Einführung der Geometrieberechnung auf der GPU oder die Einführung der Shader.
 
Zuletzt bearbeitet:
Async Compute ist aber auch nur eine von vielen neuen Technologien, welche die neuen APIs bereitstellen. Es wurde viel in den Medien diskutiert, weshalb es jetzt viel umwettert wird, aber es gibt auch neue Speicherverwaltungs/Zugriffs-Technologien, welche genauso wichtig sein können.

Die größte Crux ist, dass die Entwickler wieder anfangen müssen, im Low-Level Fahrwasser zu schwimmen, was ihnen dank DX über all die Jahre abgenommen worden ist. Square Enix macht zum Beispiel (mit Tomb Raider) den Ansatz, ein bereits fertiges Spiel umzuschreiben (Da kann man nicht mehr viel falsch machen) und den Wissensgewinn dann in zukünftige Spiele zu stecken - ID versucht es, von Anfang an das Spiel so zu designen, dass es auf die neuen APIs passt. Und dann wird es da noch viele Zwischenschritte geben.

So eine eigene Engine zu schreiben, kann mehrere Jahre dauern und wenn die fertig ist, ist sie evtl. schon wieder veraltet. Und da leuchten dann wieder Sachen wie Unreal auf.

Es ist zur Zeit so viel in Bewegung, dass du kaum sagen kannst, wo Henne und Ei ist - bis die ersten Spiele mit 100% Unterstützung der neuen APIs rauskommen (und nicht nen Kompatibilitäts-Deckel aufgesetzt bekommen) vergehen imho noch mind. 12 Monate, auch wenn Doom hier schon gut vorgelegt hat. DANN können wir auch anfangen, AMD mit NVidia zu vergleichen.
 
Wenn ich das richtig verstehe braucht diese Technologie sofern nicht direkt unterstützt zwingend DirectX Workarounds um überhaupt zu funktionieren. Verständlich, dass man da nicht auf den low-level Zug aufspringen will.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh