GTC 2014: NVIDIA spricht über DirectX 12 und kommenden Wundertreiber

Nekronata;22032883 (man erinnere sich an die Versprechungen von GK100 usw. schrieb:
Öhm kannst du dafür ein paar Beispiele oder wenigstens EINS nennen?

Man könnte das übrigens auch so umformulieren:
Immer wenn eine der Firmen etwas entwickelt, das sich dann als Seifenblase herausstellt, weil der andere Hersteller mit etwas ähnlichem/besserem kontert, fangen die Fans der ersten Firma an sich darüber auszuheulen wie schlecht doch die andere Firma ist.
Dabei reagiert die Firma 2 nur auf das was Firma 1 gemacht hat...
Im Sinne des Wettbewerbs kann es nur gut sein wenn sich bei GPUs nicht die selbe Situation wie bei CPUs ergibt!
Sprich das eine Firma die andere komplett aus dem High End Markt kickt und wir als Kunden darunter leiden müssen... :rolleyes:

Ich möchte jedenfalls nicht für ein paar Jahre auf der Stelle treten was die Grafikkarten angeht, wie im CPU Markt!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hatt man bei BF4 eigentlich unter Mantel den Nebel noch in der Ferne oder konnte man das nun endlich mal fixen und neu Benchen ?
Frage einfach nur mal so weil man ja hier anhand von Screenshot schon irgendwelche Schlussfolgerungen zieht.
 
Bin echt gespannt wie der neue Treiber wird.

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Alles dummes gerede. So lange es über DirectX läuft kann es nicht so effektiv wie z.b. Mantle sein. Mantle ist eine LowLevel Api welche quasi direkt auf die Hardware zugreift, DirectX hingegen eine High-Level-Api welche immer das nachsehen haben wird. CTM wird immer vorne liegen.

Die Grafik von NV ist auch lustig... gut das man nur einfache Genauigkeit angibt, das die Leistung doppelter Genauigkeit von GTX580 auf GTX680 sogar massiv gefallen ist sieht man so natürlich nicht. :P
 
Zuletzt bearbeitet:
Alles dummes gerede. So lange es über DirectX läuft kann es nicht so effektiv wie z.b. Mantle sein. Mantle ist eine LowLevel Api welche quasi direkt auf die Hardware zugreift, DirectX hingegen eine High-Level-Api welche immer das nachsehen haben wird. CTM wird immer vorne liegen.

Die Grafik von NV ist auch lustig... gut das man nur einfache Genauigkeit angibt, das die Leistung doppelter Genauigkeit von GTX580 auf GTX680 sogar massiv gefallen ist sieht man so natürlich nicht. :P

Mantle ist so Low Level, dass es nicht eine einzige Karte an sich schneller macht. Ich hab jeden Falls nicht eine Karte gesehen, die ohne CPU-Limit irgendwie schneller wäre. Wenn man nur auf der CPU-Seite angreift, sollte man das auch mit DX hinbekommen. Unmöglich ist das jedenfalls nicht. ;)
 
Das entlasten der CPU durch weniger calls ist genau der Vorteil von ctm! ;-)
 
Und wer sagt, dass man das mit DX nicht kann? AMD? ;) Ich würde mich da entspannt zurück lehnen und mal gucken was Nvidia geschissen kriegt. :d Hexenwerk betreibt AMD jedenfalls nicht. Naja mir soll es egal, ich kauf mir auch für einen Wundertreiber nicht einfach eine Nvidia-Karte...
 
Das entlasten der CPU durch weniger calls ist genau der Vorteil von ctm! ;-)

Das passt dann aber nicht zu deiner Aussage oben...
Denn wie Mick sagte, es macht sich nur dann ein Vorteil bereit, wenn die CPU scheinbar nicht mehr kann. Wobei das immernoch nicht 100% geklärt ist, siehe CB Messung vom BF4 SP mit über 100% CPU Leistungssteigerung und quasi keiner wirklichen FPS Steigerung. Trotzdem ist Mantle schneller.
Es schaut eher so aus, als das die DX Schnittstelle, wie sie jetzt ist, da ein paar Sachen Ineffizient macht. Und das erzeugt künstliche Limits unabhängig der reinen Rechenleistung der Hardware. Nur genau dort kann man auch Ansetzen... Und das völlig Hardwareunabhängig. Oder vielleicht ist es gar nicht die DX Schnittstelle, sondern einfach der Treiber?
Ganz so schlecht kann der HighLevel Ansatz bei DX also nicht sein, wenn man quasi keine Leistungsnachteile hat, es sei denn, die CPU ist überfordert, oder man rennt in künstliche Limits...
 
Zuletzt bearbeitet:
ich finde die herangehensweise bei mantle völlig falsch,
klar wenn die cpu nicht auf 100% auslastung bringt es sich wenig,

ABER: diese resourcen kann man für mehr effekte, inteligentere ki usw. nutzen
und somit wird man auf dauer wie mit mantle besser fahren

und der neue wundertreiber und das wunder D3d wird dies aber nicht aufgreifen,
inform das es die cpu entlasten wird, es wird interna falschenhälse bei der gpu beseitigen
und somit fliegt z.b. die inteligentere KI schon mal raus
 
Zuletzt bearbeitet:
@tecfreak
DX kann das nicht bewerkstellen da zu viele Layer zwischen HW und SW liegen. Daher "High-Level-Api". Das was z.b. eine CTM Api mit, sagen wir einem Befehl, direkt bzw. fast direkt bei der Hardware abrufen kann, muss eine High-Level-Api mehrere "Translations" machen damit es für die HW verständlich und somit ausführbar ist. Umso komplexer ein Code wird, umso heftiger wird der Overhead der High-Level-Api.

@fdsonne
Dann habe ich mich ggf. falsch ausgedrückt. Die Grafikhardware kann nicht mehr leisten als das was von Ihr gefordert wird. Alle Befehle/Calls usw. kommen von der CPU, um so mehr Befehle von der API für die GPU übersetzt werden muss umso mehr wird Leistung verschenkt da die CPU limitiert. Umso mehr Layer zwischen dem Programm und der Hardware sind umso ineffektiver wird es. Natürlich passt dies alles nur wenn die CPU limitiert, bei gpulimitierenden Situationen bringt weder DX, Mantle oder andere CTM Apis etwas. (Was Tests ja auch zeigen)
 
Zuletzt bearbeitet:
Künstliche Limitierungen, bei dem Gedanken schaudert es mich ...... ob AMD/Nvidia da böse Sachen treiben bzw. getrieben haben?
Das ist eine ernst gemeinte Frage, so gut kenne ich mich in der Materie auch nicht aus..... Also net böse sein ;)
 
Zuletzt bearbeitet:
Künstliche Limitierungen, bei dem Gedanken schaudert es mich ...... ob AMD/Nvidia da böse Sachen treiben bzw. getrieben haben?
Das ist eine ernst gemeinte Frage, so gut kenne ich mich in der Materie auch nicht aus..... Also net böse sein ;)

Ich glaube es ehrlich gesagt nicht. Es ist nicht schwer in Software ungewollt "Bremsen", also Fehler etc, einzubauen oder man verwendet in der ersten Variante einen ineffizienten Ansatz usw. Die Hersteller haben eigentlich ja nichts davon ihre Hardware softwaretechnisch zu bremsen, dass können sie durch Beschneidung des Chips doch eh und tun dies auch.
 
@tecfreak
DX kann das nicht bewerkstellen da zu viele Layer zwischen HW und SW liegen. Daher "High-Level-Api". Das was z.b. eine CTM Api mit, sagen wir einem Befehl, direkt bzw. fast direkt bei der Hardware abrufen kann, muss eine High-Level-Api mehrere "Translations" machen damit es für die HW verständlich und somit ausführbar ist. Umso komplexer ein Code wird, umso heftiger wird der Overhead der High-Level-Api.

Glaube du bringst da einiges durcheinander denn es ist genau umgekehrt als wie du es beschrieben hast. Umso stärker abstrahiert/zusammengefasst/verknüpft/verallgemeinert (DX aktuell) desto einfacher wird in der Regel der Code der Anwendung. Mantle wird sich da kaum von DX unterscheiden denn es würde sonst sofort auf Ablehnung bei den Programmierern stoßen wenn der Aufwand größer wäre was bei hardwarenaher Programmierung idR. auch immer der Fall ist.
Mantle verfolgt einfach eine andere Herangehensweise und macht sich in erster Linie die Schwächen bestimmter Engines zu nutzen und ist etwas besser auf eine bestimmte Chiparchitektur optimiert.
Sehe daher keinen Grund wieso M$ das in Zusammenarbeit mit Nvidia & Co. nicht auch auf ähnliche Weise bei der kommenden DX Implementierung umsetzen könnte.
 
Zuletzt bearbeitet:
Ne ne das stimmt schon. Das bestmögliche an ctm ist Assembler, das spricht die HW direkt an. Aber zu aufwendig da alles auf die HW zurechtgeschrieben werden muss. Meine Aussage ist schon korrekt. ;-)


DX hat den Vorteil der höheren Kompatibilität. Umso hardwarenaher programmiert wird umso mehr muss auf die HW speziell optimiert werden.

Würden die Programmierer alles mit einer low-level API programmieren müssten sie für jede chipgeneration nen eigenen renderpfad coden. Deshalb ist es zu aufwendig. Bei einer Konsole macht man es nur so, da Überall die gleiche HW.
 
Zuletzt bearbeitet:
Hatt man bei BF4 eigentlich unter Mantel den Nebel noch in der Ferne oder konnte man das nun endlich mal fixen und neu Benchen ?
Frage einfach nur mal so weil man ja hier anhand von Screenshot schon irgendwelche Schlussfolgerungen zieht.

Das war ein Client-Bug von Bugfield 4 der bei einigen aufgetreten ist, ich hatte diesen Bug nie.

Alles dummes gerede. So lange es über DirectX läuft kann es nicht so effektiv wie z.b. Mantle sein. Mantle ist eine LowLevel Api welche quasi direkt auf die Hardware zugreift, DirectX hingegen eine High-Level-Api welche immer das nachsehen haben wird. CTM wird immer vorne liegen.

Richtig
 
Zuletzt bearbeitet:
Würden die Programmierer alles mit einer low-level API programmieren müssten sie für jede chipgeneration nen eigenen renderpfad coden. Deshalb ist es zu aufwendig. Bei einer Konsole macht man es nur so, da Überall die gleiche HW.

... und deshalb ist Mantle überhaupt nicht so "low-level", also hardwarenah wie AMD es uns noch vor dem Release verkaufen wollte. Da ist immer noch eine dicke Abstraktionsschicht dazwischen damit es vor allem praktikabel und für zukünftige Architekturen leichter portierbar bleibt. Auf Konsolen ist das nicht sooo viel anders.

Ein Renderer geschrieben in Assembler-Code für einen bestimmten Chip/Chipfamilie wäre ein totaler "Brain-Fuck" und aufgrund der Komplexität auch nicht umsetzbar. Deshalb geht es heutzutage auch nicht mehr ohne Hochsprachen, Hardwareabstraktionsschichten und Anwendungsschnittstellen.

Was AMD geschafft hat zu optimieren, das werden auch M$ und NV schaffen.
 
... und deshalb ist Mantle überhaupt nicht so "low-level", also hardwarenah wie AMD es uns noch vor dem Release verkaufen wollte. Da ist immer noch eine dicke Abstraktionsschicht dazwischen damit es vor allem praktikabel und für zukünftige Architekturen leichter portierbar bleibt. Auf Konsolen ist das nicht sooo viel anders.

Ein Renderer geschrieben in Assembler-Code für einen bestimmten Chip/Chipfamilie wäre ein totaler "Brain-Fuck" und aufgrund der Komplexität auch nicht umsetzbar. Deshalb geht es heutzutage auch nicht mehr ohne Hochsprachen, Hardwareabstraktionsschichten und Anwendungsschnittstellen.

Was AMD geschafft hat zu optimieren, das werden auch M$ und NV schaffen.

Unter selben Bedingungen aber nicht auf dem Niveau einer LL-Api.
 
Das mag sein das mantle gar nicht so hardwarenah ist, aber immer noch um einiges "näher" als dx.

Dx wird ohne komplett neu aufgebaut zu werden nie an ctm rankommen, da ein großer hal vorhanden ist.
 
Zuletzt bearbeitet:
Dx wird ohne komplett neu aufgebaut zu werden nie an ctm rankommen, da ein großer hal vorhanden ist.

Und wenn doch ist Mantle einfach für den Arsch. ;)
Aber an sich kann DX nicht das Potential einer LL-Api erreichen, da es einfach nicht möglich ist und das auch in 500 Jahren nicht.
 
Zuletzt bearbeitet:
Das mag sein... Fakt ist das MS/NV offensichtlich der Arsch auf Grundeis geht und sich endlich mal was bei DX tut... wenn man den Ankündigungen glauben darf. Egal wie hardwarenah Mantle nun ist, wir profitieren alle davon weil endlich Bewegung in den Markt kommt.
 
Und wenn doch ist Mantle einfach für den Arsch. ;)
Aber an sich kann DX nicht das Potential einer LL-Api erreichen, da es einfach nicht möglich ist und das auch in 500 Jahren nicht.
Erlaubt der Windoof-Kernel denn überhaupt eine hardwarenahe Programmierung ohne Umwege?

Das DX nie an das Potential einer echten LL-API wie die der Playstation z.B. herankommen wird ist klar. Das ist aber auch gut so, denn sonst hätte jeder Hersteller seine eigene Schnittstelle und die Anwendungsentwickler und User damit ein Dilemma.
 
Das mag sein... Fakt ist das MS/NV offensichtlich der Arsch auf Grundeis geht und sich endlich mal was bei DX tut... wenn man den Ankündigungen glauben darf. Egal wie hardwarenah Mantle nun ist, wir profitieren alle davon weil endlich Bewegung in den Markt kommt.

Darüber bin ich ebenfalls froh, ich persönlich halte nicht viel von Mantle auch wenn ich eine AMD GPU besitze. ;)

Erlaubt der Windoof-Kernel denn überhaupt eine hardwarenahe Programmierung ohne Umwege?.

Jap
 
Wenn ich das so lese, komm ich mir als Kunde ganz schön verarscht vor. XP ohne DX10, Win7 ohne DX 11.2, aber DX12 auf älteren Karten. Mal davon abgesehen, dass dieses Potential schon lange da ist, nur einfach brach liegt...
 
Musste auf Linux wechseln, dann verarscht dich Microsoft auch nicht mehr. Da hat man als AMD-Kunde auch nicht dass Problem, dass DX 12 softwareseitig alle DX 11-Karten unterstützt und AMD die HD 5000er- und HD 6000er-Serie trotzdem nicht supportet. Wäre allerdings auch blöd, wenn die dann auf einmal in Mantle-Spielen schneller wären. Man könnte glauben AMD will Produkte verkaufen, im Gegensatz zu Microsoft, die nur fremde Menschen ärgern wollen...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh