Nvidia hat ein Treiber Overhead Problem, GeForce vs Radeon auf Low-End CPUs, niedriger Auflösung und CPU intensiven games

Ka, ob ich irgendwie auf dem Schlauch stehe, aber ich checks nicht so richtig. Die 3090 ist im CPU Limit nur bei DX12 langsamer als die 6900 und ist bei DX11 sowie Vulkan schneller. Demnach ist die 3090 bei 2 von 3 APIs überlegen und Nvidia soll jetzt angeblich Probleme mit einem, durch den Treiber erzeugten, Overhead haben
Was DX12 angeht? Ja. Ansonsten wäre der Abstand in allen APIs doch gleich, oder nicht? Mich wundert allerdings, das der Vulkan Stack schnell ist, während Nvidia unter DX12 zurückfällt. Da scheint irgendwas im Nvidias Treiber unter DX12 zu bremsen oder mehr Leistung zu benötigen als mit den anderen APIs.

Natürlich ist das im normalen Einsatzbereich der Gpus kein großes Problem (keine Sau kauft ne 3090 für 720p), aber zeigt auf das Nvidia dort noch Leistung holen kann. Insbesondere dann, wenn DX12 zum Einsatz kommt und ein extremes Cpu Limit anliegt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
update video

Resultat: ~20% mehr headroom mit radeon in dx12
 
Zuletzt bearbeitet:
Oje damit haben sich die Befürchtungen bestätigt, ein Wunder das noch so wenig user über solche Leistungsprobleme geklagt haben!?
 
@Paddy92

Ist Nvidia bei DX11 überlegen?

@Holzmann

Ich muss die 3090er noch schnell los werden. Zum Glück habe ich mir eine günstige 6900XT Nitro+ gesichert. Die Red Devil sende ich zurück. Weil die fiept mir ein wenig für über 1400 Euro zu viel. Die fiept zwar weniger als die Nvidia 3090er aber immer noch zu laut.

Ich find Nvidias Treiberprobleme noch dreister als die nur 3,5 GByte schnell angebunden Ram bei der GTX 970.

Hardwareunboxed soll lieber nach micro stutter und stuttering schauen. Das wäre noch interessanter. So siehst ja so aus als wenn nur alte low end und mid range Cpus betroffen seien.
 
Zuletzt bearbeitet:
Ich find Nvidias Treiberprobleme noch dreister als die nur 3,5 GByte schnell angebunden Ram bei der GTX 970.

Denke auch dort ist ein offizielles Statement von Nvidia dringend notwendig jetzt. :oops:
 
Das wird nicht passieren, so lange sich die Gpus so gut verkaufen. Marketing ist alles. DLSS und Raytracing ziehen den Hypetrain. Ich bin ja selbst darauf reingefallen. Also ich nehme mich davon nicht aus. Ist ein Denkzettel für mich selbst.

Ich frage mich warum diese und andere Probleme keinem Reviewer außer Hardwareunboxed und Igorslab aufgefallen sind? Lassen die nur Benchmarks laufen und testen nie Spiele (außerhalb von kurzen, vorgefertigten Sequenzen)?
 
Zuletzt bearbeitet:
Denke auch dort ist ein offizielles Statement von Nvidia dringend notwendig jetzt. :oops:

Schau an. Ein gruener Thread und der Missionar von der roten Pressestelle fordert Statements. Gibt´s schon Statements zu WHEA-Fehlern und USB-Disconnects von AMD? Wird es dafuer nicht auch langsam mal Zeit?

Ansonsten verstehe ich nicht so ganz, warum genau hier bei manchen der Puls hochschnellt. In solchen Aufloesungen und Qualitaetseinstellungen, fuer die die Amperes gemacht wurden - und 1080p medium gehoert wohl kaum dazu - performt das Gruenzeug genau so, wie es soll und selbst in solchen realitaetsfernen Settings ist es bis zur Unspielbarkeit noch ein gutes Stueck. Aber hey. It´s green, so let´s bash it!
 
Gibt´s schon Statements zu WHEA-Fehlern und USB-Disconnects von AMD? Wird es dafuer nicht auch langsam mal Zeit?
Amd hat sich doch dazu geäußert, betroffene cpus sollen eingeschickt werden und bzgl. USB sind entsprechende biose/Agesa raus, alles im grünen Bereich (kleiner Wortwitz) :d
 
@eXtremist

Hat sich Nvidia denn schon zu den Treiberproblemen mit den Rucklern in allenmöglichen Spielen geäußert? Die schon seit mindestens Turing bestehen?

Hinzu kommen Framedrops, DCP Latency, DLSS Flickering + Matsche und niedrige Fps wenn man nicht Ultra Hd + DX 12 verwendet. Dann noch die thermischen Probleme vom grottigen 8 nm Samsungprozess und den zusätzlichen Frametimespikes bei Overclocking von Ampere sowie überhitzter GDDR6X der throttelt (Lebenszeit?). Yeah, macht Spaß solche 3090 Grafikkarten für atm 2,5 K Euro zu kaufen. Habe ich übrigens auch. Die habe ich heute zurück gesendet.

Das nichts seitens Nvidia kommuniziert wird ist absolut peinlich für einen solchen Konzern.
Das Nvidia Forum wird von Nutzern mit diesen Problemen überschwemmt. Juckt Nvidia überhaupt nicht. Gibt immer noch genug die das Bugzeug kaufen und nichts von den Fehlern wissen.

Ich rühre Nvidia erst wieder an wenn diese Probleme verschwunden sind. Also wenn die Architektur mal ein grundsätzliches Update bekommt und nicht nur ein billig Abklatsch aus dem Computebereich ist. Die letzte Gamerarchitektur war Maxwell. Die lief noch gut.

Ach hier meine 3090 Strix die ich heute zurückgesendet habe:


Der ist so mutig und hat die behalten, obwohl er die Nvidia Treiber in Verdacht hat.
 
Zuletzt bearbeitet:
@Botli
Endlich mal einer der ausspricht was Phase ist.
 
@Botli
Endlich mal einer der ausspricht was Phase ist.
ist ja nicht so als hätte ich nicht schonmal darauf hingewiesen....
 
Das ist wirklich interessant. Gleiches Problem wie bei mir. Wie misst du die Framedrops unter 10 FPS?

Ich habe bei BF V @ DX 11 Framedrops von 110 auf 44 Fps. Daher auch diese nervigen Ruckler. Die 6900XT schafft wegen viel höhrer Gpu Last fast 200 Fps @ Uwqhd und ruckelt nicht.

Ich dachte früher immer nur Wqhd sei von der Ampereauslastungsproblematik betroffen. Ne, auch Uwqhd.
 
Msi afterburner braucht n ganz bissl einrichtung (rivertuner) aber danach ist es super dafür (1% low und 0.1% low fps)
 
Was DX12 angeht? Ja. Ansonsten wäre der Abstand in allen APIs doch gleich, oder nicht? Mich wundert allerdings, das der Vulkan Stack schnell ist, während Nvidia unter DX12 zurückfällt. Da scheint irgendwas im Nvidias Treiber unter DX12 zu bremsen oder mehr Leistung zu benötigen als mit den anderen APIs.
Wieso sollte der Abstand gleich sein?
Auf die unterschiedlichen APIs haben doch die Hersteller auch unterschiedliche Stärken und Schwächen? Mich wundert ehrlich gesagt bisschen was (wer war das eigentlich initial - Igor??) da für ein Problem draus gemacht wird - es ist doch seit Jahren so, dass ne NV GPU mehr CPU Leistung braucht als eine AMD GPU. Das war in aller Munde, als NV mit dem 337.50er Treiber ihren MT Aufsatz da in den Treiber gebaut haben um damit mehr DrawCalls raus zu pressen. Seinerzeit noch in DX11. Damit das geht, kostet das natürlich auch. Nämlich CPU Leistung. Gib einer NV GPU zu wenig CPU Power, vor allem in der CPU Breite, dann fangen erst die Frametimes an zu tanzen bis du eben gar Leistung verlierst.
Hier macht man doch nix anderes - man führt durch künstlich schmale CPUs ein Limit her und wundert sich dann, dass der AMD Hardware Ansatz mehr/besser skaliert als der Software Ansatz bei NV?? Kapier ich ehrlich gesagt nicht so ganz. Weil das ist doch nicht neu? NV GPUs haben doch seit Jahren schon ihre liebe Müh und Not bei zu schmalen CPUs gehabt. Einziges Manko dabei ist, die Masse der Tests erfolgte nur und ausschließlich mit NV GPUs. Sodass man das nie als "Schwäche" hat gesehen, weil man nicht wusste, wie es besser geht. Ich für meinen Teil sage bspw. seit Jahren auch, dass CPU Tests von Games mit beiden GPU Herstellern gemacht werden sollten, weil es eben unterschiedlich performt.

Natürlich ist das im normalen Einsatzbereich der Gpus kein großes Problem (keine Sau kauft ne 3090 für 720p), aber zeigt auf das Nvidia dort noch Leistung holen kann. Insbesondere dann, wenn DX12 zum Einsatz kommt und ein extremes Cpu Limit anliegt.
Das Thema ist halt einfach mal nicht neu - auch wenn es irgendwie als neu tituliert wird. Selbst Spiele von Assbach wie ein CS:Go mit der alten Engine. Oder sogar ein Gothic 3 und so Kamellen profitieren von CPU Breite, weil der Treiber in der Lage ist, die Berechnungen in gewissem Maße zu verteilen. Wie das bei AMD skaliert, kann ich nicht sagen, weil ich seit Jahren keine entsprechend schnelle HighEnd GPU von AMD mehr im aktiven Einsatz fürs Gaming hatte. Aber bei NV ist dem zumindest so. Das geht soweit wie du eben alles, was verteilbar ist in die Breite verteilt hast. Nur wenn du jetzt das Gegenteil machst, und die Leistung des Prozessors limitierst - kommt halt das Gegenteil bei rum.

Btw. quer Beet finden sich von damals auch 1:1 Vergleiche in der Mittelklasse von NV und AMD - bspw. in so populären Titeln wie einem Battlefield 1 oder 5.
Das da bspw. Die CPU Last ist zwar nicht sooo viel höher. Aber so die 5-10%, gerade beim 6600k hat es für die 1060 vs. die alte 480 schon in 2016 gehabt. Und da war seinerzeit das AMD Modell noch mit Handbremse unterwegs. Bekannterweise hat AMD die Rohleistung ja entgegen RDNA nicht wirklich gut auf die Straße gebracht.
 
War initial Hardwareunboxed... Theoretisch war AMD auch in DX11 mit weniger Overhead wenn devs optimiert haben(Nvidia Softwarescheduler hat automatisch auf mehr Thread verteilt, bei Amd mussten Devs allerdings Hand anlegen und Hardwarebasiert -> und wenn dies nicht geschah extrem singlecore abhängig)Nun Standardfeature und kein gamedev eingriff mehr nötig
 
@fdsonne

Die im Video gezeigte GTX 1060 hat wenigstens noch 99-100 % GPU Last. Meine RTX 3090 hat bei 3440 x 1440 mit einem 5900X (also keine langsame, günstige Cpu) 50 - 70 % Gpu Last und nur ca. die Hälfte der Fps einer RX6900XT.

Ich meine wäre auch kein Problem. Man kann ja argumentieren, neue Gpu und man spielt nur noch neue DX12 Titel. Alte Spiele braucht "niemand" mehr. Im Fall von Bf V @ DX12 wird das Ruckelproblem nur noch schlimmer. Wie man hört sind viele andere Games auch betroffen. Igorslab hat gezeigt, dass die Frametime Variance bei Nvidia weitaus schlechter ist als bei AMD RX6000. Diese führt leider neben den Framedrops zum Ruckeln.

Übertakten einer RTX 3080 z.B. soll laut Gamernexus keine gute Idee sein, weil dann die Frametimes zusätzlich spiken. Die sind aber so schon nicht besonders.

Im RX6800XT Test hat er sich so ein Beispiel bezüglicher schlechter Framtimes bei Nvidia RTX 3000 rausgepickt, sogar bei 4K, da sollte die Ampere doch zur Höchstform auflaufen:


ab Minute 13:50
 
Zuletzt bearbeitet:
Ist Nvidia bei DX11 überlegen?
Ja: https://www.hardwareluxx.de/communi...eidene-performance-im-dx11-cpu-limit.1089150/

Es lässt sich festhalten, dass Nvidia bei Vulkan und DX11 im CPU-Limit besser performt und nur bei DX12 etwas schlechter.

Endlich mal einer der ausspricht was Phase ist.
Ja man, immer schön drauf auf das giftige Grünzeug!

Im RX6800XT Test hat er sich so ein Beispiel bezüglicher schlechter Framtimes bei Nvidia RTX 3000 rausgepickt, sogar bei 4K, da sollte die Ampere doch zur Höchstform auflaufen:
Three Kindgoms wird von GN in einem anderen Test als Ausreißer bezeichnet. Nur in diesem speziellem Titel fallen die Amperes mit einer größeren Varianz bei den Frametimes auf. Andere Titel sind nicht auffällig geworden, denn sonst hätten die von GN wohl nicht betont, dass dies nur in diesem spezifischen Titel auftritt, oder nicht?

Ab 13:40
 
Die "Ausnahmen" bestehen schon seit Turing:


Damals dachte ich ja auch noch an ein Engineproblem.

Ich habe gerade Unigine Heaven getestet, weils im 2080 Ti Thread erwähnt wurde und selbst das hat Ruckler ab und an und drastische Frametimespikes.

60 Sekundenausschnitt einer Sequenz mit Rucklern:

 
In BF5 war ein voller standby-speicher die Ursache für die extremen Ausschläge, und DX12 ruckelt am Rundenstart generell.
 
Standbyspeicher also nun. Zum Rundenstart wäre schön und gut, auch das hatte ich bei einer RX6900XT nicht, aber es gibt auch so andauernd kleiner oder größere Ruckler. Warum passiert dass denn nicht bei einer RX6900XT? Meiner Meinung ist ein Hauptproblem die inkonsistente Auslastung der Nvidia Gpu je nach Anwendung, gepaart mit Fps Drops.

Der Kasus Knacktus wird hier zu finden sein.

pcgh.de=https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/Specials/RTX-3090-RTX-3080-RTX-3070-Launch-BFGPU-1357318/ schrieb:
Fakt ist: Nvidia meint tatsächlich FP32, ergo Floating-Point-Berechnungen mit hoher Genauigkeit, wie sie in Spielen gefordert werden. Die von den Tensor-Kernen bereitgestellte Rechenleistung bezieht sich auf Datenformate mit geringerer Präzision, etwa FP16 oder INT8. Man kann also trotz fehlender Informationen sicher sagen, dass ein Shader-Multiprozessor (SM) in Ampere den doppelten FP32-Durchsatz schafft, ohne die Tensorkerne einzuspannen. Doch wie macht Nvidia das? Dafür gibt es zwei Möglichkeiten. Die aus unserer Sicht naheliegendste ist, dass Nvidia den Turing-Gedanken weiterspinnt. Letzterer führte eine Neuerung ein: Jede FP32-ALU, von denen 64 in jedem SM stecken, kann parallel mit einer INT32-Einheit daneben arbeiten. Letztere gab es auch in Pascal, allerdings ohne die Fertigkeit der "concurrent execution", besagter Parallelarbeit - es gab nur entweder (FP), oder (INT). Also legte man entsprechende Datenpfade, um zumindest einen Fortschritt zu erhalten. Da Turing aufgrund der beinahe gleich gebliebenen Fertigung ein sehr großer Chip geworden ist, war es nicht möglich, die Anzahl der wichtigen FP32-ALUs zu erhöhen. Dies geschah nun, mit Samsungs 8LPP-Fertigung, welche signifikant mehr Tansistoren pro Fläche erlaubt als das 12FFN-Verfahren von TSMC. Faktisch vergleichen wir hier eine optimierte 10-nm-Fertigung mit einer ebenso ausgereizten 16-nm-Fertigung.

Lange Rede, kurzer Sinn: Mit Ampere denkt Nvidia zu Ende, was sie mit Turing angefangen haben. Jeder Shader-Multiprozessor enthält nicht mehr nur 64 FP32-ALUs und 64 INT32-ALUs, sondern 2× 64 FP32-ALUs. Damit erreichen GA102 und GA104 gigantische Durchsatzraten bei FP32-Berechnungen, wie sie Spiele mehrheitlich fordern. Allerdings wurden die übrigen Teile des Chips nicht verdoppelt, sodass man nicht von Faktor 2 bei den Gaming-Fps ausgehen kann. Wäre dies der Fall, hätte Nvidia damit geworben. Die Granularität des Shader-Multiprozessors ist folglich wieder rückläufig, nachdem es zuletzt Bestrebungen gab, weniger FP32-Einheiten pro SM zu installieren. Außerdem bleibt die Frage, wie gut Ampere seine ALUs mit Arbeit versorgen kann; je mehr Rechenwerke, desto schwieriger das Scheduling. Selbstverständlich werden wir uns in Kürze ansehen, wie es um die Effizienz der Rechenwerke von Ampere steht.

Ein schönes Beispiel bezüglich Auslastung und Frametimes:

 
Zuletzt bearbeitet:
Ich habe gerade Unigine Heaven getestet, weils im 2080 Ti Thread erwähnt wurde und selbst das hat Ruckler ab und an und drastische Frametimespikes.
Diese Spikes sind ganz normal bei Unigine Heaven und treten unabhängig von der Hardware an den gleichen Stellen auf.

Ich habe so das Gefühl, dass du da zwanghaft ein Problem bei Nvidia sehen willst und einen Confirmationen Bias pflegst.
 
Hab jetzt die letzten Tage auch mal ein bisschen getestet und obwohl ich sehr seltene Spikes (auf 30ms) in BF5 hatte, noch ein wenig experimentiert. DRX zu deaktivieren hat bei mir zu 50% geringeren Frametimes und keinen Spikes geführt. Im Falle von BF5 könnte es vielleicht auch einfach ein Problem mit DRX sein.

10700KF und 3080
 
@Paddy92

Bei Leuten die den Vergleich nicht haben ist so vieles "normal". Wenn ich nur Leute frage die Jahre lang Nvidia hatten und meinen daran liegen Fehler nicht ist alles super geil. Kann man sich gleich sparen.

@disturbed rabbit

Ich habe kein DXR verwendet. Spikes gehen bei meiner RTX 3090 30, 40, 50 ms hoch.

Wenn ich mir die FPS @ DX11 anschaue, dann halte ich die Spikes angesichts der Fps für normal:

P95 113,8 FPS
AVG 93 FPS
P5 73,6 FPS
P1 60,2 FPS
P0.2 49 FPS
P.01 44,9 FPS

Grund ist die geringe Gpu Last. Bei DX12 ist die Gpu Last höher, aber stark schwankend. Einigermaßen konstante 99 % sind bei Nvidia nicht drin.
 
Zuletzt bearbeitet:
Bei Leuten die den Vergleich nicht haben ist so vieles "normal". Wenn ich nur Leute frage die Jahre lang Nvidia hatten und meinen daran liegen Fehler nicht ist alles super geil. Kann man sich gleich sparen.
Ach so und wie erklärst du dir dann, dass Testern wie GN da keine großen Auffälligkeiten wahrnehmen, obwohl diese regelmäßig Hardware von unterschiedlichen Herstellern und verschiedensten Konstellationen testen? Soll ich dir jetzt hier auch gezielt Sachen verlinken, wo Leute Probleme mit den Frametimes bei Radeons haben? Ist dir schon einmal in den Sinn gekommen, dass der Fehler auch bei dir liegen könnte?

Du hast da deine vorgefertigte Meinung. Ist ja auch kein Problem. Nur versuche nicht diesen anderen aufzuschwatzen. Deinen Beiträgen hier entnimmt man hier, dass du eine Abneigung gegenüber Nvidia hast.
 
Die testen meist nur die neusten Games ;). Und außerdem gibt es immer wieder andere Treiber + nur sehr kurze Benchmarksequenzen = wenig Aussagekraft. Igorslab zeigt auch bei Nvidia größere Frametimeabweichungen.

Weil ich so eine vorgefertige Meinung habe, habe ich mir fast alle Nvidia 3090 custom + FE gekauft. Ich habe eigentlich eher eine Abneigung AMD gegenüber gehabt, weil die eigentlich nicht mit Nvidia mithalten dürften. Theoretisch.

Eine RX6900XT war also nur ein Notnagel mangels ausreichender Verfügbarkeit zwischen den unterschiedlichen 3090ern.
 
Zuletzt bearbeitet:
Die testen meist nur die neusten Games ;). Und außerdem gibt es immer wieder andere Treiber + nur sehr kurze Benchmarksequenzen = wenig Aussagekraft.
Ach so und die kurzen Benchmarksequenzen von Unigine Heaven sowie Three Kingdoms sind aber wiederum aussagekräftig, weil diese deine vorgefertigte These belegen?

Igorslab zeigt auch bei Nvidia größere Frametimeabweichungen.
Wie groß sind die Abweichungen denn? Hat er in seinem Test nur herausgefunden, dass die Abweichungen größer sind oder ist da explizit die Rede von Stuttering?
Denn nur weil die Abweichung größer sind, heißt das ja noch nicht, dass dies auch spürbar ist oder gar Stuttering ist.

Wäre auch ganz nice, wenn du den Test mal verlinkst.
 
@Paddy92

Aussagekräftig sind längere Gamesessions. Bei der Testsequenz von Gamernexus sind die stark schwankenden Frametimes der Nvidia RTX 3080 jedoch schon sehr auffällig. Bei hohen FPS wird man auch kleinere Abweichungen sehr stark spüren.

War der Test der RX6900XT auf der Webseite von Igorslab. Kannst du selber raussuchen.
 
Bei der Testsequenz von Gamernexus sind die stark schwankenden Frametimes der Nvidia RTX 3080 jedoch schon sehr auffällig. Bei hohen FPS wird man auch kleinere Abweichungen sehr stark spüren.
Ja, aber GN hat auch gesagt, dass dies ein Ausreißer ist und nur in diesem spezifischen Titel aufgefallen ist. Laut GN ist nicht einmal dieser krasse Ausreißer Experience ruining, während du versuchst es hier hiinzudrehen, als würde es da ach so krasse Probleme mit Rucklern geben..

War der Test der RX6900XT auf der Webseite von Igorslab. Kannst du selber raussuchen.
Ergo gibt es da nicht einmal ein Problem, welches man explizit erwähnt und in anderen Tests weiter untersuchen müsste, sondern versuchst du dir da was aus den Werten zusammen zu träumen, was deine These unterstützen könnte.. Ich habe mir den Test der 6900xt mal angesehen und da gab es jetzt nicht irgendwelche krassen Auffälligkeiten...
 
Kannst du interpretieren wie du willst. Ich bemerke schon geringfügige Abweichung bei der Frametime. Um Mikroruckler zu bemerken reichen schon Schwankungen im 10 ms Bereich. Besonders bei Shootern mit hohen Framerates nerven solche Ruckler oder Mikroruckler extrem.

Ich habe den Vergleich selbst gehabt und andere haben die Probleme auch. Verbaue erstmal beide Grafikkarten und teste selber. GN und andere Reviewer haben nur kurze Testsequenzen mit anderen Treibern getestet. Das kannst du gar nicht vergleichen.

Lies dir mal die Erfahrungen durch:


Übrigens kannst du kaufen was du willst. Wenn du mit einer Nvidia glücklich wirst, dann kaufe sie dir. Ich habe lediglich meine Erfahrungen (und die anderer) mit der Nvidia RTX 3090 dargelegt.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh