Nvidia hat ein Treiber Overhead Problem, GeForce vs Radeon auf Low-End CPUs, niedriger Auflösung und CPU intensiven games

Thread Starter
Mitglied seit
04.03.2021
Beiträge
49



Igor:


Hat jemand damit schon Erfahrungen gemacht?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Anscheinend nicht nur in dx12, sondern auch Dx11:
Man beachte die Core i7-3770K CPU Nutzung und fps

 
Fühl mich gerade wie in der Twilight Zone.

 
Ganze 6 Jahre später und das Blatt hat sich gewendet? :unsure:
 
Hab mir das Video jetzt mal angeschaut, scheinbar hat es amd geschafft besonders in der Raster Leistung deutliche Vorteile gegenüber dem Treiber von NVIDIA zu erzielen.
Das sollte also weiter untersucht werden! ...
 
Unter dem Video wurde der Kommentar bearbeitet, das er in ca 2 Wochen einen Test mit auch DX11 veröffentlicht, es aber so aussieht als wenn bei DX11 amd mehr overhead hat bei den meisten games, bei dx12 und vulkan nviadia mehr overhead
 
Wieder ein Clickbait-Video von wo die Welt noch bunt ist. Erkenntnisgewinn: bei Nutzung einer 2 Kern-CPU liegt eine GeForce 3090 sieben Prozent hinter einer RX 6900XT. Kann bitte irgendwer die Druckerpressen anhalten? Das muss sofort aufs Titelblatt!

Fun Frage - wer, ausser Igor, kommt auf die doch etwas verschroben anmutende Idee eine Grafikkarte aus dem vierstelligen Preissegment mit einem Zweikerner zu paaren? Die Antwort duerfte in der Bierflasche zu finden sein, die da ja passenderweise auch bebildert wird.
 
vergleichen kann man das eine mit dem anderen aber nicht wirklich.

die 6900xt wird genutzt um ein GPU limit auszuschließen. deswegen kommt bei einem normalen cpu test ja auch die stärkste gpu rein und low res.

natürlich kombiniert niemand eine 1500 euro gpu mit einem 2 oder 4 kerner.

wie ist denn das ergbnis bei normalen cpus also 4c/8t oder 6/12 was aktuell ja standard ist.
 
Das mit DX11 ist doch nichts neues. Nvidia hat damals das Singlethreaded DX11 mittels Treiber aufgesplittet, was mehr CPU Last bedeutet. AMD hat das Problem nie gelöst. Dies führte dazu, dass Nvidia in DX11 Titel schneller war (schnelle CPU vorausgesetzt). Wenn die CPU limitierte und zu 100% ausgelastet war bzw. zu wenig Kerne bot, hatte AMD die Nase vorn.

Warum das in DX12 jetzt so ist, weiß ich allerdings nicht.
 
Ja die ganzen Benchmarks bringen einem erstmal nicht weiter, viel wichtiger ist in dem Punkt, wie auch die Treibereinstellungen sind. Igor jagt nur nach Klickbaits ich hab den rausgeworfen aus der Watchlist, nach dem er meinen Link mehrfach rausgelöscht hatte als auf Youtube einer in der Kommentarsektion gefragt hatte ob auch ältere Prozessoren mit SAM unterstütz würden und ich den Link zum HWLUXX NEWS Beitrag gepostet habe.
Kann er gerne mit mit seinen Putin freunden spielen, die dürfen nämlich auch freie Meinung und Journalismus unterdrücken. Nach dem der8auer Igors Kondensator Propaganda entzaubert hatte, naja einzig seine Netzteilbenchmarks mit den unterschiedlichen Grafikkarten Anforderungen waren sehr sinnvoll. Alles andere ist nur spekulative Propaganda ohne Hardfacts.

Traue nie einer Statistik die du nicht selbst gefälscht hast, ist halt traurig. Wenn ich eh nur 2 Grafikkarten zum vergleichen brauche, kann ich doch gleich alle Varianten ausprobieren (DX11, D12, Vulcan, OPENGL).

Auch ne Treiberrevision wäre interessant, mit oder ohne BAR usw.
 
Wieder ein Clickbait-Video von wo die Welt noch bunt ist. Erkenntnisgewinn: bei Nutzung einer 2 Kern-CPU liegt eine GeForce 3090 sieben Prozent hinter einer RX 6900XT. Kann bitte irgendwer die Druckerpressen anhalten? Das muss sofort aufs Titelblatt!


der war gut :haha:
Beitrag automatisch zusammengeführt:

natürlich kombiniert niemand eine 1500 euro gpu mit einem 2 oder 4 kerner.
genau so ist es, aber scheinbar meinen manche noch immer das macht Sinn.
Beitrag automatisch zusammengeführt:

naja. Klar ist das Realitätsfremd. Genauso wie tests aktueller CPU in Gamingbenchmarks mit 720p. Ist aber manchmal notwendig, um gewisse Dinge aussagekräftig zu beleuchten.

was soll daran notwendig sein, Du schlieset auch keinen 220V Verbraucher an eine 9V Batterie an, es gibt Dinge dich machen einfach Technisch keinen Sinn
Und dazu gehört eine uralte 2 oder 4 Kern CPU mit einer Grafikkarte dieser Leistungsklasse zu betreiben.
 
Zuletzt bearbeitet:
was soll daran notwendig sein, Du schlieset auch keinen 220V Verbraucher an eine 9V Batterie an, es gibt Dinge dich machen einfach Technisch keinen Sinn
Und dazu gehört eine uralte 2 oder 4 Kern CPU mit einer Grafikkarte dieser Leistungsklasse zu betreiben.

Wenn du audf 4 k testes haben alle Prozessoren fast dieselbe fps, je niedriger du gehst desto größer sind die Differenzen, deswegen wird auf niedrigen Auflösungen (meist 1080p) getestet
 
Naja nach einer aktuellen Umfrage liegt der Marktanteil der 2 Kern CPUs noch bei über 18%!

Wieder ein Clickbait-Video von wo die Welt noch bunt ist. Erkenntnisgewinn: bei Nutzung einer 2 Kern-CPU liegt eine GeForce 3090 sieben Prozent hinter einer RX 6900XT. Kann bitte irgendwer die Druckerpressen anhalten? Das muss sofort aufs Titelblatt!
 
Wenn du audf 4 k testes haben alle Prozessoren fast dieselbe fps, je niedriger du gehst desto größer sind die Differenzen, deswegen wird auf niedrigen Auflösungen (meist 1080p) getestet
nicht die cpus haben die selbe fps sondern das system.
 
Naja wenn man eine betagt(ere) CPU hat ist die Aussage besser mit AMD upgraden schon wichtig
So ein Bullshit, es ist abhängig von den gefahrenen Parametern:
1615812545640.png

1615812760127.png

Auto ist nicht immer gut. Es ist ein Kompromiss ohne sich erstmal Gedanken machen zu müssen.

Sind schon mal zwei Einstellungen die Einfluss darauf haben wie die Karte mit der CPU zusammenarbeitet.
In der Regel schadet es nicht auch die Geforce Experience Profile zu testen, hier wurde von Nvida im "Labor" schon das optimale ausgetestet.
Nur weil AMD noch keine optimierten Profile anbietet und die allgemeinen Einstellungen besser laufen in manchen Games macht es nicht "Richtiger".

Wurde an den neuen AMD Karten Overdrive genutzt oder nicht?
Was wurde an den Treibern forciert?
1615813248328.png

Haben sich die Standardeinstellungen verändert? Ist Default "Leistung" als Preset bevorzugt usw.
Ich hab keine ältere Nvidia Karte aber damals schon waren die Einstellungen mit Prerendered Frames auf 3 schon stark auf Qualität gesetzt. Bei einem Kumpel hat die Einstellung die FPS fast verdoppelt nach man die auf 1 oder 0 gestellt hat. (Gaming Notebook).

Es gibt so viele Faktoren ich traue den Benchmarks nicht übern weg wenn die keine Specs hinzufügen um die Resultate imitieren zu können. Ich weiß man sollte damit eigentlich keine Wissenschaft betreiben.. muss man aber fast.
 
Das Problem tritt aber nicht nur bei 2 Kernern auf, sondern generell im CPU Limit. Auch ein 8 Kerner kann limitieren, also ist das 2-4 Kerner Argument einfach unsinn.
Von HWU wurden z.B. 6-Kerner getestet und bei so einer CPU ist eine 3080 oder 3090 nicht so abwegig.
 
So ein Bullshit, es ist abhängig von den gefahrenen Parametern:
Anhang anzeigen 603661
Anhang anzeigen 603662
Auto ist nicht immer gut. Es ist ein Kompromiss ohne sich erstmal Gedanken machen zu müssen.

Sind schon mal zwei Einstellungen die Einfluss darauf haben wie die Karte mit der CPU zusammenarbeitet.
In der Regel schadet es nicht auch die Geforce Experience Profile zu testen, hier wurde von Nvida im "Labor" schon das optimale ausgetestet.
Nur weil AMD noch keine optimierten Profile anbietet und die allgemeinen Einstellungen besser laufen in manchen Games macht es nicht "Richtiger".

Wurde an den neuen AMD Karten Overdrive genutzt oder nicht?
Was wurde an den Treibern forciert?
Anhang anzeigen 603670
Haben sich die Standardeinstellungen verändert? Ist Default "Leistung" als Preset bevorzugt usw.
Ich hab keine ältere Nvidia Karte aber damals schon waren die Einstellungen mit Prerendered Frames auf 3 schon stark auf Qualität gesetzt. Bei einem Kumpel hat die Einstellung die FPS fast verdoppelt nach man die auf 1 oder 0 gestellt hat. (Gaming Notebook).

Es gibt so viele Faktoren ich traue den Benchmarks nicht übern weg wenn die keine Specs hinzufügen um die Resultate imitieren zu können. Ich weiß man sollte damit eigentlich keine Wissenschaft betreiben.. muss man aber fast.
Stimmt sollte mit vielen Einstellungen getestet werden!
 
Ja die ganzen Benchmarks bringen einem erstmal nicht weiter, viel wichtiger ist in dem Punkt, wie auch die Treibereinstellungen sind. Igor jagt nur nach Klickbaits ich hab den rausgeworfen aus der Watchlist, nach dem er meinen Link mehrfach rausgelöscht hatte als auf Youtube einer in der Kommentarsektion gefragt hatte ob auch ältere Prozessoren mit SAM unterstütz würden und ich den Link zum HWLUXX NEWS Beitrag gepostet habe.
Ich lösche aktiv keine News-Links, da habe ich echt was Besseres zu tun. Falls es Dich interessiert: das macht das YT selbst und schiebt diese Posts direkt ins Aquarium zur Überprüfung und löscht die dann später. Nimm in Zukunft einfach eine Kurz-URL, dann klappts auch mit den Links. Das ist aber wirklich bekannt und ich habe echt keine Zeit, ständig die gefilterten Links zu durchforsten. Für Anfragen gibt es ein Forum, das reicht mir wirklich, denn YT ist nunmal weder Forum, noch Chat. :d

Und ansonsten:
Roman hat lustigerweise mit seiner Lötarbeit bewiesen, dass es bei den Caps durchaus was bringt und wer sich nicht meinen Artikel, sondern nur die sinnlos zusammengekürzten Extrakte aus den anderen Medien dazu einwirft, ist auch nicht mehr zu retten. Meine Erkenntnisse stützen sich auf die Zusammenarbeit mit dem R&D von Galax und dem Feedback der Entwickler bei PC Partner (Zotac, Manli, inno3D). Das sind m.E, keine Amateure.

Das mit den 2 Kernen (4 Threads!) ist auch so eine Sache die sehr schön zeigt, dass Du meinen Artikel nicht mal gelesen hast. Denn da gibts einen langen Absatz mit der Begründung, warum die scheinbar so sinnlose Konstellation überhaupt drin ist. :d
 
Zuletzt bearbeitet:
Ich lösche aktiv keine News-Links, da habe ich echt was Besseres zu tun. Falls es Dich interessiert: das macht das YT selbst und schiebt diese Posts direkt ins Aquarium zur Überprüfung und löscht die dann später. Nimm in Zukunft einfach eine Kurz-URL, dann klappts auch mit den Links. Das ist aber wirklich bekannt und ich habe echt keine Zeit, ständig die gefilterten Links zu durchforsten. Für Anfragen gibt es ein Forum, das reicht mir wirklich, denn YT ist nunmal weder Forum, noch Chat. :d
Okay dann entschuldige ich mich dafür sehr🙇‍♂️, war ganz merkwürdig vor allem kein Hinweis warum der Link verschwunden war. Ging ja nur um ne banale Anfrage ob ältere Prozessoren auch mit SAM laufen und die laufen auch auf manchen Boards. Natürlich nicht offiziell.
Und ansonsten:
Roman hat lustigerweise mit seiner Lötarbeit bewiesen, dass es bei den Caps durchaus was bringt und wer sich nicht meinen Artikel, sondern nur die sinnlos zusammengekürzten Extrakte aus den anderen Medien dazu einwirft, ist auch nicht mehr zu retten. Meine Erkenntnisse stützen sich auf die Zusammenarbeit mit dem R&D von Galax und dem Feedback der Entwickler bei PC Partner (Zotac, Manli, inno3D). Das sind m.E, keine Amateure.
Ja er hat damit bewiesen das es in der Praxis im normal Betrieb keinen Unterschied macht. Als ich meine Karte ende November gekauft habe konnte ich nichts davon merken (Gigabyte Gaming OC) das es Abstürze gibt und da in der Regel eher jeder UV betreibt anstelle von OC ist das minimal was hinten rauskommt. Weil in den Communitys aufgrund von einigen reißerischen Videos ein wenig "Panik" vertrieben wurde.
Warum kommt den "Feedback der Entwickler bei PC Partner (Zotac, Manli, inno3D)" nicht öffentlich mit technischem "Teardown".
Das mit den 2 Kernen (4 Threads!) ist auch so eine Sache die sehr schön zeigt, dass Du meinen Artikel nicht mal gelesen hast. Denn da gibts einen langen Absatz mit der Begründung, warum die scheinbar so sinnlose Konstellation überhaupt drin ist
Das gilt wohl eher allgemein, wobei so ein Test nur sinnvoll wäre mit Spielen die tatsächlich nur Singlecore können. Horizon Zero Dawn ist genauso ein Cherrypick für AMD wie Control für Nvidia.
Rate mal für welche Architektur Zero Dawn ursprünglich optimiert wurde(AMD+AMD😅)?
Ist zufällig SAM an gewesen? Wären bei 2-3 Stichproben Tests mit einer Intel Plattform die Resultate reproduzierbar? Wie waren die Treiberkonfiguriert? Nvidia unterscheidet noch zwischen maximalen und normalen Leistungszustand.
1615819986834.png

CPU+RAM, bin ich mitgekommen nur bei den Treibern steht ja nur aktuelle oder Pressetreiber. Das ist leider sehr nichts aussagend.

Nachtrag: Du hast übrigens meinen vollen Respekt für den Aufwand mit dem Benchen!
Nachtrag2: Viel wichtiger und entscheidender ist leider aktuell eher die Frage was krieg ich zu bezahlbaren Preisen 😅
 
Zuletzt bearbeitet:
Finde das Video (HWU) und den Artikel (Igor) Artikel von Igor interessant.

Steve von HWU hat Systemleistung eines Durchschnittsusers beleuchtet, der einen älteren Intel oder AMD Unterbau hat und seine Grafikkarte aufrüsten müsste. Siehe das da, es lohnt sich nicht auf eine NVIDIA-Karte aufzurüsten, ohne die Basis auf die schnellste Plattform zu wechseln. Wer auf z.B. auf GCN, RDNA1 sitzt wird mit einer RTX3070 bei gleicher Auflösung (1080p, 1440p) keinen Blumentopf gewinnen. Sofern dies alles stimming ist.

Leute die auf Durchschnittshardware unterwegs sind, sollten beim Aufrüsten derzeit einen Bogen um Ampere machen, solange der Overhead nicht behoben ist (Software) oder jetzige Architektur durch eine Neue ersetzt wird (Hardware). Entweder sie setzen auf RDN2 falls verfügbar oder warten ab.
 
Zuletzt bearbeitet:
Warum kommt den "Feedback der Entwickler bei PC Partner (Zotac, Manli, inno3D)" nicht öffentlich mit technischem "Teardown".
NVIDIAs rules. Denke mal logisch... Es war schon ein Spagat, das überhaupt zu bringen und frage bitte nicht, wie NV reagiert hat. Aber vor sowas habe ich null Angst. Wenn man etwas belegen kann, dann sind die durchaus ansprechbar. So wie beim Bending auch. Die Ursache dafür ist simpel und stand sogar mal in einer News von mir. Nur lesen die meisten nie zwischen den Zeilen, was eher traurig ist, aber den Zeitgeist gut abbildet.

Ich habe die Schaltpläne einiger Karten im Schreibtisch (woher wohl kommt auch die BoM die ich als Ausschnitt mit drin hatte?) und es ist recht simpel, sowohl die Spannungswandler, als auch die Stütze unterhalb des BGA zu analysieren. Zotac hatte früher mal so einen tollen Boost-Cap auf der Rückseite des PCB. Warum niemand mal die Alu-Kappe abgemacht hat... Stabilisierung mit MLCC zwischen den VRM und der GPU. Das war vor 5 Jahren, ist also nicht neu. Und AMD? Nimmt seit jahren nur noch MLCC und stützt die Tracks sogar noch zwischendurch ab. Sicher nicht aus Langeweile :)

Getestet wurde generell mit SAM, auch bei NVIDIA. Wobei das für den Test eher irrelevant ist, denn Async Compute profitiert kaum oder gar nicht von SAM. NVIDIA und Intel, sowie AMD auf allen älteren Plattformen realisieren rBAR ausschließlich in Software, nur AMD kann das auch in Hardware.

Mein Test basiert übrigens initial nicht auf dem Video von HWU, sondern auf einem eigenen Latenzartikel, der bald kommt. Und genau da sind ja die leute mit ihren 240-Hz-Monitoren gefragt, die sich eine 3080 kaufen, um in Full-HD mit voller Drehzahl orgeln zu können. Trugschluss erster Güte :d

Edit:
Im Übrigen habe ich eigentlich nur mal austesten wollen, mit was ich den 11900K beim 720p-Test beglücke. Sicherlich nicht mit Ampere, sondern mit der schnellsten 6900XT, die ich hier habe. Vielleicht noch mit OC und Chiller, die rennt wie ein Viech :d
 
Zuletzt bearbeitet:
:censored:
Ja wohl wahr, ich hoffe das die Zeiten mal wieder besser werden. Leider kommt Intel nicht aus ihrem Tief. Die hätten jetzt soviel Grafikkarten verkaufen können und sich erstmals so gut wie nie mit dedizierten Karten auf den Markt etablieren können weil die anderen nicht liefern können.
 
pcgh hat mal nachgemessen, recht interessant:

In Grunde werden die Ergebnisse von Igor untermauert, in wie weit das letztlich relevant ist, muss jeder selber entscheiden, den die wenigsten werden eine 3090 mit einer 2 oder 4 Kern CPU koppeln.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh