Im wahrsten Sinne des Wortes: Beta von Amazons New World grillt NVIDIA-Grafikkarten

meine Frage bzgl. "vsync on" zielte in die Richtung, ob oldsqlBeat darüber ein FPS Limit aktiviert hat.
@oldsqlBeat Vssync hilft auch in 2021 Strom & Abwärme zu sparen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
War klar, dass hier die Schlauschwätzer mit UV daher kommen :geek:

Karten fallen im Werkszustand beim Spielen des Games bzw. im Menü aus und sind dann dauerhaft kaputt. Das ist kein Problem der Anwender und keins vom Game, sondern es liegt ausschließlich an der Karte, die einfach Garbo ist.

Natürlich schützt UV vor sowas, wenn ich im Menü statt 1,05v nur 800mv anliegen habe, trotzdem muss ein Produkt so ausgeliefert werden, dass es nicht bei regulärer Nutzung kaputt geht. Mein CPU darf auch nicht die Grätsche beim Zocken machen, nur weil ich den 4Ghz CPU nicht auf 3,8Ghz untertaktet habe. Die 3090er laufen eh schon an der Kotzgrenze und EVGA hats einfach verkackt und auch mit dem PowerLimit übertrieben, gepaart mit einem fehlerhaften Custom Design - ist ja nicht das erste mal. Schon die 1080 FTW hatte das gleiche Rezept, fehlerhafte VRM Kühlung gepaart mit 40% höherem Power Limit.

 
Mal bitte ohne UV gedöns :d
Behaupte mal das doch viele die sich auskennen UV nutzen. Wenn die Karte unter Volllast mal 50-70W weniger saugt, bei gleicher Performance ist doch eher erfreulich. Karte wird weniger warm, Lüfter bleiben länger still und ein Haufen Bauteile werden geschont ;)
 
Im Treiber Gsync an und Ingame VSync aus, sonst steuert das Game (manche)falsch.
Edit: wenn Vsync an, wird immer dann geregelt wenn man ausserhalb Gsync Range liegt. Wobei es schon zu Probleme kam wenn vsync an war und ich gsync nutzen wollte.

es hat aber nicht jeder einen Gsync fähigen Monitor, daher ist das immer noch die Wahl für viele Anwender die Probleme mit Tearing haben.
 
Naja einige sollen auch am TV per HDMI zocken ... und nicht jeder ist FreeSync fähig, also Konsolen Modus ist besser als gar kein Modus.

Aber es ist sinvoll Max FPS im Treiber an der Monitor Rate anzupassen.
 
es hat aber nicht jeder einen Gsync fähigen Monitor, daher ist das immer noch die Wahl für viele Anwender die Probleme mit Tearing haben.
Ja, war aber nicht das Thema, sondern das man wohl Gsync immer mit Vsync nutzt.
Darauf bezog ich mich.

"Also zumindest wenn man VRR (G-Sync/FreeSync) nutzt, dann hat man V-Sync eigentlich immer an. "
 
Behaupte mal das doch viele die sich auskennen UV nutzen. Wenn die Karte unter Volllast mal 50-70W weniger saugt, bei gleicher Performance ist doch eher erfreulich. Karte wird weniger warm, Lüfter bleiben länger still und ein Haufen Bauteile werden geschont ;)
Und wenn es 100% der User wären, müsste eine GPU im Werkszustand trotzdem überleben, wenn man ein Spiel startet. ;-)
 
War klar, dass hier die Schlauschwätzer mit UV daher kommen :geek:

Karten fallen im Werkszustand beim Spielen des Games bzw. im Menü aus und sind dann dauerhaft kaputt. Das ist kein Problem der Anwender und keins vom Game, sondern es liegt ausschließlich an der Karte, die einfach Garbo ist.

Natürlich schützt UV vor sowas, wenn ich im Menü statt 1,05v nur 800mv anliegen habe, trotzdem muss ein Produkt so ausgeliefert werden, dass es nicht bei regulärer Nutzung kaputt geht. Mein CPU darf auch nicht die Grätsche beim Zocken machen, nur weil ich den 4Ghz CPU nicht auf 3,8Ghz untertaktet habe. Die 3090er laufen eh schon an der Kotzgrenze und EVGA hats einfach verkackt und auch mit dem PowerLimit übertrieben,
Naja, das würde aber bedeuten dass bei jeglichen custom OC Versuchen dieses Problem schnell auftreten müsste. Schliesslich untervoltet ja nicht jeder. In der Richtung hat man jedoch noch keine Auffälligkeiten festgestellt.

Denke das Problem ist nicht so trivial als dass die GPU einfach besonders empfindlich wäre.
Wie schon einige erwähnt haben, gibt es ein Reihe von Games wo die FPS Rate im Menu ungedeckelt ist.

Wenn ich raten darf, würde ich sagen es ist ist doch etwas ungewöhnliches was dieses Game macht. Irgendwas in einem Grafik- oder Compute-shader (damit führt man quasi Maschineninstruktionen extrem hardwarenah auf der GPU aus) was eine Komponente unglücklicherweise überlastet...
Natürlich ist da doch eher der Grakahersteller und nicht das Game selbst für verantwortlich.
 
Wir haben von EVGA die Information bekommen, dass man sich vermutlich heute Abend genauer zum Thema äußern wird. Dann wissen wir eventuell und was hier genau schief gelaufen ist.
 
Wir haben von EVGA die Information bekommen, dass man sich vermutlich heute Abend genauer zum Thema äußern wird. Dann wissen wir eventuell und was hier genau schief gelaufen ist.
Ich erwarte da irgendwie was komplett Komisches.
Tausende FPS hat man an vielen Stellen. So simpel ist es also sicher nicht.
An UV / OC wird es auch nicht liegen, weil das sonst aufgefallen wäre bisher (und gerade bei Clocks und Strom ja die internen Sicherheiten greifen).

Evtl. tatsächlich genau so ein besonderer Bereich, der Schwingungen erzeugt, die Problematisch sind und eine Sicherung killt.
Das Glasbeispiel fand ich da gar nicht so dumm. Da kann es auch sein, dass Glas anscheinend willkürlich berstet, wenn genau die richtige Frequenz erwischt wird.
Dann sind evtl. tausende FPS kein Problem, aber genau 1733 FPS schon. Und eine 3090 packt genau diesen Bereich in genau diesem Spiel,... andere spiele generieren deutlich mehr, oder deutlich weniger im Menu.

Das würde aber natürlich bedeuten, dass es ein Zufall ist, dass es hier aufgefallen ist und andere Spiele das gleiche Verhalten bei 3080ern auslösen könnten, wenn die dann diese fiktiven 1733fps erreichen in dem Spiel dann.

Bin gespannt!
 
Wie sieht es mit der VRAM (Speicher / Kontroller) Auslastung bei dem Game? Ohne OC läuft der RAM schon sehr "heiß" Re-size BAR?
 
Sind GPUs mit Wakü auch betroffen? Weil irgendwie liest man nur von denen mit Lüfter, die kurz Hochdrehen und dann Blackscreen haben.
 
Sind GPUs mit Wakü auch betroffen? Weil irgendwie liest man nur von denen mit Lüfter, die kurz Hochdrehen und dann Blackscreen haben.
Ich würde es als EXTREM unwahrscheinlich einstufen, dass es hier um ein Hitzeproblem geht.
Das Spiel erzeugt auch nicht mehr Hitze als andere und sicher nicht annähernd so viel wie Stresstests.

Wäre das das Problem, wären die 3090er schon lange vorher abgefackelt und vermutlich nicht mal ausgeliefert worden. Jede GPU geht ja durch nen Belastungstest vor der Auslieferung normalerweise. So extrem aufwendig ist das Menu von New World nun auch nicht. ;-)
 
@Don
Von evga schon was gehört?
 
jay meint es beträfe wohl mehr


1626977351886.png
 
Dass sich Karten bei vierstelligen fps auch notabschalten können, ist natürlich möglich. Aber das ist ja nicht das grundlegende Problem hier, sondern das reihenweise Karten "sterben" und das (nahezu) ausschließlich EVGA und FTW3 sind.

Gerade jemand wie Jayz mit seiner Reichweite sollte da unterscheiden zwischen Karten, die wirklich auch einen physikalischen Schaden erlitten haben (wie potentiell die Geschichte mit dem Fan Controller der FTW3), oder ob diese aufgrund sehr hoher fps einfach nur einen "shut down" gemacht haben.

Der tweet darunter ist halt auch genial. "Hatte auch ein Problem mit dem Spiel." Ja welches? Sowas hilft immer ungemein weiter, gerade hier bei dem Thema. :fresse2:
 
Ich würde es als EXTREM unwahrscheinlich einstufen, dass es hier um ein Hitzeproblem geht.
Das Spiel erzeugt auch nicht mehr Hitze als andere und sicher nicht annähernd so viel wie Stresstests.

Wäre das das Problem, wären die 3090er schon lange vorher abgefackelt und vermutlich nicht mal ausgeliefert worden. Jede GPU geht ja durch nen Belastungstest vor der Auslieferung normalerweise. So extrem aufwendig ist das Menu von New World nun auch nicht. ;-)
Hätte ja sein können, wenn man sich anschaut wie die ihre Wärmeleitpaste und Pads ab Werk dran machen 🤣
Die dann auf Custom Wakü umgebaut wurden, haben vielleicht mehr Spielraum.
 
ich spiele nicht, hab auch keinen blassen schimmer davon, aber ist eine beta zum spielen gedacht?
 
ich spiele nicht, hab auch keinen blassen schimmer davon, aber ist eine beta zum spielen gedacht?
Für was den sonst? Anschauen? ;-)

Was Jay angeht,... so sehr ich ihn mag, aber er unterscheidet mal wieder nicht zwischen "Mimimi, ich habe Probleme mit den FPS!" und "Mimimi, ich hatte nen Bluescreen!" und "Uhm, meine GPU ist kaputt!".
Da wäre ich also erst mal vorsichtig.

Das New World irgendwas gefunden hat, dass GPUs killt, ist doch echt unwahrscheinlich.
Seit Jahrzehnten gibt es Schutzmechanismen für jeden noch so unwahrscheinlichen Sonderfall. Und auf einmal kommt ein Spiel daher, dass reihenweise GPUs killt. Aus beiden Lagern? Verschiedene Serien?
Ich wüsste jetzt ehrlich gesagt nicht mal, wie ich das ABSICHTLICH machen könnte. Alles auf der GPUseite ist hinter einer API. Da kann man nicht einfach "irgendwas" anstellen.

Evtl. ist hier ja jemand unter uns, der öfter mit GPUs arbeitet und kann uns verraten, ob ihm ein Weg bekannt ist, der sowas bewirken könnte. Ganz absichtlich.
Ich mache das nur immer nebenbei, kann da also nichts Definitives zu sagen. Kann es mir nur beim besten Willen nicht vorstellen.
 
@Tech Enthusiast
ich denke halt, das ist wie eine beta von windows, sollte man auch nicht auf einem produktivsystem installieren.
Normalerweise sind Betas von Spielen fertige Software.
Da geht es eigentlich nur noch um Balancing, nicht neue Features. Dafür wäre die Alpha da.

Wobei jede Spieleschmiede das anders nennt, daher ist der Begriff "Beta" eh etwas freizügig.
Aber es gibt so und so einen gewaltigen Unterschied zwischen einem Betriebssystem und einem Spiel. Defekte Hardware sollte man aber bei keinem von beiden erwarten müssen.
 
Ich tippe bei den anderen Grafikkarte einfach generell auf Treiber Probleme oder Probleme mit den Implementation der Funktionen, das ist völlig normal dafür ist es ja noch in der Entwicklung, normalerweise werden ja zur Entwicklung auch schon die Hardwarehersteller mit herangezogen, was hier wohl nicht so stattgefunden hat?
 
Just play NW with uncapped FPS and check TDP Normalized #.
MSVDD power limit reports to TDP Normalized but is not visible in hwinfo.
Increasing MSVDD voltage will also increase MSVDD's power limit. It's related to SRAM voltage.
The Strix has a higher limit for this voltage. Just like kingpin 3090 with dip switch on.

If Normalized TDP% is much higher than TDP%, then its MSVDD like Buildzoid suggested and not the fan controller chip blowing up.

Quake 2 RTX has much lower MSVDD because it's pure path traced (can pull 700W), TDP Normalized will be the same as TDP in this game.

Path of Exile with GI Shadows = Ultra will hammer MSVDD hard. This will cause very high TDP Normalized%, which will also cause effective GPU clocks to be dropped.

Power limit is 58% TDP (shunt mod).
Here is GI quality=High.

GI Shadows High.png


Here is GI: Ultra

GI Shadows Ultra.png
 
Am ende sind die Grafikkarten gar nicht kaputt sondern es gab nur ein TDR Crash( Blackscreen, maximal aufdrehen der Lüfter ) wodurch das windows memory Management System anschließend falsch beschrieben wird.
Ist ja nicht das erste mal das dies Passiert

wenn dies nicht der Fall ist, wird es das übliche Problem sein, Grafikkarte zieht mehr oder weniger zu viel Saft und eine SMD Sicherung in der nähe der PCIe Steckplätze brennt durch, das triggert auch ein TDR und beim nächsten start gibt es kein Bild mehr.
EVGA Karten haben zwar über/besser dimensionierte Sicherungen als andere Karten aber die Sicherungen brennen auch durch bei Anomalien in der strom Versorgung auch wenn die max. Verlustleistung nicht erreicht wird.
Bzw. Sicherungen Brennen auch durch wenn die Phasen Probleme Bereiten und fast immer ist dann anschließend auch eine Kaputt, diese zu Sockeln mit non-SMD Typen würde deswegen auch nichts Bringen.

Und laut denn ganzen Beiträgen auf reddit sind nur übertriebene OC Modelle und User OC Karten betroffen.
 
Zuletzt bearbeitet:
Jay ist meiner Meinung nach ein Schwätzer..

Hier Nochmal was von Igor
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh