Defekte Grafikkarten: New-World-Problematik ist zurück

Bin jetzt quasi 3 Tage am dauer daddeln mit einer EVGA 3080 XC3 UG und soweit Problemlos
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich verstehe es nicht.
Es gibt sowohl im Treiber, wie auch per zb. River Tuner die Möglichkeiten die fps zu begrenzen.
Es wurde nun auch sicher schon 20x gesagt, dass es mit den FPS nix zu tun hat, weil dieses Limit auch im Spiel besteht.
 
Wie soll es demn nicht mit den fps zu tuen haben?
Im Ladbildschirm wir vermutlich der reguläre fps limiter des Games nicht greifen.
Wie soll sonst eine GPU bei Teillast defekt gehen?
Alles andere wäre für mich technisch nicht nachvollziehbar
 
Zuletzt bearbeitet:
Wie soll es demn nicht mit den fps zu tuen haben?
Im Ladbildschirm wir vermutlich der reguläre fps limiter des Games nicht greifen.
Wie soll sonst eine GPU bei Teillast defekt gehen?
Alles andere wäre für mich technisch nicht nachvollziehbar
Weil es dann genügend andere Spiele gibt die FPS in vier- oder gar fast fünfstelliger Höhe erreichen.
Ich nehme es gerne immer wieder als Beispiel... Osu!
 
Doch doch der FPS Limiter des Games greift schon, wenn man den einstellt ingame. Aber ich glaube selbst Amazon hat ne Grenze bei 62,5 immer fest.
Das einzige was ich bisher feststellen kann ist das meine GPU stärker fiept als in CP 2077 oder anderen auslastenden Games. Das bei 60 FPS im Menü.
Stelle ich die Grenze bei 30 FPS, hört sich das Fiepen eher an wie sonst.

Es tauchen auch mittlerweile mehr Beiträge im offiziellen Forum auf bezüglich Grafikkarten.
Viele haben auch einfach Abstürze (Last,Temps ?), vieles weiß man halt nicht.
Aber ich glaube an dem ganzen ist schon mehr als nur paar Ausnahmen.

Werde wohl daher auch lieber etwas abwarten erstmal, mal schauen was sich noch so ergibt.
 
Ich verstehe es nicht.
Es gibt sowohl im Treiber, wie auch per zb. River Tuner die Möglichkeiten die fps zu begrenzen.
Ein weiterer User auf Redit dem die Karte kaputt gegangen ist, soll sogar einen FPS Begrenzer aktiv gehabt haben.
Allein an FPS kann es auch nicht liegen schliesslich gibt es viele Games mit hohen FPS. Z.B. das aktuelle Doom.
 
Zuletzt bearbeitet:
@tgh1978 Laut Statement von EVGA ist es bekannt das die LüfterRPM teils falsch ausgelesen werden. Da soll / wird es wohl ein Update für geben über die EVGA Software.
Das die GPU abfackelt hat wohl aber in erster Linie nichts damit zu tun laut EVGA.

Die Berichterstattung dazu war leider sehr einseitig, da sich EVGA nicht wirklich dazu geäußert hat, sondern man denen die Infos aus der Nase ziehen musste.
Es wird wohl nur Abwarten helfen.
Ich habe keine Angst um meine GPU, sollte sie kaputt gehen, geht sie an den Händler und muss repariert werden.
Besser der Fehler tritt jetzt auf, als wenn die Garantie abgelaufen ist.
 
Dann darfst du gar nichts spielen, weil diese Chance bei jedem Spiel besteht, wenn du ein Montagsmodell erwischt hast.
Habe noch keine News gefunden zu anderen Spielen, New World bleibt bisher das einzige das Grakas töten kann.
Und ich habe Respekt vor Killern, mit denen ist nicht gut kirschen essen.

Ich suche mir da doch lieber andere Endgegner, im Endeffekt habe ich ein Dienstagsmodell und es tötet trotzdem meine Karte?
Ich lasse da andere mutige vor, möget ihr glorreich sein und euch net töten lassen :ROFLMAO:
 
Habe noch keine News gefunden zu anderen Spielen, New World bleibt bisher das einzige das Grakas töten kann.
Und ich habe Respekt vor Killern, mit denen ist nicht gut kirschen essen.
Die News basiert auf Userreports und dazu gibt es einige, auch bei anderen Spielen.
Ich bin selber glücklicher Besitzer einer 3090 und spiele es gerade ohne Probleme.
 
Wie soll es demn nicht mit den fps zu tuen haben?
Im Ladbildschirm wir vermutlich der reguläre fps limiter des Games nicht greifen.
Wie soll sonst eine GPU bei Teillast defekt gehen?
Alles andere wäre für mich technisch nicht nachvollziehbar

Wieso sollte es was mit FPS zu tun haben, wenn:
A: Andere Spiele mehr FPS haben, ohne Limiter (bis 5-stellig)
B: New World ein Limiter hat der auch greift.
C: Eine GPU nicht einfach stirbt, weil sie ihre Arbeit macht. Bilder berechnen ist die Arbeit der GPU. Die geht doch nicht selber in den Tod, ohne irgendwelches fremdes Zutuen.

Und das es technisch nicht nachvollziehbar ist, da sind wir uns einig.
Ich sehe auch nicht, wie New World (oder irgendeine Software) die GPU killen kann. So viele Sicherheitsmechanismen, Limits, Fallbacks... Wenn eine GPU maximal 500 Watt überlebt, dann ist das Limit normal irgendwo bei 250 Watt gesetzt. Dann bekommt sie 400 mit Flüssigstickstoff und überlebt trotzdem.
Andere Limits sind ähnlich tief gesetzt.
Jede Hardware kann deutlich mehr ab, als drauf steht.
 
Ich verstehe es nicht.
Es gibt sowohl im Treiber, wie auch per zb. River Tuner die Möglichkeiten die fps zu begrenzen.
ich denke nicht, dass es primär was mit FPS Cap zu tun hat ... mir ist in der Public Beta meine (undervolted und non-oc) Vega 64 auch einmal ausgestiegen bzw. war schlagartig der PC aus - trotz intern und extern per Treiber gesetztem FPS Cap, was ich noch nie bei irgendeiner Gelegenheit mit der Maschine hatte - der PC läuft sonst 100% rock solid - und ließ sich glücklicherweise auch direkt wieder ohne Macken starten, hat auch ein Top 850W NT mit genug Reserven usw. und wird nur zum Zocken verwendet. Ich bin kein versierter Techniker, was ggf. in / mit einer Software "versaut" werden kann, dass Hardware derart aussteigt, aber ggf. hatte ich nur Glück, dass bei ner schlagartig hohen Lastanforderung wohl ne Schutzschaltung des NT schnell genug ansprang und so vllt. auch meine durchaus geschätzte Vega vor dem Grafiktod bewahrt hat... (ansonsten halte ich dieses MMO für derart langweilig, dass ich es eh nicht bereue, es direkt nach der Public Beta wieder gelöscht zu haben)
 
Das einzige was ich mir laienhaft (was hardware angeht) vorstellen könnte ist eine Form von Resonanz welche ganz zufällig durch einen bestimmten Shader ausgelöst wird und zu immer grösseren Schwingungen führt.
Ka. ob das denkbar ist :d

Aus meiner Software dev Sicht mit ein klein wenig HLSL Erfahrung, ist eine "schadhafte Fehlnutzung der Hardware" quasi ausgeschlossen. Es ist nicht so dass wir die Verantwortung einfach so an die Hardware übergeben würden um nichts damit zutun haben zu müssen. Viel mehr sitzt die Software Seite einfach grundlegend am kürzeren Hebel.
Die Hardware bietet eine API und die Software nutzt diese. Dass man da über die API so viel aus der Hardware rausquetschen will wie möglich, liegt in der Natur der Sache. Die Game Software setzt aber weder den GPU Takt noch die Spannung etc.

So ist es jedenfalls normalerweise.
Allerdings wurde zumindest bei CPUs ja schon mal gegen dieses Prinzip verstoßen wo es der Software erlaubt wurde, kritische Parameter an der Hardware-Ansteuerung anzupassen: https://www.hardwareluxx.de/index.p...performance-tuning-ueber-den-pci-treiber.html
Ob es solche geheime Absprachen auch bei GPUs gibt und New World hat das (unter Aufsicht/Duldung von NV/AMD) zu weit getrieben?

Jetzt verfall ich selbst schon der Neigung zu abstruser Spekulation... :d
 
Zuletzt bearbeitet:
@Zyxx Ich stimme Dir zu, dass wenn die Karte was hat, es besser ist das während der Garantie rauszufinden!

Ich habe an New-World sowieso kein näheres Interesse... dachte mir nur, da hier sehr viel "Rumspekuliert" wird, das ev. die Tests von Igor für manche hilfreich sein könnten...
Kann auch nicht sagen, ob jetzt Igors Meinung dazu die letzte Weisheit ist, aber ich lese seine Artikel/Test schon recht lange (auch schon, als er noch für Tomshardwareguide aktiv war), und in den meisten Fälle wo ich es halt mitbekommen habe, bzw. wo es mich halt dann auch persönlich betroffen hat, lag er eigentlich immer richtig...

Im Endeffekt muss das eh jeder für sich entscheiden, ob er das Spiel "riskiert" oder nicht...
 
Die Berichterstattung ist aber wieder mal unter aller Sau. Auch der Bericht von HWLuxx ist ein Witz. "war die Rede von..." "soll gewesen sein"... fürchterlich.

Entscheidend ist doch nur eines: wie viele Spieler spielen das Spiel und wie viele Karten sind nachweislich während des Spiels abgeraucht. Sollten im Verhältnis Einzelfälle sein.

Das was evga da zum Besten gibt ist auch eher seltsam, die defekte Lötstelle war wohl eher ein generelles Problem.

Alles andere ist doch unwichtig, weil unbestätigte Einzelfälle. Aber in Zeiten von Social Media schafft es halt jeder Furz in die Nachrichten.
 
Hab mehrere Stunden am Stück gezockt. Keine größeren Auffälligkeiten. Karte dreht je nach Gebiet kurz mal etwas auf was Lüfter betrifft aber das wars dann. Schaffte auch ein A Plague Tale: Innocence...

Schätze das manche Hersteller unterschätzt haben was moderne GPU´s / PCB schlagartig an Hitze entwickeln können. Vor allem luftgekühlte Karten wie 3090 3080 TI 6800 XT 6900XT Boliden können ordentlich Hitze entwickeln und das relativ flott... Nicht jeder baut auf eine gute Wakü um die Hotspot und Chiptemperaturen deutlich nach unten drücken... Zu guter Letzt ist es fragwürdig warum die Schutzschaltungen ala Templimit oder auch Verbrauchslimit nicht dazwischen grätschen....

System: XFX 6800... 5900X... Angeblich hieß es ja das auch AMD Karten betroffen sein würden...
 

Anhänge

  • New Word.jpg
    New Word.jpg
    769,1 KB · Aufrufe: 158
Zuletzt bearbeitet:
RTX 3080 raucht ab: (Minute 5.50)

 
Wow 😁 Grafikkarten werden völlig überteuert verkauft und gehen aufgrund von Software kaputt. Merkt eigentlich keiner mehr was hier los ist? :fresse:
 
Wow 😁 Grafikkarten werden völlig überteuert verkauft und gehen aufgrund von Software kaputt. Merkt eigentlich keiner mehr was hier los ist? :fresse:
Solche Sprüche sind genau das Problem, wieso unsere Gesellschaft aktuell so gespalten ist.
Lass es uns doch bitte wenigstens in diesem Forum besser machen und nicht an jedem Ende irgend nen Aluhut-Schmaren unterstellen.
 
Was ich immer wieder krass finde das gerade mal 5 Karten betroffen sind aber die Users der Karten so extrem spreaden auf reddit das es aussieht als wäre jede Karte betroffen.
Kann mich noch an Zeiten erinnern wo Redddit nicht die Nummer 1 Quelle war, Echtheit Prüfung scheint irgendwie niemandem mehr zu jucken.
Im Grunde braucht man einen Beitrag und einen Post-Bot und schon landet man auf PCGH ( zb ), 2021 hatten wir so viele Falsch Meldungen wie insgesamt in denn letzten 10 Jahren nicht.
Witzig finde ich auch die Beiträge von Benutzern die Angeblich auch betroffen sind aber noch eine GTX 970 im PC Werkeln haben

Die Fake Videos von durchgebrannten Karten haben wir auch denn ganzen Influencer zu verdanken, als würde jemand vorm zocken ne Kamera vor einer Grafikkarte aufstellen, es geht nichts in Rauch auf noch brennt irgendetwas durch sondern nur eine Lötstelle löst sich vom PCB da passiert Erstmal nichts dramatisches außer das der Monitor schwarz wird.
 
Zuletzt bearbeitet:
Das stimmt so nicht, mir ist auch mal eine 1080Ti von Inno durchgebrannt, da stieg richtig Rauch auf von den Spawas !
 
Du schreibst Rauch könne garnicht sein und das wäre Fake, ich habe nur Klargestellt das es eben doch sein kann. Einfach mal einsehen wenn man falsch liegt statt blöde Sprüche rauszuhauen..
 
Zuletzt bearbeitet:
 
Du schreibst Rauch könne garnicht sein und das wäre Fake, ich habe nur Klargestellt das es eben doch sein kann. Einfach mal einsehen wenn man falsch liegt statt blöde Sprüche rauszuhauen..
Ich glaube es spielt eher darauf an, dass ganz zufällig auch die Kamera aufs Geschehen gerichtet ist. Das wirkt schon sehr mutwillig.

Offenbar hat das Spiel massive Probleme mit Lastwechseln, welche die Regelung aushebeln.
Kann ich so bei meiner 3090FE nicht beobachten, immer zwischen 200 und 230W, 1440p, 90FPS, 0,825V/1800MHz.
 
Meine 6800@stock springt in der Charauswahl bzw Warteschlange laut Treiber-Overlay fröhlich zwischen 30 bis hoch zu 300 Watt hin und her. Völlig absurd bei angeblich gecappten 62 FPS und quasi "Standbild".
 
Klingt nicht gut. /:

Heute ist aber ein update gekommen:
 
Meine 6800@stock springt in der Charauswahl bzw Warteschlange laut Treiber-Overlay fröhlich zwischen 30 bis hoch zu 300 Watt hin und her. Völlig absurd bei angeblich gecappten 62 FPS und quasi "Standbild".
klingt ja ähnlich wie bei jay mit der evga
 
Meine 6800@stock springt in der Charauswahl bzw Warteschlange laut Treiber-Overlay fröhlich zwischen 30 bis hoch zu 300 Watt hin und her. Völlig absurd bei angeblich gecappten 62 FPS und quasi "Standbild".
Hmmm, die Sache mit den Wattsprüngen im Menü hat erst Aussagekraft wenn wir das mit einer Reihe anderer Games vergleichen!

Das ist sonst nämlich einfach die Wirkweise eines Framelimiters. Die GPUs bieten einem nicht die Möglichkeit zu sagen "jetzt mach mal langsam" (weil man im Vorraus nicht weiss wie langsam um exakt X fps zu erreichen).
Stattdessen berechnet man das Frame wie gehabt so schnell wie möglich und verzögert dann den Befehl zum Rendern des nächsten frames.

Wenn nun diese Verbrauchsangabe immer nur Momentaufnahmen ausgibt (statt wirklich Durchschnitte über eine Zeit zu berechnen), dann gibt sie eben manchmal grade die starke Last des Frames an und manchmal nur die Lücken der Wartezeit zwischen 2 Frames...

So absurd ist's also nicht.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh