UPDATE: Von EVGA bestätigt!! - Gründe, warum eine NVIDIA GeForce RTX 3080 oder RTX 3090 oberhalb 2 GHz crashen könnten!

Igor hatte ja mehrere Vermutungen geäußert, da wir einfach noch zu wenig gesicherte Erkenntnisse hatten um das Problem genauer einzugrenzen. Ich sehe nichts verwerfliches daran... Schlimmer wäre wenn er aus dem Gefühl heraus Problem X benannt und damit falsch gelegen hätte... Das die Caps nun laut EVGA "Schuld" sind ist halt dumm gelaufen :d Tja, zeigt a) mal wieder das EVGA ein guter Laden ist (auch wenn die zugegeben in den lettzten Jahren nachgelassen haben) und man b) nicht am Launch kauft.

Ich denke es liegt effektiv an einer Kombination aus mehreren Dingen:
1. Boost der Karten sprengt unter Teillast die 2ghz - das Bios lässt zu viel Takt zu
2. Chipgüte schwankt durch Samsungs 8nm Prozess zu stark
3. Partner hatten kaum/wenig Möglichkeiten die Chips vernünftig zu testen und so die Güte einzuschätzen
4. Die oben benannten Caps

Wenn man dann eine Karte mit schlechtem Chip und schlechtem Design erwischt UND die boostet dann noch hoch, ja dann gibts nen Crash. Effektiv wirds wohl entweder einen Rückruf geben oder man bringt ein Biosupdate um den Boost unter Teillast auf 1950-2000Mhz zu deckeln. Das das hilft haben ja schon einige Käufer mit Custom Taktkurven gezeigt.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
The RTX 3080 is the most controversial launch we have seen in a long time... and it continues to spiral out of control. Here is the Article we reference in this video - https://www.igorslab.de/en/what-real-...

Aus der Videobeschreibung... Eiskalt bei Igor kopiert, aber immerhin als Quelle angegeben :d Ich freue mich jedenfalls riesig für Igor, das er mittlerweile erheblich an (internationaler) Reichweite gewinnt. Harte Arbeit und guter Journalismus müssen belohnt werden.
 
Die einzig interessanten Fragen sind doch: Wieso baute Nvidia so einen Zeitdruck auf, dass die meisten Partner keinerlei Zeit zum testen hatten?
Wieso laufen die Chips am absoluten Limit und ziehen unvernünftig viel Strom? Wieso verkauft Nvidia eine aktuell konkurrenzlose Grafikkarte trotz offensichtlicher Probleme mit dem Bedarf mitzuhalten für weniger Geld als der Markt erlauben würde?

Nvidia hatte mit der 2000er Generation ein Produkt auf dem Markt zu dem es keine Konkurrenz gab. Wieso also macht man so was?

Die einzige Erklärung die mir einfällt (und ich bin absolut offen für andere Ideen), ist dass Nvidia um jeden Preis Käufer abgreifen wollte bevor die Konkurrenz ihr Produkt auch nur vorstellen kann. Also nackte Angst :d .

Besserere Erklärungen?
 
Die einzig interessanten Fragen sind doch: Wieso baute Nvidia so einen Zeitdruck auf, dass die meisten Partner keinerlei Zeit zum testen hatten?
Wieso laufen die Chips am absoluten Limit und ziehen unvernünftig viel Strom? Wieso verkauft Nvidia eine aktuell konkurrenzlose Grafikkarte trotz offensichtlicher Probleme mit dem Bedarf mitzuhalten für weniger Geld als der Markt erlauben würde?

Nvidia hatte mit der 2000er Generation ein Produkt auf dem Markt zu dem es keine Konkurrenz gab. Wieso also macht man so was?

Die einzige Erklärung die mir einfällt (und ich bin absolut offen für andere Ideen), ist dass Nvidia um jeden Preis Käufer abgreifen wollte bevor die Konkurrenz ihr Produkt auch nur vorstellen kann. Also nackte Angst :d .

Besserere Erklärungen?

Ob es so ist, weiß ich nicht. Jedoch wäre es schlüssig.
 
Joa, was man auf jedenfall sagen kann: absolut schwaches bild von nvidia, wirklich wirklich schwaches bild. Marketing: schwach. Technik: schnell aber buggy -> schwach. Verfügbarkeit, kommunikation....blablabla...alter schwede ham die sich in die nesseln gesetzt. Und das sie wirklich die 1500€ karte ausverkauft haben kann ich immer noch nicht glauben.
 

MSI kommentierte das Problem kurz mit “ it could be a driver issue.“
gibt es überhaupt Karten die hier im Forum bei Nutzern angekommen sind, die 6 POSCAPs haben? Bisher ist mein Eindruck, dass das alle dieser Karten bereits vorher zurückgezogen wurden, oder nie verkauft wurden. Die meisten haben mindestens eine MLCC Gruppe, damit sollte das Problem ja behoben sein. Angeblich
 
Die Nullserie wurde also bei vielen Partnern nichtmals getestet sondern auf den Markt geworfen, da Zeitdruck.
Der Kunde hat nun ein nicht richtig funktionierendes Produkt.
Entweder Bios Update, das die Karten dann einbremst, oder Austausch sind die Alternativen.

Ich habe mir das Video jetzt nicht angesehen, bevorzuge Text, aber wird dort auch darauf eingegangen das Kondensatoren auch abhängig von der Temperatur sich anders verhalten?
Je nachdem wo die Kapazitäten sitzen könnten man anhand der Temperaturfühler der GPU auch in Echtzeit die Signale an die Characteristic der Kondensatoren anpassen und eventuell der Stabilität helfen.
Hat wer die genaue Typenbezeichnung der Bauteile?
 
Die einzig interessanten Fragen sind doch: Wieso baute Nvidia so einen Zeitdruck auf, dass die meisten Partner keinerlei Zeit zum testen hatten?
Wieso laufen die Chips am absoluten Limit und ziehen unvernünftig viel Strom? Wieso verkauft Nvidia eine aktuell konkurrenzlose Grafikkarte trotz offensichtlicher Probleme mit dem Bedarf mitzuhalten für weniger Geld als der Markt erlauben würde?

Nvidia hatte mit der 2000er Generation ein Produkt auf dem Markt zu dem es keine Konkurrenz gab. Wieso also macht man so was?

Die einzige Erklärung die mir einfällt (und ich bin absolut offen für andere Ideen), ist dass Nvidia um jeden Preis Käufer abgreifen wollte bevor die Konkurrenz ihr Produkt auch nur vorstellen kann. Also nackte Angst :d .

Besserere Erklärungen?
Ich denke es ist nicht nur der Zeitdruck gewesen, um Early Adopters zu melken. Die Ampere Geforces schauen einfach total überspec'd aus. Man haut gegenüber seinen Vorgängern nicht einfach mal 100W TDP drauf, wenn es nicht notwendig ist. Gemessen an dem Hype um die neue Architektur und die neue Samsung 8nm Fertigung sind die etwa 20% gestiegene Energieeffizienz ein Witz. Hätte Nvidia die TDP gegenüber den Vorgängern unverändert gelassen, kannste dir ja ausrechnen, was unterm Strich an Mehrperformance übrig geblieben wäre. Und da Nvidia sicherlich auch schon länger weiss, dass RDNA 2 gehörig gegenüber der ersten RDNA Generation zulegen wird, hätte man gleich zwei Probleme gehabt. Zum einen die enttäuschte Nvidia Kundschaft aufgrund des geringen Mehrwertes. Zum anderen stünde die Chance gut, dass die Konkurrenz mit ihrer neuen Generation vorbeizieht. Unterm Strich schaut für mich Ampere einfach wie eine Architektur aus, die für Datencenter entwickelt wurde. Auf Kosten der Gamer, die dieses Launch Desaster jetzt ausbaden müssen.
 
Da wollte das Marketing mehr, als die Entwicklung liefern konnte.
"Hauptsache die Anleger sind glücklich."
 
Da müsste die Nachfrage doch jetzt aber Rapide Rapide zurück gehen. Oder sind die Kunden so bekloppt, dass sie nicht nur überteuert kaufen, sondern mit gewalt auch die fehlerhaften Revisionen vom Markt catchen wollen?
Beitrag automatisch zusammengeführt:

Da wollte das Marketing mehr, als die Entwicklung liefern konnte.
"Hauptsache die Anleger sind glücklich."

Ich glaube die Anleger sind langfristig nicht so glücklich wie man vermutet ;) nach dem desaster. Das einzig gute an der ganzen Geschichte is die Nachfrage gewesen und da man die garnicht decken kann, kippt die Stimmung.
 
Das Video hier ist bisschen genauer aufgezogen:
kannste dir ja ausrechnen, was unterm Strich an Mehrperformance übrig geblieben wäre.
Lustigerweise immer noch mehr als genug. CB hat's ja getestet, was passiert, wenn man das Limit auf 270W (gleich der 2080 Ti) setzt. Sind gerade mal 4% um.
 
Die gescalpten Zweitkäufer werden sich nun in den A beißen. Zumindestens bei allem was keine Tuf oder Referenz ist.

Auch wird nachdem der Letzte davon Wind bekommen hat, der Scalpermarkt bei vielen GPUs einbrechen. Echt schade :(.
 
Man bekommt doch sowie so eine neue Grafikkarte in bis zu 6 Monaten? Wenn der GDDR6X die Gretsche gemacht hat.

Ich bin mir sicher, dass man in dem Fall schon eine neue Revision vom Hersteller erhält. 2 - 4 Wochen Ersatzkrüppelgraka tut doch nicht weh :d.
 
Die gescalpten Zweitkäufer werden sich nun in den A beißen. Zumindestens bei allem was keine Tuf oder Referenz ist.

Auch wird nachdem der Letzte davon Wind bekommen hat, der Scalpermarkt bei vielen GPUs einbrechen. Echt schade :(.
Na das Ausmaß ist ja noch gar nicht genau bekannt, oder? Ich warte noch immer auf den ersten der hier im Forum ein Foto seiner eigenen 3080 postet, die gänzlich ohne MLCC Gruppe gefertigt wurde. Wie zuvor auch schon einige geschrieben haben, kann das Problem außerdem durchaus vielschichtiger sein. Kleiner Treiber / Bios Fix und vielleicht ist es damit gegessen. Die Karte muss ja nicht mal langsamer werden durch einen fix. Vielleicht werden nur kurze Spikes der Frequenz verhindert. Ich hab auch mal kurz 2070Mhz bei meiner Karte gesehen, die sonst eher im Bereich von 1920-1980 boosted. Der Spike hat jetzt nicht gerade performancefördernden Einfluss, also kann ich zugunsten der Stabilität gerne darauf verzichten.

So wie es aussieht, hat sich MSI z.b. frühzeitig an die Ref gehalten, für eine 3080 einen MLCC Stack und für die 3090 zwei zu verbauen. Sofern das die Ref ist. Jedenfalls sieht man das abseits der vorab-Presse-Karten recht oft. Z.b. hat ein Foren-User hier schon seine MSI Ventus abgeholt und diese ist im Gegensatz zu den Bildern im Netz, mit MLCC Gruppen bestückt. Das Problem wird wohl also maximal einen Bruchteil der Leute hier im Forum treffen die eine 3080 haben. Was wiederum auch nur ein Bruchteil der Leute sind, die gerne eine hätten :d
 
Lustigerweise immer noch mehr als genug. CB hat's ja getestet, was passiert, wenn man das Limit auf 270W (gleich der 2080 Ti) setzt. Sind gerade mal 4% um.

Genau. Und wieso nun all diese Nachteile und potentiellen Probleme für so wenig Leistungsplus?
Es sieht als als hätte man um jeden Preis einen bestimmten Wert übertrumpfen wollen. Ich gehe also Mal davon aus, dass BN quasi gleich auf mit der 3080 liegt und Nvidia nur so viel Saft gibt, um in den Tests nachher 1-2% vor Amd zu liegen.
 
Genau. Und wieso nun all diese Nachteile und potentiellen Probleme für so wenig Leistungsplus?
Es sieht als als hätte man um jeden Preis einen bestimmten Wert übertrumpfen wollen. Ich gehe also Mal davon aus, dass BN quasi gleich auf mit der 3080 liegt und Nvidia nur so viel Saft gibt, um in den Tests nachher 1-2% vor Amd zu liegen.
Die 3080 Verliert mit dem PT von 270 Watt 4% auf sich selbst mit PT von 320 Watt. Sie ist nicht nur 4% schneller als eine 2080Ti :d. Mit dem 270 Watt PT ist sie also noch immer deutlich schneller als die 2080Ti.
 
@Katzaaa Ich hab nichts anderes behauptet.
Meine Frage war wieso Nvidia so unvernünftig viel Saft gibt und die eigene Chipausbeute so einschränkt, nur um 4% mehr Leistung zu bekommen.
So was macht man nur, wenn man eine Zielvorgabe hat, die man unbedingt erreichen muss und das einzige potentielle Ziel was es in Sichtweite gibt ist BN.

Also meine Vorhersage: BN im Referenzdesign liegt im Schnitt 2% hinter der 3080, kommt aber mit mehr Ram, bessere Effizienz und OC Potential. Die guten Custom Karten werden schneller als die 3080 FE sein.
 
Ich frage mich nun immer mehr, warum z.B. die Strix später kommt? Bei mir frühestens ab 16.10 angekündigt.
- Die TUF Lösung ist auch nicht die beste mit 6x MLCC?
- Bei der Strix haben sie nicht gleich auf die MLCC gesetzt und machen jetzt eine Mischung aus den POSCAPS und MLCC?
- Das Binning dauert länger für die Strix Karten, was ja mehr oder weniger bestätigt ist

Hm...
 
@Katzaaa Ich hab nichts anderes behauptet.
Meine Frage war wieso Nvidia so unvernünftig viel Saft gibt und die eigene Chipausbeute so einschränkt, nur um 4% mehr Leistung zu bekommen.
So was macht man nur, wenn man eine Zielvorgabe hat, die man unbedingt erreichen muss und das einzige potentielle Ziel was es in Sichtweite gibt ist BN.

Also meine Vorhersage: BN im Referenzdesign liegt im Schnitt 2% hinter der 3080, kommt aber mit mehr Ram, bessere Effizienz und OC Potential. Die guten Custom Karten werden schneller als die 3080 FE sein.
Ah ok, dann entschuldige bitte. Hatte dich dann falsch verstanden. Frage ich mich aber genau so. Mit 4% Weniger Leistung bei 50 Watt weniger Verbrauch kann auch ich gut leben. Wobei ich sagen muss: Die 320 bzw 340 Watt lassen sich mit einem halbwegs ordentlichen Kühler durchaus leise abführen. In Ländern in denen Strom nicht so teuer ist wie hier, spielt der Verbrauch dann eine noch geringere Rolle.
Was das Thema der Abstürze angeht, so reichen ja angeblich manchmal schon -5% PT oder ein paar Mhz weniger aus. Damit ist man noch immer jenseits der 300 Watt unterwegs. Mit Big Navi schauen wir dann mal. :d
 
Oder sind die Kunden so bekloppt, dass sie nicht nur überteuert kaufen, sondern mit gewalt auch die fehlerhaften Revisionen vom Markt catchen wollen?
Ja, sind sie. Leider. Ich arbeite für ein Hardwareunternehmen und weiss recht gut wie die geneigte Käuferschaft tickt. >90% davon bekommen von solchen Geschichten gar nichts mit.


Lustigerweise immer noch mehr als genug. CB hat's ja getestet, was passiert, wenn man das Limit auf 270W (gleich der 2080 Ti) setzt. Sind gerade mal 4% um.
Der Vergleich bei CB sagt mMn nur begrenzt was aus. Erstmal ist es bei den wichtigen Min-FPS etwas mehr, etwa 5-6% Verlust. Zudem hat die 2080 Ti FE offiziell nur 260W. Warum CB da 270W misst, keine Ahnung. Eventuell schlechtes Exemplar erwischt. Unter normalen Umständen sollte die TDP im Schnitt eigentlich nicht so weit überschritten werden. Ein paar Watt sind immer möglich, aber nicht 10W oder mehr. Dann wäre die TDP eine Mogelpackung. Es wird auch nur in 4K verglichen. Was quasi das Best-Case Szenario für Ampere darstellt. Ampere muss aber auch in niedrigeren Auslösungen liefern. Ich denke auch mit den neuen Generationen werden viele nach wie vor nicht in 4K spielen. Ganz einfach schon deshalb, weil selbst damit nicht überall ausreichend Frameraten drin sind. Und als letztes spielt auch die Kühllösung eine wichtige Rolle, die bei der Ampere FE besser ist. Damit versucht Nvidia die höhere Leistungsaufnahme auch etwas zu kaschieren. Was seinen Preis hat. Angeblich soll diese Kühllösung mindestens $150 kosten. Um einen faireren Architekturvergleich zu haben, müsste man die Karten schon mit identischen Kühllösungen vergleichen. Unterm Strich denke ich bei 250/260W TDP und ohne so eine teure Kühllösung wären es für die 3080 vielleicht maximal 15% zur 2080 Ti geworden. Glaubst du wirklich das hätte jemanden vom Hocker gehauen? Selbst die aktuell 25-30% sind für viele ja schon recht ernüchternd.
 
Ich frage mich nun immer mehr, warum z.B. die Strix später kommt? Bei mir frühestens ab 16.10 angekündigt.
- Die TUF Lösung ist auch nicht die beste mit 6x MLCC?
- Bei der Strix haben sie nicht gleich auf die MLCC gesetzt und machen jetzt eine Mischung aus den POSCAPS und MLCC?
- Das Binning dauert länger für die Strix Karten, was ja mehr oder weniger bestätigt ist

Hm...
Die TUF hat sechs MLCC Gruppen, ja. Die Strix nur auf Pressebildern nicht. Derb8auer hatte ja schon kurz eine zu Gesicht bekommen. Diese hat auch ausschließlich MLCC gezeigt.
 
  • Danke
Reaktionen: Tzk
Wenn der Hersteller, sich nicht freiwillig bereit erklärt, die Karten zurück zu nehmen, ist dies dann ein Garantiefall, oder bleibt man dann auf seiner OC Krücke sitzen ?Wie sicher ist es denn, das die 2. Charge diesen Fehler ausgemerzt hat ? MSI glaubt z.B. ja noch an Treiberprobleme ...
 
Die Karten stürzen bei OC über 2000MHz ab, die Spezifikationen sehen diesen Takt überhaupt nicht vor, denke nicht, dass das ein Garantiefall abdeckt. Aber wir befinden uns aktuell noch im 14 Tage Rückgaberecht, ob die Karten jetzt zurückgehen werden bezweifle ich aber
 
Die TUF hat sechs MLCC Gruppen, ja. Die Strix nur auf Pressebildern nicht. Derb8auer hatte ja schon kurz eine zu Gesicht bekommen. Diese hat auch ausschließlich MLCC gezeigt.

Genau, aber warum sollte sie deshalb später kommen? 6x MLCC scheint ja auch nicht die beste Lösung zu sein, sondern ein Mix.
 
Genau. Die 3080 mit einem norma
Die Karten stürzen bei OC über 2000MHz ab, die Spezifikationen sehen diesen Takt überhaupt nicht vor, denke nicht, dass das ein Garantiefall abdeckt. Aber wir befinden uns aktuell noch im 14 Tage Rückgaberecht, ob die Karten jetzt zurückgehen werden bezweifle ich aber
Das stimmt nicht. Die Karten boosten teilweise von alleine im Auslieferungszustand auf über 2 GHz. Das ist dann klar ein Garantiefall.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh