Kondensator-Probleme bei frühen GeForce-RTX-30-Karten

Alle PCIe für die GPU auf der selben Schiene oder an den Netzteil Buchsen verteilt?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hat NVidia die Boardpartner mit der vorgehaltenen Waffe gezwungen A: Schlecht zu arbeiten und B: Überhastet?
Nein?
Dann ist es auch nicht deren Schuld.

Wer sollte sonst die Schuld tragen?
Zumindest hat das Nvidia Green Light Program versagt. Die Boardpartner müssen sich schließlich erst für alles ein OK bei NV einholen.
 
Alle PCIe für die GPU auf der selben Schiene oder an den Netzteil Buchsen verteilt?

Drei Kabel, nix da mit zwei Anschlüssen von einem Kabel. Drei separate PCIE Leitungen.

Habe das AX850 von Corsair, auch mit den korrekten 70A auf 12V.
 
Drei Kabel, nix da mit zwei Anschlüssen von einem Kabel. Drei separate PCIE Leitungen.

Habe das AX850 von Corsair, auch mit den korrekten 70A auf 12V.
Das habe ich nicht gemeint ;-)

Bei meinem Fractal habe ich alle drei 8PIN nicht auf der selben Leiste sondern zwei oben und eine unten von meinem 5 PCIe Buchsen. Bei manchen NT Hersteller soll man verteilen, bei manchen ist es egal. Führt bei manchen wohl zu weniger coil whine.
 
Achso, wo am Netzteil.

1601143542952.png


Habe aber nicht die Anleitung gelesen 8-) ich Horst...hole ich noch nach
 
Wer sollte sonst die Schuld tragen?
Zumindest hat das Nvidia Green Light Program versagt. Die Boardpartner müssen sich schließlich erst für alles ein OK bei NV einholen.

NVidia testet jedes Partner Design?
Das wäre mir neu, würde die Schuld aber zumindest im zweiten Schritt zu NVidia schieben.

Ist das den wirklich so?
 
Das habe ich nicht gemeint ;-)

Bei meinem Fractal habe ich alle drei 8PIN nicht auf der selben Leiste sondern zwei oben und eine unten von meinem 5 PCIe Buchsen. Bei manchen NT Hersteller soll man verteilen, bei manchen ist es egal. Führt bei manchen wohl zu weniger coil whine.
Die Unterschiede nennt man Single-Rail und Multi-Rail.
 
Das ich das jetzt verstehe! Die Probleme gibts anscheinend nur wenn 2000+ Mhz an Takt anliegen?
Dann wäre ich ja beruhigt da ich meine (hoffentlich bald) kommende Gigabyte Eagle OC zwischen 1900-1950 und mit niedrigeren Powerlimit betreiben will.
 
Besteht halt für die Karten die von gewissen Boardpartner nicht ideal bestückt wurden.

Die FE hat dieses Problem nicht.
Beste und hochwertigere Design scheint asus mit der Tuf und der strix von Anfang an gut umgesetzt zu haben .
 
Viele Hardware-Diskussionen leiden unter krasser Komplexitätsreduktion. Klar will jeder mitreden, aber viele haben halt einfach nichts hilfreiches beizutragen. Wenn ich hier schon "gute" und "schlechte" Kondensatoren lese... sowas lässt sich nicht verallgemeinern. Es gibt nur solche die mehr oder weniger geeignet sind in Kombination mit den anderen Kondensatoren einen angestrebten Impedanzverlauf über einen definierten Frequenzbereich zu erreichen. Und da spielen wie du bereits angedeutet hast eine Menge Faktoren rein.
Lass es Ali, ich hatte gestern schon was im 3090 Sammler gepostet bzgl. minderwertigen Kondensatoren... Ist zwar nett, dass jeder mitreden will, aber was man in der Diskussion rund um die Poscaps seit gestern hier schreibt is nur noch witzig. Minderwertig, Billigkomponente... dabei sind das recht teure und fast cutting edge Konsensatoren, da MnO2 + Polymer und Kapazitätsstabil bis locker 100kHz, je nach Serie sogar höher.
Das Problem ist die Filterfunktion, da sind MLCCs einfach deutlich besser, obwohl typisches Hühnerfutter Bauteil.
Das richtige Design macht’s, weshalb wohl auch laut den Boardpartnern eine Mischbestückung am meisten Sinn macht, kenne die BOM natürlich nicht.
 
Hoffe bei EVGA gibts das problem nicht, ist ja bis jetzt nichts bekannt zum Glück
 
Das ich das jetzt verstehe! Die Probleme gibts anscheinend nur wenn 2000+ Mhz an Takt anliegen?
Dann wäre ich ja beruhigt da ich meine (hoffentlich bald) kommende Gigabyte Eagle OC zwischen 1900-1950 und mit niedrigeren Powerlimit betreiben will.
Runtertakten bis sie stabil läuft und das Powerlimit senken, dann braucht man auch kein stärkeres Netzteil.
 

Bisschen Hintergrund gehört dazu :d. Wurde hier schon wo anders gepostet, aber zur Erinnerung noch mal hier hinein. Also noch immer den Ball etwas flachen haltern. Hoffe auf baldige berichte wie sich das genau äußert. Abstürze bei Spielstart nehme ich an, wenn der Boost besonders hoch ist. Das hatte ich mit meiner Trio X noch nicht in der Form. Hoffe mal auf etwas reproduzierbares mit dem man testen kann.
 
Ist bekannt, wie das bei MSI läuft?

Ich hatte die MSI Gaming X Trio 3080 und die läuft ohne Handanlegen problemlos, sobald man aber im Afterburner ab 25Mhz+ Offset einstellt, stürzt das Spiel bzw. der Treiber sofort ab, sprich keine Übertaktungsfähigkeit.

Ich bin wirklich kein Fan von Asus, weil die gerade bei Boards echt dramatische Fehler machen, aber bei den GPUs ist man immer auf der sicheren Seite mit denen.
Darf man fragen wieso? Bin wirklich neugierig.

Übrigens bei den ersten Bilder der Strix 3080 sah man zu Beginn auch noch POSCAPS:
ASUS-ROG-STRIX-3080-OC-1.jpg



Das bisher einzige Review was verfügbar ist von der Strix 3080, weist jedoch eine vollständige MLCC-Bestückung auf:
20200922_205133-Large-1666x937.jpg
 
Wer wird schon für die paar Hundert lausigen Euros Qualität erwarten?
 
@bibi99 du bist jung, warte es ab.
Amd wird einen 3080 Konkurrenten bringen, glaub es oder lass es, aber so wird es sein.
Ziemlich sicher auch noch dieses Jahr kaufbar.

Wäre es nicht. so, hätte Nvidia völlig anders agiert. Wetten?
 
@DeckStein

DLSS, genauso gutes Raytracing (?) und Nvidia Gameworks Effekte (Fehlanzeige). Die Geschwindigkeit der neuen AMD Serie wird vermutlich gerade mal an einer RTX 3070 kratzen. Als UHD Gamer wohl keine gute Wahl.

Bei DLSS wirst rechthaben aber Raytracing können auch die auf AMD Hardware bassirende Nextgen Konzolen.
 
@bibi99 du bist jung, warte es ab.
Amd wird einen 3080 Konkurrenten bringen, glaub es oder lass es, aber so wird es sein.
Ziemlich sicher auch noch dieses Jahr kaufbar.

Wäre es nicht. so, hätte Nvidia völlig anders agiert. Wetten?

AMD wird eine 3070 im Griff haben und nicht mehr.

Die Gründe wieso sie jetzt so agiert haben, hatte eher den Ursprung eine klares Statement zu setzen und zwar dass sie die Führerschaft haben und behalten wollen und nicht nur an AMD gerichtet.
 
@JACKxBAUER sehr unwahrscheinlich. Dann hätte Nvidia nicht so ein krass unvernünftiges (auch rein ökonomisch) Produkt rausgebracht.

Die 3080 wäre dann mit vernünftiger TDP, 5% weniger Leistung und nicht ans Limit geprügelten Chips gekommen. Die Partner hätten viel weniger Zeitdruck bekommen und Nvidia ne viel bessere Chip Ausbeute gehabt.
Die wollten offensichtlich eine bestimmte Leistung um jeden Preis erreichen und bevor Amd kommt noch Käufer abgreifen. Warte es ab, das ist eine von nackter Angst getriebene Aktion.
 
Darf man fragen wieso? Bin wirklich neugierig.

Offtopic, daher kurz:
Asus Boards haben einen Speicher, der angestoßen wird beim Systemstart. Damit bekommt man in Windows direkt ein Popup mit Treibern, Updates usw.
Nett gedacht, aber wenn da ein Virus reinkommt, dann ist der für einen Nutzer nicht erkennbar und kann auch komplette Systemresets und Formatierungen überstehen.

Sowas will man dann evtl. doch eher nicht im System haben.

Bei GPUs machen sie aber einen hervorragenden Job.
Wie Du gezeigt hast, haben sie wohl rechtzeitig die Probleme erkannt und reagiert.
Etwas, dass sonst wohl nur EVGA hinbekommen hat. Premium Preise für Premium Produkte, könnte man sagen, aber ehrlich gesagt würde ich so was auch bei der billigsten billig GPU erwarten. Eine GPU die crashed, ist kein Produkt, dass verkauft werden sollte. Egal zu welchem Preis.
 
Wieso wird das wieder NVidia vorgeworfen, wenn die Boardpartner die Designs verkacken?
Ist doch nicht NVidias Schuld, wenn die Partner ihre Designs nicht testen vor dem Verkauf? Die FE hat das Problem ja nicht.

Die Partner wollten halt, wohl bis auf Asus, die billigsten Komponenten verbauen und bezahlen jetzt den Preis dafür.
Mich persönlich freut das sogar, weil es mich ankotzt immer so hart recherchieren zu müssen, wo am Material gespart wird. Zeichnen sich immer wieder Asus und EVGA als Positivbeispiele ab. Man zahlt da mehr, ja. Aber man bekommt auch mehr.

Du weist schon das nicht ein mal Nvidia das eigene Referenz Design für die paar FE Karten verwendet hat. Ja unter den Karten die abschmieren scheinen vorallem die zu sein die nach Referenz Design gebaut sind.
 
@JACKxBAUER sehr unwahrscheinlich. Dann hätte Nvidia nicht so ein krass unvernünftiges (auch rein ökonomisch) Produkt rausgebracht.

Die 3080 wäre dann mit vernünftiger TDP, 5% weniger Leistung und nicht ans Limit geprügelten Chips gekommen. Die Partner hätten viel weniger Zeitdruck bekommen und Nvidia ne viel bessere Chip Ausbeute gehabt.
Die wollten offensichtlich eine bestimmte Leistung um jeden Preis erreichen und bevor Amd kommt noch Käufer abgreifen. Warte es ab, das ist eine von nackter Angst getriebene Aktion.
Nvidia war gezwungen diesen Schritt zu machen weil die "nextgen" Konsolen Raytracing bieten für den Preis einer 2070/2070 Super

Und Mal ehrlich alles unter 2080 super (eher 2080 TI) ist nicht wirklich für Raytracing spieleübergreifend zu gebrauchen.

Die Befürchtung war das Spieler statt sich eine neue GPU zu holen dann lieber eine Konsole holen.

Die 499€ für die 3070 sind nicht zufällig gewählt, dazu etwas übertrieben Bewerbung der Leistungsfahigkeit und schon ging die Rechnung auf.

Siehe allein den Hype hier im Luxx.
Nvidia war schlau genug selbst Kritikern eine FE zur Verfügung zu stellen (YT etc.)

Einzug Microsoft verhält sich ähnlich und verschickte dieses Jahr erstmals an soviele Ytuber Dummy Gehäuse und inzwischen sogar preproduction units (Hype generieren halt).
 
@reishasser Die Konsolen bieten Raytracing? Du wirst sehen, das es auch auf den Konsolen kaum zu sehen gibt. Weil es Leistung tankt und die Konsolen kaum welche haben. Nur weil sie Raytracing KÖNNEN heißt noch lange nicht das es überall genutzt wird.
Raytracing kann man schon mithilfe von DLSS auf einer 2060 nutzen und das auf 1080p 60fps. Zwar nicht auf Max Details, aber 2060er sind keine max Details Karten.
499€ für eine 3070 sind nicht zufällig gewählt? ahaha der Grund ist weil die 2070 schon 499€ OVP hatte.

Zum Thema:
Die Kondensatoren auf der Rückseite der GPU sind nicht alles, leider hat Zotac das verpennt und nicht ausreichend getestet.
EVGA hat dies z.b. gemacht und nur die Early Review Karten haben rein SP-Caps. Die End-Verbraucher Karten sollen auch MLCC haben.
Asus ging Overkill, weil sie unter anderem Stolz auf ihre automatische Manufaktur sind (gibt Werbe Videos dazu).

Es gibt Berichte neben Zotac von Gagabyte Karten, MSI Karten und möglicherweise frühere EVGA Karten.

Das Problem ist auch das die Karten eigentlich nur bis ca 1800Mhz in Spec sind. Wenn die Karten z.b. wenig Last haben oder noch Kühl sind, boosten sie von alleine auch mal höher bis 2Ghz.
Auch die FE kommt mal über 2Ghz. Es kommt auch auf das Spiel an ^^.

Die MSI hat 5x 470er SP-Caps und 1x MLCC. Warum sollte die also crashen? Haben die Leute vielleicht schlechte Netzteile?
Das Problem ist nicht so einfach wie es scheint.
Allerdings scheinen ASUS und FE Karten davon nicht betroffen zu sein.

Wenn ich meine FE habe wird die sowieso undervoltet ^^
 
Die Frage ist auch, ob Spieler so viel Geld ausgeben wollen für diesen Effekt:

bfv_2020_09_26_17_29_41_981.jpg
Nett anzusehen, läuft auch, aber das was es kostet (an Performance, Chipfläche und Endpreis) lohnt es sich kaum. Immerhin war der Hype gut genug mir so eine RTX zu beschaffen damit ich das auch endlich mal austesten konnte :fresse2:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh