[Sammelthread] NVIDIA GeForce RTX 3090 / RTX 3090 TI + FAQ

NVIDIA GeForce RTX 3090 / 3090 TI (In Progress)

ThnfdUH.jpg


sUZUm5S.jpg
1648633623369.png



NEWS

BIOS

Anleitung

1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Flashen auf eigene Gefahr. Ich übernehme keine Haftung dafür.


OVERCLOCKING | TOOLS

Kurze Info wegen Stromverbrauch: 3090 Trio auf Anschlag + 9900K mit 1,36v und 5,4 GHZ = 665W für das gesamte System bei mir (SH). Dies kann natürlich bei euch abweichen. Eine Strix kann 100W mehr ziehen. Daher würde ich jedem, der OC betreibt +850W Netzteile empfehlen

Undervolting PT Usage Tests mit meiner 3090 FTW3

800mv = 320 Watts
850mv = 370 Watts
900mv = 430 Watts
912mv = 450 Watts
918mv = PT Limit für FTW3 mit 450
UNDERVOLTING

800mv = 320 Watts
850mv = 370 Watts
900mv = 430 Watts
912mv = 450 Watts
918mv = PT Limit für FTW3 mit 450W



ManufacturerProductRTX 3080RTX 3090
NVIDIAFounders EditionMixed (2)Mixed (2)
AsusTUFMLCCMLCC
AsusStrixMLCCMLCC
EVGAXC3Mixed (1)Mixed (2)
EVGAFTW3Mixed (2)**Mixed (2)
GalaxBlackMixed (1)Unknown
GainwardPhoenixMixed (1)Unknown
GigabyteEagleUnknownPOSCAP
GigabyteGamingPOSCAPPOSCAP
Inno3DiChill X3Mixed (1)Unknown
Inno3DiChill X4Mixed (1)Unknown
MSIGaming X TrioMixed (1)Mixed (2)
MSIVentusMixed (1)Mixed (2)
PalitGaming ProMixed (1)Mixed (2)
ZotacTrinityPOSCAPPOSCAP
ZotacX-GamingUnknownPOSCAP

Quelle: https://www.reddit.com/r/nvidia/comments/izhpvs/the_possible_reason_for_crashes_and_instabilities/

3090 TI Power Limit Übersicht


ManufacturerProductRTX 3090 TI
NVIDIAFounders Edition450 W maximal
AsusTUF
AsusStrix OC LC516 W maximal
EVGABlack Gaming
EVGAFTW3
EVGAFTW 3 Ultra

KÜHLERTAUSCH | GARANTIE


HerstellerKühlerwechselOverclockingOvervoltingVBIOS flashen
ASRockKulanz5
Asus✓1✓1
EVGA✓2
Gainward✓3
Gigabyte
KFA²
MSI
Nvidia
Palit✓4
PowerColor
SapphireKulanz5
XFX
Zotac✓ (nur die ersten zwei Jahre)
1 Nur mit GPU Tweak II oder AMD/Nvidia-Software; 2 Nur Grafikkarte mit Dual-BIOS von denen eines im Originalzustand sein muss; 3 Nur mit Gainwards ExpertTool; 4 Nur mit Palits ThunderMaster; 5 Dazu sind die Hinweise des folgenden Abschnitts „Kulanz statt Garantie“ zu beachten

Quelle: Computerbase


MSI:


"Sie können bei Grafikkarten die Wärmeleitpaste oder Kühler Tauschen. Dieser muss jedoch die gleiche oder eine besser Leistung besitzen.
Sofern beim Umbau nichts beschädigt wird, bleibt die Garantie der Karte erhalten.
Sollte jedoch ein Fehler an der Karte auftreten, müssten Sie für eine Garantieabwicklung über den Händler den Original Zustand der Karte wieder herstellen.

Dies gilt für alle MSI Grafikkarten welche in Deutschland und Österreich von MSI Deutschland vertrieben wurden."

ZOTAC:

"die normalen zwei Jahre bleiben erhalten, ein Erweiterung der Garantie
ist dann ungültig. Die Karte muss wenn etwas im im Originalzustand
eingereicht werden."

Gainward und Palit

"Leider müssen wir Sie auch mitteilen, wenn Sie den originale Kühlkörper umbauen, werden Sie dadurch Ihre Ansprüche auf Garantie dieser Karte verlieren. Das gilt nicht nur für Gainward Produkt , sondern auch für Palit"


Aktuelle Referenzkarten

Zotac:

Zotac GAMING GeForce RTX 3080 TrinityZT-A30800D-10P
Zotac GAMING GeForce RTX 3080 TrinityZotac GAMING GeForce RTX 3090 TrinityZT-A30900D-10P
GALAX/KFA2:

Galax GeForce RTX 3080 SG38NWM3MD99NN
Galax GeForce RTX 3090 SG38NWM3MD99NK
KFA2 GeForce RTX 3080 SG39NSM5MD1GNA
KFA2 GeForce RTX 3090 SG39NSM5MD1GNK
Gainward:

Gainward RTX 3080 Phoenix471056224-1952
Gainward RTX 3080 Phoenix GS471056224-2010
Gainward RTX 3090 Phoenix471056224-1976
Gainward RTX 3090 Phoenix GS471056224-2034
Palit:

Palit GeForce RTX 3080 Gaming ProNED30800S19IA-132AA
Palit GeForce RTX 3080 Gaming Pro OCNED3080S19IA-132AA
Palit GeForce RTX 3090 Gaming ProNED30900S19SB-132BA
Palit GeForce RTX 3090 Gaming Pro OCNED3090S19SB-132BA
PNY:

PNY GeForce RTX 3080 XLR8 Gaming EPIC-XVCG308010TFXMPB
PNY GeForce RTX 3090 XLR8 Gaming EPIC-XVCG309024TFXPPB
INNO3D:

Inno3D GeForce RTX 3080 iChill X3C30803-106XX-1810VA37
Inno3D GeForce RTX 3080 iChill X4C30804-106XX-1810VA36
Inno3D GeForce RTX 3080 Twin X2 OCN30802-106XX-1810VA34
Inno3D GeForce RTX 3090 iChill X3C30903-246XX-1880VA37
Inno3D GeForce RTX 3090 iChill X4C30904-246XX-1880VA36
Inno3D GeForce RTX 3090 Gaming X3N30903-246X-1880VA37N


Mehr Informationen gibt es hier: https://www.overclock.net/threads/official-nvidia-rtx-3090-owners-club.1753930/
 
Zuletzt bearbeitet:
@****** wie läuft die FTW jetzt konntest schon mal bissel testen?
1.haut das PT mit 450W spitze hin ?
2.Pcie Expressport unter 75W?
3.Ram Temps Max ?
4.Serien NR 2012 /2014 ?
Das sind so die Punkte die mich gerade interessieren .
Meine 3080 FTW Ultra hat so ca 55W auf dem PCIE wenn ich 400W auf die Karte gebe.

:wink:
Meine Strix OC zieht am PCIe-Slot glaub 47W und Board Power Draw war 493W (obwohl 480W-BIOS drauf ist)
Alles unter 100W (PCIe) sollte bei der FTW3 "unbedenklich" sein, da erst ab 120W die 10A-Sicherung durch geht. Aber k.A. was das MB mitmachen kann

Aber ich wiederhole mich nochmal...
Keiner weiss wirklich, ohne es nachgemessen zu haben, was wirklich über den PCIe-Slot geht

Ich hätte die Idee das jmd "PCAT" von Nvidia "nachzubaut" (von mir aus ohne Software-Analyse)
Da wird der PCIe-Slot und bis zu 3x 8PIN gleichzeitig ausgelesen

Siehe Beispiel "XC3-BIOS" auf der FTW3 (und Ultra)...
Das Ding zeigt in GPU-Z und HWinfo etwas an, was real garnicht stimmt (PL und PT erst recht nicht)
Weiss ich, ob das original BIOSe der Strix OC plausible Werte in Software anzeigt? Leider nicht... :rolleyes2:

Daher will ich das selbst messen können
Also, falls jmd Bock hat, so eine Lösung, wie "PCAT" zu basteln oder jmd kennt, der das kann, ich würde mich dafür interessieren ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
BEhalte doch einfach die Strix, sieht besser aus, pcie strom stimmt, gute hw, gutes pt..
Ich würds so machen.
 
Ich lasse die Karte morgen testen. Das geht leider nicht bei mir, weil ich dazu meine WaKü tiefgreifend aufbrechen muss. Vor allem die South-Bridge-Kühlung (WaKü) müsste ich wieder in LuKü ändern, ansonsten würde der "Ziegelstein" nicht ins System passen.
Eigentlich sollte die Karte liegen, bis alle WaKü-Komponenten beisammen sind. Wegen der beschädigten Verpackung will ich jedoch so schnell wie möglich Klarheit, ob die Karte defekt ist oder nicht. Eines kann ich jetzt schon sagen: CK ist für mich für alle Zeit erledigt.
Die SN beginnt mit 2012...
Sind die Hinweise real, dass teilweise über 75 W aus dem PCIE-Slot gezogen wird?
Schwarze Lippe?
Inwiefern real? Ich kann mich auf GPU-Z und HWinfo nicht zu 100% verlassen (sollte man auch niemals tun, ohne es nachgemessen zu haben). Siehe oben...
 
GPU-Z ... :fresse: :d

Hat das mal wer mit entsprechendem Equipment (professionell) nachgemessen? (Wie z.b. HWLuxx, CB oder Igor)
Ja genau, jetzt liegt es an GPU-Z
Und das ist dann auch nur Zufall das gpu-z das nur bei evga Karten anzeigt und alle anderen Karten im Rahmen sind.
Als nächstes kommt jemand mit equip, beweist das ganze noch eindeutiger und dann ist die Karte deiner Meinung nach warscheinlich am pcie geshunted und alles fake 😂.
Liest du dir deinen Durchfall überhaupt durch?

Die evga Karte hat ne 10A Sicherung für den pcie auf der Karte, welche bei 120w flöten geht.
Die Sicherung hat bei einigen schon das zeitliche gesegnet, weil der pcie Slot viel zu viel schluckt und dadurch kommen auch viele Tote FTW3 Zustande.

Ich bin eigentlich evga fanboy der ersten Stunde, aber so eine Faulheit und schlechtes custom Design/pcb unterstütz ich nicht.

"an nem fix wird gearbeitet"

Da gibt's nix zu fixen, da alle Hersteller auf nen neuen voltage Controller aufm pcb umgestiegen sind und evga meinte sie können die alten günstigeren analogen Controller auf die ampere Karten klatschen.

Da hilft nur eine rev.2 und Hardware Tausch.
 
WEnnde überlegst welche de behalten sollst musste doch 2 haben ?
Ja, seit Donnerstag
Beitrag automatisch zusammengeführt:

Ich lasse die Karte morgen testen. Das geht leider nicht bei mir, weil ich dazu meine WaKü tiefgreifend aufbrechen muss. Vor allem die South-Bridge-Kühlung (WaKü) müsste ich wieder in LuKü ändern, ansonsten würde der "Ziegelstein" nicht ins System passen.
Eigentlich sollte die Karte liegen, bis alle WaKü-Komponenten beisammen sind. Wegen der beschädigten Verpackung will ich jedoch so schnell wie möglich Klarheit, ob die Karte defekt ist oder nicht. Eines kann ich jetzt schon sagen: CK ist für mich für alle Zeit erledigt.
Die SN beginnt mit 2012...
Sind die Hinweise real, dass teilweise über 75 W aus dem PCIE-Slot gezogen wird?
FTW3 Ultra = normaler Ziegelstein
Strix OC = großer Ziegelstein :oops: :ROFLMAO:

Hatte der EVGA-Karton ein Siegel?
Weiß gerade nicht mehr, wie es bei mir war (ist 3 Monate her)

Vielleicht ist es beim Packen nicht aufgefallen, weil der Packer sicher nicht alle 6 Seiten begutachtet
 
Zuletzt bearbeitet:
Nö. Glaube da wird viel zu viel Quark+Käse verbreitet.
( Man kennt sowas ja: "Er hat sich in den kleinen Finger geschnitten" und am Ende der Infokette kommt dann an: "Er hat sich den kompletten Arm abgetrennt"... )
Stimmt so nicht...
Das wird hier schon recht lange diskutiert...
Manche haben das "Problem" - Andere wiederum nicht. Bei denen funktioniert auch das 500W-BIOS tadellos

Ich bin jedenfalls guter Dinge, dass EVGA ein Lösung finden wird (neues BIOS oder Kartentausch)
Und mit "Advanced RMA" kann es in der Situation nicht besser laufen. Besser haben es da nur noch Leute im Raum um München (Vorort-Tausch)
 
Was würde denn passieren wenn mehr als die 75W aus dem PCIe Slot gezogen werden
Habe einen kurzen test gemacht und GPU-Z sagt etwas mehr als 78W
 
War dem ersten Anschein nach versiegelt - mit fantastic-plastic Aufkleber. :fresse2:
Die Stromzufuhr über PCIe sollte sich doch über ein gutes VGA-BIOS regeln lassen.
Wie meinen?
Mach mal nen Shot :-)
Beitrag automatisch zusammengeführt:

Was würde denn passieren wenn mehr als die 75W aus dem PCIe Slot gezogen werden
Habe einen kurzen test gemacht und GPU-Z sagt etwas mehr als 78W
Da passiert garnichts ;)
Hatte glaube über 80W (muss mal gucken, ob ich einen Shot irgendwo finde - bin gerade nicht zuhause)
Und wie oben geschrieben - NICHT nur auf GPU-Z und HWinfo verlassen. Oder vertraust du Spannungen im BIOS/UEFI deines MBs? Tu das niemals
Beitrag automatisch zusammengeführt:


PCIe Riser Kabel & Platinen sind auf jeden Fall immer sicher. :haha:
Jetzt, wo ich das sehe, könnte ich mir vorstellen, dass es evtl. doch am Riser lag
Bei EVGA ist die PCIe-Power ja auch fürs Balacing auf die 2x/3x 8PIN zuständig
Aber vielleicht liege ich auch völlig daneben. Aber der Alphacool-Block als Ursache für nen verschmorten 8-PIN-Stecker? No way
 
Zuletzt bearbeitet:
Endlich mal eine sinnvolle Nutzung möglich für den zusätzlichen PCIe Power Supply Stecker auf dem Mobo, EVGA FTW. :fresse2:
 
Zuletzt bearbeitet:
GPU-Z ... :fresse: :d

Hat das mal wer mit entsprechendem Equipment (professionell) nachgemessen? (Wie z.b. HWLuxx, CB oder Igor)
Glaube CB hatte mal "leihweise" das "NVIDIA Reviewer Toolkit" (such dort mal). Und Igor hatte das auch
Ich hätte das auch gerne (nicht nur leihweise). Aber das Ding sieht echt sch... aus :fresse: (schlechter 3D-Druck des "LDAT")
 
Habe jetzt mal mit OC getestet. Bis auf einen Peak auf 81,6W waren es oft 79W. Was könnte denn passieren bei den Werten?
 
BEhalte doch einfach die Strix, sieht besser aus, pcie strom stimmt, gute hw, gutes pt..
Ich würds so machen.
Aussehen spielt bei diesem Kühler keine Rolle (Kühler ist aber für die FTW3/Ultra) :giggle: Sowas von endgeil, wenn er so erscheint... :oops:
Aber zugegeben, geht die Strix schon besser (wenn auch nur messbar). Der Service ist dafür bei EVGA widerrum top. Immer diese Kompromisse
FTW_5.png


FTW_2.png
 
Welchen Wert schaut man denn in HWinfo an?
Ist es „GPU PCIe +12V Input Power“ ?
 
Ja genau, jetzt liegt es an GPU-Z
Und das ist dann auch nur Zufall das gpu-z das nur bei evga Karten anzeigt und alle anderen Karten im Rahmen sind.
Als nächstes kommt jemand mit equip, beweist das ganze noch eindeutiger und dann ist die Karte deiner Meinung nach warscheinlich am pcie geshunted und alles fake 😂.
Liest du dir deinen Durchfall überhaupt durch?

Die evga Karte hat ne 10A Sicherung für den pcie auf der Karte, welche bei 120w flöten geht.
Die Sicherung hat bei einigen schon das zeitliche gesegnet, weil der pcie Slot viel zu viel schluckt und dadurch kommen auch viele Tote FTW3 Zustande.

Ich bin eigentlich evga fanboy der ersten Stunde, aber so eine Faulheit und schlechtes custom Design/pcb unterstütz ich nicht.

"an nem fix wird gearbeitet"

Da gibt's nix zu fixen, da alle Hersteller auf nen neuen voltage Controller aufm pcb umgestiegen sind und evga meinte sie können die alten günstigeren analogen Controller auf die ampere Karten klatschen.

Da hilft nur eine rev.2 und Hardware Tausch.
Kein Durchfall, wenn man das "Toolkit" von NV hat ;)
Stand das im EVGA-Forum? Hab längere Zeit nicht mehr im Thread mitgelesen. Evtl stand es dort auch schon, bevor ich dort angefangen hab zu lesen (ab Site 30 oder so)
 
kein suprim x user hier der den pcie slot power draw der karte nachsehen kann?
 
Bin am überlegen eine Advanced RMA zu machen. Erstmal deswegen weil ich ca. 1x am Tag ein kurzen Blackscreen habe wenn ich nicht HW Beschleunigung vom Browser oder im Treieber auf MAx Leistung stelle.
Und jetzt das mit den 80W aus dem PCIe Slot.
 
Wann soll dieser Kühler von watercool angeboten werden?
Watercool???
Das ist feinstes "Aqua Computer" :giggle:

Ein Datum wurde nicht genannt, aber ich denke vor April darf man damit nicht rechnen
Es wäre aber soweit ich weiss die erste durchflossenen, aktive BP

Von WC habe ich davon nichts gehört/gelesen, aber ich könnte mir gut vorstellen, dass die mitziehen
Denn sehr heisse, passive BPs laß man schon häufiger und das passt mir garnicht
 
Bis der Kühler kommt hat Lovelace das Tapeout hinter sich. /s

Bin am überlegen eine Advanced RMA zu machen. Erstmal deswegen weil ich ca. 1x am Tag ein kurzen Blackscreen habe wenn ich nicht HW Beschleunigung vom Browser oder im Treieber auf MAx Leistung stelle.
Und jetzt das mit den 80W aus dem PCIe Slot.
Welchen Browser nutzt du? Chrome wahrscheinlich..?

Prinzipiell sollte ein gutes Board ein paar Watt über der Spezifikation zwar locker abkönnen, aber naja, was EVGA da macht muss man nicht verstehen.

Generell geht mir deren Gefrickel und Fanboyschar um ehrlich zu sein schon seit Jahren auf die Nerven. Die heutigen Produkte sind overrated as fuck und zehren noch von dem Ruf aus alten nForce / Classified Zeiten. Ist ja toll, dass die längere Garantie geben. Besser ist es jedoch die Garantie nie in Anspruch nehmen zu müssen.
 
Ich nutze den Feurigen Fuchse als Browser. Aber ist auch bei Opera schon passiert was ja auf ?Crominum? beruht
 
Bin am überlegen eine Advanced RMA zu machen. Erstmal deswegen weil ich ca. 1x am Tag ein kurzen Blackscreen habe wenn ich nicht HW Beschleunigung vom Browser oder im Treieber auf MAx Leistung stelle.
Und jetzt das mit den 80W aus dem PCIe Slot.
Welche Auflösung? Wieviel Hz?
Könnte auch an einem fehlerhaften bzw. daran liegen, dass das Monitorkabel nicht mit sehr hoher Auflösung und hoher Bildwechselfrequenz klarkommt

Oder mal den Treiber mit DDU entfernen und neu installieren (ggf. versch. Versionen probieren)

Ich hatte mit einem Billig-HDMI-Kabel (das von der Vodafone Giga TV 4K Box), das ich übergangsweise benutzte, im Ladescreen von AC Odyssey (quasi ein Standbild) sporadische Artefakte
Diese verschwanden mit dem neuen Kabel von "Club3D" (eines des besten Kabel auf dem Markt)
Beitrag automatisch zusammengeführt:

Bis der Kühler kommt hat Lovelace das Tapeout hinter sich. /s


Welchen Browser nutzt du? Chrome wahrscheinlich..?

Prinzipiell sollte ein gutes Board ein paar Watt über der Spezifikation zwar locker abkönnen, aber naja, was EVGA da macht muss man nicht verstehen.

Generell geht mir deren Gefrickel und Fanboyschar um ehrlich zu sein schon seit Jahren auf die Nerven. Die heutigen Produkte sind overrated as fuck und zehren noch von dem Ruf aus alten nForce / Classified Zeiten. Ist ja toll, dass die längere Garantie geben. Besser ist es jedoch die Garantie nie in Anspruch nehmen zu müssen.
Der Verantwortliche dort wurde hoffentlich rund gemacht
 
Zuletzt bearbeitet:
Windows ist neu installiert und das Kabel schaft die Volle auflösung und Hz meines Monitors.
5120 x 1440p bei 240Hz aber aktuelle ist er geteil heißt das Kabel muss nur 2560 x 1440p 120Hz schaffen. und wenn es alle Monitor betrifft kann es nicht nur ein kabel sein.
auch mein 8" Monitor wird schwarz.

Und DDU hatte ich vor der Neuinstalation schon ein paar mal versucht
 
Kein Durchfall, wenn man das "Toolkit" von NV hat ;)
Stand das im EVGA-Forum? Hab längere Zeit nicht mehr im Thread mitgelesen. Evtl stand es dort auch schon, bevor ich dort angefangen hab zu lesen (ab Site 30 oder so)
Ja, steht dort mehrfach in mehreren topics.
Ist aber schon ne weile her 😅
 
Bin am überlegen eine Advanced RMA zu machen. Erstmal deswegen weil ich ca. 1x am Tag ein kurzen Blackscreen habe wenn ich nicht HW Beschleunigung vom Browser oder im Treieber auf MAx Leistung stelle.
Und jetzt das mit den 80W aus dem PCIe Slot.
Das ist eins der Probleme mit den evga Karten.
Die blackscreens werden mit der Zeit mehr bis die Karte den Geist aufgibt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh