[Sammelthread] NVIDIA GeForce RTX 3090 / RTX 3090 TI + FAQ

NVIDIA GeForce RTX 3090 / 3090 TI (In Progress)

ThnfdUH.jpg


sUZUm5S.jpg
1648633623369.png



NEWS

BIOS

Anleitung

1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Flashen auf eigene Gefahr. Ich übernehme keine Haftung dafür.


OVERCLOCKING | TOOLS

Kurze Info wegen Stromverbrauch: 3090 Trio auf Anschlag + 9900K mit 1,36v und 5,4 GHZ = 665W für das gesamte System bei mir (SH). Dies kann natürlich bei euch abweichen. Eine Strix kann 100W mehr ziehen. Daher würde ich jedem, der OC betreibt +850W Netzteile empfehlen

Undervolting PT Usage Tests mit meiner 3090 FTW3

800mv = 320 Watts
850mv = 370 Watts
900mv = 430 Watts
912mv = 450 Watts
918mv = PT Limit für FTW3 mit 450
UNDERVOLTING

800mv = 320 Watts
850mv = 370 Watts
900mv = 430 Watts
912mv = 450 Watts
918mv = PT Limit für FTW3 mit 450W



ManufacturerProductRTX 3080RTX 3090
NVIDIAFounders EditionMixed (2)Mixed (2)
AsusTUFMLCCMLCC
AsusStrixMLCCMLCC
EVGAXC3Mixed (1)Mixed (2)
EVGAFTW3Mixed (2)**Mixed (2)
GalaxBlackMixed (1)Unknown
GainwardPhoenixMixed (1)Unknown
GigabyteEagleUnknownPOSCAP
GigabyteGamingPOSCAPPOSCAP
Inno3DiChill X3Mixed (1)Unknown
Inno3DiChill X4Mixed (1)Unknown
MSIGaming X TrioMixed (1)Mixed (2)
MSIVentusMixed (1)Mixed (2)
PalitGaming ProMixed (1)Mixed (2)
ZotacTrinityPOSCAPPOSCAP
ZotacX-GamingUnknownPOSCAP

Quelle: https://www.reddit.com/r/nvidia/comments/izhpvs/the_possible_reason_for_crashes_and_instabilities/

3090 TI Power Limit Übersicht


ManufacturerProductRTX 3090 TI
NVIDIAFounders Edition450 W maximal
AsusTUF
AsusStrix OC LC516 W maximal
EVGABlack Gaming
EVGAFTW3
EVGAFTW 3 Ultra

KÜHLERTAUSCH | GARANTIE


HerstellerKühlerwechselOverclockingOvervoltingVBIOS flashen
ASRockKulanz5
Asus✓1✓1
EVGA✓2
Gainward✓3
Gigabyte
KFA²
MSI
Nvidia
Palit✓4
PowerColor
SapphireKulanz5
XFX
Zotac✓ (nur die ersten zwei Jahre)
1 Nur mit GPU Tweak II oder AMD/Nvidia-Software; 2 Nur Grafikkarte mit Dual-BIOS von denen eines im Originalzustand sein muss; 3 Nur mit Gainwards ExpertTool; 4 Nur mit Palits ThunderMaster; 5 Dazu sind die Hinweise des folgenden Abschnitts „Kulanz statt Garantie“ zu beachten

Quelle: Computerbase


MSI:


"Sie können bei Grafikkarten die Wärmeleitpaste oder Kühler Tauschen. Dieser muss jedoch die gleiche oder eine besser Leistung besitzen.
Sofern beim Umbau nichts beschädigt wird, bleibt die Garantie der Karte erhalten.
Sollte jedoch ein Fehler an der Karte auftreten, müssten Sie für eine Garantieabwicklung über den Händler den Original Zustand der Karte wieder herstellen.

Dies gilt für alle MSI Grafikkarten welche in Deutschland und Österreich von MSI Deutschland vertrieben wurden."

ZOTAC:

"die normalen zwei Jahre bleiben erhalten, ein Erweiterung der Garantie
ist dann ungültig. Die Karte muss wenn etwas im im Originalzustand
eingereicht werden."

Gainward und Palit

"Leider müssen wir Sie auch mitteilen, wenn Sie den originale Kühlkörper umbauen, werden Sie dadurch Ihre Ansprüche auf Garantie dieser Karte verlieren. Das gilt nicht nur für Gainward Produkt , sondern auch für Palit"


Aktuelle Referenzkarten

Zotac:

Zotac GAMING GeForce RTX 3080 TrinityZT-A30800D-10P
Zotac GAMING GeForce RTX 3080 TrinityZotac GAMING GeForce RTX 3090 TrinityZT-A30900D-10P
GALAX/KFA2:

Galax GeForce RTX 3080 SG38NWM3MD99NN
Galax GeForce RTX 3090 SG38NWM3MD99NK
KFA2 GeForce RTX 3080 SG39NSM5MD1GNA
KFA2 GeForce RTX 3090 SG39NSM5MD1GNK
Gainward:

Gainward RTX 3080 Phoenix471056224-1952
Gainward RTX 3080 Phoenix GS471056224-2010
Gainward RTX 3090 Phoenix471056224-1976
Gainward RTX 3090 Phoenix GS471056224-2034
Palit:

Palit GeForce RTX 3080 Gaming ProNED30800S19IA-132AA
Palit GeForce RTX 3080 Gaming Pro OCNED3080S19IA-132AA
Palit GeForce RTX 3090 Gaming ProNED30900S19SB-132BA
Palit GeForce RTX 3090 Gaming Pro OCNED3090S19SB-132BA
PNY:

PNY GeForce RTX 3080 XLR8 Gaming EPIC-XVCG308010TFXMPB
PNY GeForce RTX 3090 XLR8 Gaming EPIC-XVCG309024TFXPPB
INNO3D:

Inno3D GeForce RTX 3080 iChill X3C30803-106XX-1810VA37
Inno3D GeForce RTX 3080 iChill X4C30804-106XX-1810VA36
Inno3D GeForce RTX 3080 Twin X2 OCN30802-106XX-1810VA34
Inno3D GeForce RTX 3090 iChill X3C30903-246XX-1880VA37
Inno3D GeForce RTX 3090 iChill X4C30904-246XX-1880VA36
Inno3D GeForce RTX 3090 Gaming X3N30903-246X-1880VA37N


Mehr Informationen gibt es hier: https://www.overclock.net/threads/official-nvidia-rtx-3090-owners-club.1753930/
 
Zuletzt bearbeitet:
3 Beiträge zurück lesen. Aber nochmal für dich 1770€
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die ist doch klein gegen die Strix (siehe mein Bild hier) 😜
 
ich hab hier vor 2-3 Seiten Vergleichsbilder der Asus und der EVGA gepostet :)
 
Übrigends, besten Dank für die nicht erfolgte Antwort auf meine Frage.. Anyway, hier mal meine TUF OC mit dem Aorus Master BIOS @ Kotzgrenze :)
 
Gefunden
ich hab hier vor 2-3 Seiten Vergleichsbilder der Asus und der EVGA gepostet :)
Gefunden 11 Seiten zurück OK Die strix ist größer. Kein Wunder das er die Strix wollte statt der Ultra. Aber die EVGA bekommt von mir einen Block von Watercool schenkt wenn er verfügbar ist
 
Zuletzt bearbeitet:
Jungs, mal ne Frage. Was ist aktuell das stärkste BIOS, welches auf einer 3090 Reference funktioniert?
Läuft da sowas wie ein EVGA oder ASUS Bios drauf oder ist das Gigabyte das höchste der Gefühle?
Eigentlich sollte das EVGA-500W-BIOS das Stärkste sein...
Auf meiner FTW3 Ultra ist aber ein ganz Anderes noch stärker. Was nicht heißen muss, dass es für deine Karte taugt
Das 500W-BIOS läuft zb auf einer Strix super, aber auf der eigentlich dazugehörigen Karte (FTW3) aber nicht
Beitrag automatisch zusammengeführt:

Anhang anzeigen 549535
Das hier ist Max OC bei mir was unter Luft Grad geht. Neuer Treiber 457.30
Kannst du auch 4K benchen?
Beitrag automatisch zusammengeführt:

und weg war sie :fresse:



STRIXX <3
Meine läuft jetzt 1A... bin richtig glücklich :-)

Vor allem kann ich die Grafikkarte betreiben ohne sie in ihrer freien Entfaltung einzuschränken (PowerLimit).
Kannst du mal bitte einen Shot von GPU-Z machen, auf dem der gesamte Bereich „PerfCap Reason“ (vom ganzen Bench) zu sehen ist?
Müsste ja komplett blau sein...
Beitrag automatisch zusammengeführt:

Seit die Backplate ab und das Gehäuse zu ist, ist (für mich) Ruhe - aber ja, Spulenfiepen ist noch da.
Keine Angst, wegen den nackten RAM-Chips?
 
Zuletzt bearbeitet:
nö keine Angst, hab noch etwas Airflow im Case - mehr macht die Backplate da wahrscheinlich auch nicht
 
ich hatte das 500w Bios auf meiner Strix drauf. Laut Afterburner wurde nur 200 bis 300w gezogen. FPS waren dadurch bei nur 90-100 statt durchgehend 118.

FanStop funzte ebenfalls nicht mehr...
Display Ports gingen, glaube ich, 2 von 3.
Meintest du nicht GPU-Z?
Vielleicht war auch eine andere Karte gemeint auf YT, als die Strix. Man muss eben durchprobieren
Und man darf sich NIE auf die Anzeige in den Software-Tools verlassen. Ich hatte, wie weiter oben geschrieben nur 332W „Board Power Draw“, aber bis zu 740W Peak (ganzer PC), statt 640W Peak (ganzer PC) mit 500W-BIOS
 
Spulenfiepen meiner strix ist so gut wie komplett weg mit etwas Spannungsanpassung. Halbe Sekunde mal gefiept heute sonst nichts.

AC auf dem LG CX in 4K mit Hardwareunboxed settings ist ein butterweicher Traum. Keine Ruckler etc

Takt bleibt über 2Ghz.
 
Zuletzt bearbeitet:
Das sollte klar sein, wer bereits nen dicken i9 als 9900K oder 10900K hat braucht natürlich nicht wechseln^^. Nur, wer wie ich, von einem kleenen i7 4/8-Kerner kommt, hat heute wieder eine Auswahl :). Das Ding ist halt die Verfügbarkeit und da sind sie wieder die bzw. meine Probleme ... :fresse:.

naja wer kann der kann, 90% mussten sicher auch von der 2080Ti nicht zur 3090 wechseln, taten es aber weil es neu war.
ich hatte auch nen 9900k @ 5.2gz mit getuntem 4700mhz ram setting, bin trozdem zu amd geswitched weil ich was neues wollte, und weil rocket lake wird nix :d

Darf ich mal in die Runde fragen. Alle die sich für eine 3090 Strix OC entschieden haben.
Was waren für euch die Gründe und warum keine FE bzw. was macht die Strix besser als die FE (ausgenommener Grund "Asus Fan"^^)?
ich hab nen FE block hier seit knapp 2 monaten, haette mir ne FE gewuenscht, ist aber ne FTW 3 ultra geworden.

Neues BIOS, neues Glück... :-)
Jetzt zieht die Karte an der Steckdose gemessen deutlich mehr, als mit dem 500W BIOS?
Also wird da definitiv noch was von EVGA kommen...

btw:
PCIe Slot Power liegt immer zwischen 69-71W (beim 500W-BIOS ca. 80W <-- too much) (y)
Bei Timespy (insbesondere bei Test 2) zieht die Karte soviel Strom, dass ich echt Angst bekomme - kurzzeitig 740W (gesamter PC) :oops:
Soviel hat bei mir noch nie eine einzelne Karte gezogen. Im Vergleich zum 500W-BIOS ca. 90-100W mehr an der Steckdose...

"WTF"-BIOS...

500W-BIOS...

Rechts war mit dem 500W-BIOS...
Und bei beiden wurde der gleiche Takt eingestellt
CPU lief stock und GPU mit Luft bei Raumtemp.

XC3 bios links, 500w bios rechts?
 
Zuletzt bearbeitet:
Das Schnellere ist das XC3 - also links
Mit dem BIOS könnte man sich zumindest den PCIe-Shunt-Mod sparen, weil die Karte mit XC3 jetzt frei atmen kann

Wie ich gehört hab, ist EVGA der einzige Hersteller, der den 8Pin-Power Draw bei zuviel PCIe-Power Draw limitiert.
Daher funktioniert das 500W-BIOS bei manchen Karten besser, als bei EVGA. Aber ist ja noch im Beta-Stadium...
 
Zuletzt bearbeitet:
Should i stay or should i go.

Die Strix ist jetzt auch bei mir angekommen. Kann mich mit dem Einbau aber noch zurückhalten. Jetzt habe ich so lange gewartet, kann ich mir auch noch den RX6800/6900 Release anschauen.

Ich bastel aber noch an meinem neuen build. Der 5900X läuft schonmal.

20201115_083835.jpg
 
Wie ich gehört hab, ist EVGA der einzige Hersteller, der den 8Pin-Power Draw bei zuviel PCIe-Power Draw limitiert.
Daher funktioniert das 500W-BIOS bei manchen Karten besser, als bei EVGA. Aber ist ja noch im Beta-Stadium...
Interessanter Ansatz. Und klingt für mich auch irgendwie plausibel.
Für den Alltag und zur Schonung der Karte (und Komponenten?) top. Nur wer sich ein mit bis 500W beworbenes Monster holt, der will das (in Benches) auch mal ausfahren. Daher sollte EVGA schnellstens einen Modi entwickeln, wo diese "Sicherheitsschaltung bzw. Überwachung" komplett abgestellt werden kann und man die 500W auch ausfahren kann. Ansonsten würden einige das (zurecht) als B_etrug hinstellen...
 
Na eine KingPin sollte doch noch kommen, mit der geht das dann bestimmt...
 
ich hatte auch nen 9900k @ 5.2gz mit getuntem 4700mhz ram setting, bin trozdem zu amd geswitched weil ich was neues wollte, und weil rocket lake wird nix
Das ist ja das Ding. Ein dicker ZEN3 mit "nur" 4,8GHz vermöbelt trotzdem einen dicken Intel@ 5,3GHz. Die Rohleistung ist einfach wesentlich höher bei den neuen AMD CPUs.
Früher gab es nicht umsonst Angaben wie +3200, obwohl die CPU mit einigen hundert MHz weniger lief^^.
Finde es geil, das AMD Intel ordentlich Paroli bietet, so das sie sich ordentlich bewegen müssen. Nix mehr mit auf den Lorbeeren ausruhen!!! Weg von 14nM++++++++++++++++++++++++ alleine wird aber da nicht helfen...

Freue mich riesig auf mein Rechnerupgrade + Umbau. 5900X come to me please :d.
 
Wärmebildanalyse
Strix Luft vs Wasser
VRAM hinten


Testaufbau + Pad Soll- und Ist Zustand
Flir Testaufbau.jpgPad.jpgStrix Pad muss.JPG


Strix air idle+load+data
Strix Luft Idle.jpgStrix Luft Last.jpgData Air.jpg

Strix water idle+load+data
Strix Wasser Idle.jpgStrix Wasser Last.jpgData Water.jpg

Hinweise
- custom curve @ 0,950V und VRAM + 500Mhz
- 35°C Wasser unter Last
- 15min Warmup in Modern Warfare + gleichbleibende Last
- Kamera Flir One Pro Android (max. 3 Messpunkte möglich)

Fazit:
- Pro 14°C kältere GPU+kühlere VRM's bringen ca. 15Watt Ersparnis
also grob 1°C kälter = 1watt weniger
- VRAM wird leicht wärmer hinten ist aber fast innerhalb Messtoleranz
- interessant ist die kühle VRAM Reihe oben unter Last mit Wasserkühlung

Und Spulen sind in etwa gleich laut geblieben da keine Wärmeleitpads benutzt wurden.
 
Zuletzt bearbeitet:
War jetzt aber komplett ohne Airflow hinter der Karte?
 
35°C Wassertemperatur ok. Aber 60°C GPU-Temp mit nem Fullcover? Ich würde im Dreieck springen ... :shot:
(mache ich schon bei 50°C meiner 1080Ti, weil die MX-4 Müll ist...)
 
Ja, da passt irgendwas nicht, einen MoRa seh ich ja?
Bei mir sind es maximal 47°C, dann ists aber auch echt warm im Zimmer und ich lasse einen Dauerbench laufen, normal sind so um die 43-44°C beim Zocken.
 
Vermutlich hat er MX-4 WLP benutzt.... :fresse:
Bei mir lüppt es maximal eine Woche mit GPU-Temps unter 38°C, danach gehts hoch bis zu 50°C mit der MX-4 WLP! Konnte das selber validieren, da Kühler runter und neue MX-4 druff damals. Result nach einer Woche wieder 50°C GPU-Temp... Da ich zu faul war wieder Wasser raus, Karte raus Kühler runter lasse ich das jetzt so laufen. 50°C sind ja noch dunkelgrün. Allerdings nervt es mich trotzdem, da ich andere Temps gewohnt bin. (Kryonaut liegt hier schon rum für 5900X + 3090 oder 6900XT, Tschüss MX-4...)

Und/Oder er kämpft mit dem von Igor public gemachten "Toleranzproblem".

 
Das ist ja das Ding. Ein dicker ZEN3 mit "nur" 4,8GHz vermöbelt trotzdem einen dicken Intel@ 5,3GHz. Die Rohleistung ist einfach wesentlich höher bei den neuen AMD CPUs.
Früher gab es nicht umsonst Angaben wie +3200, obwohl die CPU mit einigen hundert MHz weniger lief^^.
Finde es geil, das AMD Intel ordentlich Paroli bietet, so das sie sich ordentlich bewegen müssen. Nix mehr mit auf den Lorbeeren ausruhen!!! Weg von 14nM++++++++++++++++++++++++ alleine wird aber da nicht helfen...

Freue mich riesig auf mein Rechnerupgrade + Umbau. 5900X come to me please :d.

Mein 9900k laueft nach der lm erneuerung besser denn je, 5,3 koennten drinn sein, mal sehen ob ich nen zen3 in cpu schlagen kann..
Beitrag automatisch zusammengeführt:

Wärmebildanalyse
Strix Luft vs Wasser
VRAM hinten


Testaufbau + Pad Soll- und Ist Zustand
Anhang anzeigen 549965Anhang anzeigen 549966Anhang anzeigen 549968


Strix air idle+load+data
Anhang anzeigen 549944Anhang anzeigen 549945Anhang anzeigen 549961

Strix water idle+load+data
Anhang anzeigen 549946Anhang anzeigen 549947Anhang anzeigen 549963

Hinweise
- custom curve @ 0,950V und VRAM + 500Mhz
- 35°C Wasser unter Last
- 15min Warmup in Modern Warfare + gleichbleibende Last
- Kamera Flir One Pro Android (max. 3 Messpunkte möglich)

Fazit:
- Pro 14°C kältere GPU+kühlere VRM's bringen ca. 15Watt Ersparnis
also grob 1°C kälter = 1watt weniger
- VRAM wird leicht wärmer hinten ist aber fast innerhalb Messtoleranz
- interessant ist die kühle VRAM Reihe oben unter Last mit Wasserkühlung

Und Spulen sind in etwa gleich laut geblieben da keine Wärmeleitpads benutzt wurden.

Sprich ausser silence btingt wakue so gut wie nichts ?
Beitrag automatisch zusammengeführt:

Laut Kommentaren scheint das wohl eher wieder noch ein neues Flagship von MSI zu sein (Suprim X), welches nicht verfügbar sein wird :P

Die solln die Lightning bringen und keine Sub irgendwas
 
Zuletzt bearbeitet:
Hat der 10900K bei 5,3GHz nicht geschafft, wie soll das der 9900K dann packen? ;)
 
Wieso soll jetzt Wakü nix bringen? Wie gesagt bei mir sind die Temps nochmal 16°C Kühler 😜

Und als Wärmeleitpaste benutze ich seit Jahren die Prolimatech PK1 (30g) - da hab ich mal so eine grosse Tube gekauft, seitdem wird die genutzt, bin bisher sehr zufrieden damit 👍
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh