[Sammelthread] NVIDIA GeForce RTX 3090 / RTX 3090 TI + FAQ

NVIDIA GeForce RTX 3090 / 3090 TI (In Progress)

ThnfdUH.jpg


sUZUm5S.jpg
1648633623369.png



NEWS

BIOS

Anleitung

1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Flashen auf eigene Gefahr. Ich übernehme keine Haftung dafür.


OVERCLOCKING | TOOLS

Kurze Info wegen Stromverbrauch: 3090 Trio auf Anschlag + 9900K mit 1,36v und 5,4 GHZ = 665W für das gesamte System bei mir (SH). Dies kann natürlich bei euch abweichen. Eine Strix kann 100W mehr ziehen. Daher würde ich jedem, der OC betreibt +850W Netzteile empfehlen

Undervolting PT Usage Tests mit meiner 3090 FTW3

800mv = 320 Watts
850mv = 370 Watts
900mv = 430 Watts
912mv = 450 Watts
918mv = PT Limit für FTW3 mit 450
UNDERVOLTING

800mv = 320 Watts
850mv = 370 Watts
900mv = 430 Watts
912mv = 450 Watts
918mv = PT Limit für FTW3 mit 450W



ManufacturerProductRTX 3080RTX 3090
NVIDIAFounders EditionMixed (2)Mixed (2)
AsusTUFMLCCMLCC
AsusStrixMLCCMLCC
EVGAXC3Mixed (1)Mixed (2)
EVGAFTW3Mixed (2)**Mixed (2)
GalaxBlackMixed (1)Unknown
GainwardPhoenixMixed (1)Unknown
GigabyteEagleUnknownPOSCAP
GigabyteGamingPOSCAPPOSCAP
Inno3DiChill X3Mixed (1)Unknown
Inno3DiChill X4Mixed (1)Unknown
MSIGaming X TrioMixed (1)Mixed (2)
MSIVentusMixed (1)Mixed (2)
PalitGaming ProMixed (1)Mixed (2)
ZotacTrinityPOSCAPPOSCAP
ZotacX-GamingUnknownPOSCAP

Quelle: https://www.reddit.com/r/nvidia/comments/izhpvs/the_possible_reason_for_crashes_and_instabilities/

3090 TI Power Limit Übersicht


ManufacturerProductRTX 3090 TI
NVIDIAFounders Edition450 W maximal
AsusTUF
AsusStrix OC LC516 W maximal
EVGABlack Gaming
EVGAFTW3
EVGAFTW 3 Ultra

KÜHLERTAUSCH | GARANTIE


HerstellerKühlerwechselOverclockingOvervoltingVBIOS flashen
ASRockKulanz5
Asus✓1✓1
EVGA✓2
Gainward✓3
Gigabyte
KFA²
MSI
Nvidia
Palit✓4
PowerColor
SapphireKulanz5
XFX
Zotac✓ (nur die ersten zwei Jahre)
1 Nur mit GPU Tweak II oder AMD/Nvidia-Software; 2 Nur Grafikkarte mit Dual-BIOS von denen eines im Originalzustand sein muss; 3 Nur mit Gainwards ExpertTool; 4 Nur mit Palits ThunderMaster; 5 Dazu sind die Hinweise des folgenden Abschnitts „Kulanz statt Garantie“ zu beachten

Quelle: Computerbase


MSI:


"Sie können bei Grafikkarten die Wärmeleitpaste oder Kühler Tauschen. Dieser muss jedoch die gleiche oder eine besser Leistung besitzen.
Sofern beim Umbau nichts beschädigt wird, bleibt die Garantie der Karte erhalten.
Sollte jedoch ein Fehler an der Karte auftreten, müssten Sie für eine Garantieabwicklung über den Händler den Original Zustand der Karte wieder herstellen.

Dies gilt für alle MSI Grafikkarten welche in Deutschland und Österreich von MSI Deutschland vertrieben wurden."

ZOTAC:

"die normalen zwei Jahre bleiben erhalten, ein Erweiterung der Garantie
ist dann ungültig. Die Karte muss wenn etwas im im Originalzustand
eingereicht werden."

Gainward und Palit

"Leider müssen wir Sie auch mitteilen, wenn Sie den originale Kühlkörper umbauen, werden Sie dadurch Ihre Ansprüche auf Garantie dieser Karte verlieren. Das gilt nicht nur für Gainward Produkt , sondern auch für Palit"


Aktuelle Referenzkarten

Zotac:

Zotac GAMING GeForce RTX 3080 TrinityZT-A30800D-10P
Zotac GAMING GeForce RTX 3080 TrinityZotac GAMING GeForce RTX 3090 TrinityZT-A30900D-10P
GALAX/KFA2:

Galax GeForce RTX 3080 SG38NWM3MD99NN
Galax GeForce RTX 3090 SG38NWM3MD99NK
KFA2 GeForce RTX 3080 SG39NSM5MD1GNA
KFA2 GeForce RTX 3090 SG39NSM5MD1GNK
Gainward:

Gainward RTX 3080 Phoenix471056224-1952
Gainward RTX 3080 Phoenix GS471056224-2010
Gainward RTX 3090 Phoenix471056224-1976
Gainward RTX 3090 Phoenix GS471056224-2034
Palit:

Palit GeForce RTX 3080 Gaming ProNED30800S19IA-132AA
Palit GeForce RTX 3080 Gaming Pro OCNED3080S19IA-132AA
Palit GeForce RTX 3090 Gaming ProNED30900S19SB-132BA
Palit GeForce RTX 3090 Gaming Pro OCNED3090S19SB-132BA
PNY:

PNY GeForce RTX 3080 XLR8 Gaming EPIC-XVCG308010TFXMPB
PNY GeForce RTX 3090 XLR8 Gaming EPIC-XVCG309024TFXPPB
INNO3D:

Inno3D GeForce RTX 3080 iChill X3C30803-106XX-1810VA37
Inno3D GeForce RTX 3080 iChill X4C30804-106XX-1810VA36
Inno3D GeForce RTX 3080 Twin X2 OCN30802-106XX-1810VA34
Inno3D GeForce RTX 3090 iChill X3C30903-246XX-1880VA37
Inno3D GeForce RTX 3090 iChill X4C30904-246XX-1880VA36
Inno3D GeForce RTX 3090 Gaming X3N30903-246X-1880VA37N


Mehr Informationen gibt es hier: https://www.overclock.net/threads/official-nvidia-rtx-3090-owners-club.1753930/
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich zocke in WQHD, DLSS habe ich auf Max gestellt. Mach gleich n screen
Beitrag automatisch zusammengeführt:

Mehr als DLSS 1707x960 kann ich nicht einstellen ?

 
Zuletzt bearbeitet:
An alle, deren PC wegen dem NT ausging...
Passierte das sporadisch oder reproduzierbar bei bestimmten Apps/Games an bestimmten Stellen im Bench?
 
Weiß jemand, warum @coldfingers von so einer Curve abrät? :confused:
Bisher kann ich nichts negatives äußern...
Die Karte fängt mit 2 GHz @ 0.975v und klappert die linken Eckpunkte alle ab - sofern sie in PT rennt.. Genau mit der Spannung und Takt, die hinterlegt sind.

Funktionieren ist nicht das Thema. Du verlierst durch diese Curve Performance. Sind ca. 5-7 fps weniger. Hat man damals ausgiebig getestet. Den Grund kann ich dir nicht nennen, ist aber so!
 
Daher hoffe ich, dass das BIOS auf die FTW3 Ultra geht. So bräuchte ich keine Strix OC und hätte die vielen Temp-Sensoren als Spielerei :)

Das Strix OC Bios funktioniert auch auf der FTW3, es gehen aber 2 der DisplayPorts nicht damit. HDMI weiß ich leider nicht. So hast du dann aber zumindest die 480W zur Verfügung. Der Rest funktioniert wie mit dem EVGA Bios.


PS.: Scheinbar gehen bei manchen auch mehr als 1 Port bzw. es ist unterschiedlich welcher geht. Sollte zwar nicht sein, aber wie im Bild ist es bei mir ^^
 
Wäre nicht schlimm, die FTW hat ja 2 BIOSe :d
EVGA ist laut CB auch der einzige Hersteller, der zumindest ein fremdes BIOS zulässt
(hoffe, dass das auch stimmt)
 
Soviel zum Thema 11GB Vram are more than Enough
Resident Evil 3 Demo 1440P und Auflösungsrenderer 200% und alles auf Anschlag. Ziemlich Spulenfieplastig das Game..

 
Zuletzt bearbeitet:
Probier das jetzt nochmal mit ner 3080 und wir reden dann nochmal ;)
 
Früher (Pascal Zeiten) kostete eine "falsche" Kurve ein paar Prozent Leistung. Das wurde mit Turing besser meine ich, hatte aber immer noch Nachteile. Daher sollte man die eher wie Stock hochziehen (mit shift) und nur die hinteren Werte abflachen. Wie viel das mit Ampere ausmacht müsstet ihr mal testen. Also einmal den Takt per "krummer" Wunschkurve, dann die "richtige" und das schlussendlich noch gegen offset.
Testen Jungs! 🙂
 
Soviel zum Thema 11GB Vram are more than Enough
Resident Evil 3 Demo 1440P und Auflösungsrenderer 200% und alles auf Anschlag. Ziemlich Spulenfieplastig das Game..

Naja, da eiern die User immer rum, des Unterschiedes zwischen belegen und brauchen. Das merkt man halt erst, wenn man genug VRAM hat, das es da irgendwo einen Unterschied gibt. Du bist halt jetzt auf der anderen Seite angekommen. Auf der Seite, auf der ich seit 6 Jahren bin^^

20GB in FHD. Braucht es weder 4K noch 200% Resolution-Scale zu.
ModernWarfare_2020_10_04_09_52_03_332.jpg

Hat jemand von Euch schon den Flugsimulator von MS getestet?

Du meinst, das man da auch mit einer 3090 weiter im CPU-Limit hängt?
flightsimulator_2020_p7jfp.jpg
flightsimulator_2020_fokan.jpg
 
Das Strix OC Bios funktioniert auch auf der FTW3, es gehen aber 2 der DisplayPorts nicht damit. HDMI weiß ich leider nicht. So hast du dann aber zumindest die 480W zur Verfügung..
@SH Hab den entscheidenden Part mal fett und groß gemacht. U know :d.
Also ich muss sagen ich kann mir kaum Vorstellen das der Strix oder Nix Kühler das besser macht als die FE.
Hmm, abwarten... Du hast WQHD. Fahre mal dickere Geschütze auf (wie Hisns Einstellungen z.b.) in 4K, dann "schwitzt" die FE auch mehr ;). Zudem hat die Strix höheres PT + Taktraten. Habe eine Nacht drüber geschlafen und egal wie leise/unhörbar der "Strix oder nix"-Kühler sein mag, er kommt runter und Wakü druff (bei mir)! :d
Soviel zum Thema 11GB Vram are more than Enough...
Ich wette, das eine 3080 mit exakt deinen Einstellungen in diesem Beispiel problemlos und ohne Laderuckelei exakt so performt wie die 3090 (mit weniger FPS natürlich) und ihr der VRam NICHT ausgeht! Warum? Bei der 3090er wird reingeschaufelt was so nötig ist und weil genug vorhanden bleibts da. Die 3080 bekommt es genauso reingeschaufelt. Stehen halt dann keine 12GB-Nutzung da, sondern nur max 10GB.
Spekulatius: Auflösungsstufe höher mit gleichen Einstellungen würde dann womöglich anders aussehen in dem Beispiel. KA ob NV das VRam-Management verbessert hat, kommt der "Sweetspot" ist Essig mit der 3080 10GB.
Welcome 3090 24GB :coolblue: .
 
  • Danke
Reaktionen: SH
Ich plapperte nicht nach was die 3080 Fraktion runterbetet, sicher agieren die Engines unterschiedlich, aber ich bin der Meinung das Daten im vram haben allgemein besser fuer die performance ist als welche brauchen, ram freischaufeln und nachladen..

Resi 3 wird in 4k berechnet, renderaufloesung 200%, also DSR
Nr 1440p ist deutlich weniger vram Nutzung.
Teste ma die Demo, game hat umfangreiche grafikeinstellungen die bei jeder Einstellung die Auswirkungen auf Vram und Performance anzeigt. Sehr gut gemacht.

Ob die 50w mehr der Strix den Kohl fettmachen und welcher Kuehler bei 400W besser ist werde ich testen wenn die Strix da ist.
 
Zuletzt bearbeitet:
Denke ich auch. Aber jeder der "zu wenig" VRAM hat, der schreit natürlich: Siehste ... es reicht doch.
Das dabei eventuell die hochaufgelösten Texturen gar nicht mehr geladen werden, das wird natürlich geflissentlich ignoriert^^

Haben wir gerade wieder im HZD-Thread^^
Mit "nur" 8GB bleiben es meistens Medium-Texturen, egal was man Einstellt.
 
Wie gesagt, wenn der "Sweetspot" überschritten wird ist es Essig mit nur 10GB. Sprich 1:0 3090,

Ich bin bei dir, drücke es diplomatischer aus, während du kein Blatt vor den Mund nimmst @Thrawn. (finde ich gut :bigok: )
 
Zuletzt bearbeitet:
Haben wir gerade wieder im HZD-Thread^^
Mit "nur" 8GB bleiben es meistens Medium-Texturen, egal was man Einstellt.
Habe mit meiner 2080 TI keine Probleme und alles auf ultra. Kann ja irgendwie nicht sein, bei "nur" 3 GB Unterschied?
 
Haben wir gerade wieder im HZD-Thread^^
Mit "nur" 8GB bleiben es meistens Medium-Texturen, egal was man Einstellt.
Deswegen sehe ich z.b. die kommende 3070 für FHD aureichend, sofern man auf dem Teppich bleibt. Verlässt man ihn und will z.b. mit High-Res-Texturen zocken sollte man einen Bogen um die 3070 8GB machen^^.
"3090 24GB oder nix", Ende der Durchsage :bigok:
 
500mb zu wenig koennen schon
Zum von hisn beschriebenen problem fuehren.
 
Zuletzt bearbeitet:
Ich denke ihr solltet es lassen mit den VRAM in dem 3080er Thema . Die Leute da interessieren sich nur für P/L ( was ich nicht schlimm finde) da könnt ihr noch soviel erzählen . Das regt die nur auf darum sind wir ja hier möchten doch kein Streit.
 
Deswegen sehe ich z.b. die kommende 3070 für FHD aureichend, sofern man auf dem Teppich bleibt. Verlässt man ihn und will z.b. mit High-Res-Texturen zocken sollte man einen Bogen um die 3070 8GB machen^^.
"3090 24GB oder nix", Ende der Durchsage :bigok:

Kann man streiten, ich warte fuer den Backup pc meiner besseren Hälfte in der sig auf die 16gb 3070..
Aus Prinzip sollte man keine 8gb Performance karten ende 2020 mehr unterstützen und kaufen.
 
So ist es :).

PS:
Freue mich auf Mo/Di wenn mein neuer Bildschirm ankömmt.
 
Hat mal jemand das Video und die Explosionszeichnung mit Erklärung zum 3090 FE Kühler parat ? Bin anscheind zu blöde zum googlen..
 
Hat mal jemand das Video und die Explosionszeichnung mit Erklärung zum 3090 FE Kühler parat ? Bin anscheind zu blöde zum googlen..

 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh