[Sammelthread] NVIDIA GeForce RTX 3090 / RTX 3090 TI + FAQ

NVIDIA GeForce RTX 3090 / 3090 TI (In Progress)

ThnfdUH.jpg


sUZUm5S.jpg
1648633623369.png



NEWS

BIOS

Anleitung

1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Flashen auf eigene Gefahr. Ich übernehme keine Haftung dafür.


OVERCLOCKING | TOOLS

Kurze Info wegen Stromverbrauch: 3090 Trio auf Anschlag + 9900K mit 1,36v und 5,4 GHZ = 665W für das gesamte System bei mir (SH). Dies kann natürlich bei euch abweichen. Eine Strix kann 100W mehr ziehen. Daher würde ich jedem, der OC betreibt +850W Netzteile empfehlen

Undervolting PT Usage Tests mit meiner 3090 FTW3

800mv = 320 Watts
850mv = 370 Watts
900mv = 430 Watts
912mv = 450 Watts
918mv = PT Limit für FTW3 mit 450
UNDERVOLTING

800mv = 320 Watts
850mv = 370 Watts
900mv = 430 Watts
912mv = 450 Watts
918mv = PT Limit für FTW3 mit 450W



ManufacturerProductRTX 3080RTX 3090
NVIDIAFounders EditionMixed (2)Mixed (2)
AsusTUFMLCCMLCC
AsusStrixMLCCMLCC
EVGAXC3Mixed (1)Mixed (2)
EVGAFTW3Mixed (2)**Mixed (2)
GalaxBlackMixed (1)Unknown
GainwardPhoenixMixed (1)Unknown
GigabyteEagleUnknownPOSCAP
GigabyteGamingPOSCAPPOSCAP
Inno3DiChill X3Mixed (1)Unknown
Inno3DiChill X4Mixed (1)Unknown
MSIGaming X TrioMixed (1)Mixed (2)
MSIVentusMixed (1)Mixed (2)
PalitGaming ProMixed (1)Mixed (2)
ZotacTrinityPOSCAPPOSCAP
ZotacX-GamingUnknownPOSCAP

Quelle: https://www.reddit.com/r/nvidia/comments/izhpvs/the_possible_reason_for_crashes_and_instabilities/

3090 TI Power Limit Übersicht


ManufacturerProductRTX 3090 TI
NVIDIAFounders Edition450 W maximal
AsusTUF
AsusStrix OC LC516 W maximal
EVGABlack Gaming
EVGAFTW3
EVGAFTW 3 Ultra

KÜHLERTAUSCH | GARANTIE


HerstellerKühlerwechselOverclockingOvervoltingVBIOS flashen
ASRockKulanz5
Asus✓1✓1
EVGA✓2
Gainward✓3
Gigabyte
KFA²
MSI
Nvidia
Palit✓4
PowerColor
SapphireKulanz5
XFX
Zotac✓ (nur die ersten zwei Jahre)
1 Nur mit GPU Tweak II oder AMD/Nvidia-Software; 2 Nur Grafikkarte mit Dual-BIOS von denen eines im Originalzustand sein muss; 3 Nur mit Gainwards ExpertTool; 4 Nur mit Palits ThunderMaster; 5 Dazu sind die Hinweise des folgenden Abschnitts „Kulanz statt Garantie“ zu beachten

Quelle: Computerbase


MSI:


"Sie können bei Grafikkarten die Wärmeleitpaste oder Kühler Tauschen. Dieser muss jedoch die gleiche oder eine besser Leistung besitzen.
Sofern beim Umbau nichts beschädigt wird, bleibt die Garantie der Karte erhalten.
Sollte jedoch ein Fehler an der Karte auftreten, müssten Sie für eine Garantieabwicklung über den Händler den Original Zustand der Karte wieder herstellen.

Dies gilt für alle MSI Grafikkarten welche in Deutschland und Österreich von MSI Deutschland vertrieben wurden."

ZOTAC:

"die normalen zwei Jahre bleiben erhalten, ein Erweiterung der Garantie
ist dann ungültig. Die Karte muss wenn etwas im im Originalzustand
eingereicht werden."

Gainward und Palit

"Leider müssen wir Sie auch mitteilen, wenn Sie den originale Kühlkörper umbauen, werden Sie dadurch Ihre Ansprüche auf Garantie dieser Karte verlieren. Das gilt nicht nur für Gainward Produkt , sondern auch für Palit"


Aktuelle Referenzkarten

Zotac:

Zotac GAMING GeForce RTX 3080 TrinityZT-A30800D-10P
Zotac GAMING GeForce RTX 3080 TrinityZotac GAMING GeForce RTX 3090 TrinityZT-A30900D-10P
GALAX/KFA2:

Galax GeForce RTX 3080 SG38NWM3MD99NN
Galax GeForce RTX 3090 SG38NWM3MD99NK
KFA2 GeForce RTX 3080 SG39NSM5MD1GNA
KFA2 GeForce RTX 3090 SG39NSM5MD1GNK
Gainward:

Gainward RTX 3080 Phoenix471056224-1952
Gainward RTX 3080 Phoenix GS471056224-2010
Gainward RTX 3090 Phoenix471056224-1976
Gainward RTX 3090 Phoenix GS471056224-2034
Palit:

Palit GeForce RTX 3080 Gaming ProNED30800S19IA-132AA
Palit GeForce RTX 3080 Gaming Pro OCNED3080S19IA-132AA
Palit GeForce RTX 3090 Gaming ProNED30900S19SB-132BA
Palit GeForce RTX 3090 Gaming Pro OCNED3090S19SB-132BA
PNY:

PNY GeForce RTX 3080 XLR8 Gaming EPIC-XVCG308010TFXMPB
PNY GeForce RTX 3090 XLR8 Gaming EPIC-XVCG309024TFXPPB
INNO3D:

Inno3D GeForce RTX 3080 iChill X3C30803-106XX-1810VA37
Inno3D GeForce RTX 3080 iChill X4C30804-106XX-1810VA36
Inno3D GeForce RTX 3080 Twin X2 OCN30802-106XX-1810VA34
Inno3D GeForce RTX 3090 iChill X3C30903-246XX-1880VA37
Inno3D GeForce RTX 3090 iChill X4C30904-246XX-1880VA36
Inno3D GeForce RTX 3090 Gaming X3N30903-246X-1880VA37N


Mehr Informationen gibt es hier: https://www.overclock.net/threads/official-nvidia-rtx-3090-owners-club.1753930/
 
Zuletzt bearbeitet:
Ist die dicke richtig? 🤔 wäre dankbar für eine kurze Bestätigung...

übrigens...das PCB biegt sich wie eine Banane, wenn man es anlegt und an die Schraubenpunkte andrückt - an Igors Aussage scheint was dran zu sein...

Hatte auchma meine EVGA damals beim WLP Deaster auseinander und die Wärmeleitpads nachgerüstet, die Karte sah danach sus wiene Banane.. seitdem lass ichs..

Gibt doch sehr gut dosierbare Liquid Metal Pads die erst mim Einbrennen aktiviert werden ?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
wie läuft die Karte? Temps und Boost?
Stock ohne Anpassung kommt in Superposition 4k das raus:
Superposition 4k 16089P inno3d 3090 X4 +0 +0 100%.png

Im Vergleich dazu die 3090 FE, die ich zuvor hatte (ebenfalls Stock):
Superposition 4k 16533P 3090 FE +0 +0 100%.png

Der FE-Kühler hat es in der Situation geschafft, dass die GPU nicht wärmer als 70°C geworden ist (und dass auch erst bei 02:30mm:ss).
Bei der INNO3D X4 gings jetzt bis auf 80°C (und das bereis bei 01:58mm:ss).

Bei der INNO3D X4 liefen die Lüfter dabei im Mittel mit 19xx U/min.
Für die FE habe ich nur einen Log mit OC (GPU: +200 VRAM:+300 114%): 9xx U/min!
Im Mittel hat die FE dabei laut Logging 384W gezogen (Max: 407W).

Die INNO3D X4 kommt stock auf 343W (Max: 355W).
Da fehlt also noch etwas zu den 370W.

Im Mittel lagen laut GPU-Z-Log 1727 MHz an.

Hier im Vergleich zur 3090 FE anhand Superposition-Log:
Superposition 4k Stock-Vergleich INNO3D 3090 X4 und 3090 FE.png

Ja, luftgekühlt kommt die Karte nicht an die 3090 FE ran, die ich zuvor hatte.
Und dabei hatte die FE sogar weniger gekostet.:(

Mal schaun, obs noch ein Bios gibt, bei dem die 370W dann auch tatsächlich anliegen.
Das Bios, was es hier im INNO3D-Forumsabschnitt gibt, ist schon mal das, dass auf meiner Karte auch drauf ist.

Oder mal schaun, wie die Karte mit einem anderen Bios performed.

Für heute solls das gewesen sein.

Edit noch aus dem Logging, was über den PCIe-Slot gegangen ist:
3090 FE (+200 +300 114%): 67W
3090 X4 Stock: 53W
 
Zuletzt bearbeitet:
Der FE-Kühler hat es in der Situation geschafft, dass die GPU nicht wärmer als 70°C geworden ist (und dass auch erst bei 02:30mm:ss).
Bei der INNO3D X4 gings jetzt bis auf 80°C (und das bereis bei 01:58mm:ss).

Bei der INNO3D X4 liefen die Lüfter dabei im Mittel mit 19xx U/min.
Für die FE habe ich nur einen Log mit OC (GPU: +200 VRAM:+300 114%): 9xx U/min!
Im Mittel hat die FE dabei laut Logging 384W gezogen (Max: 407W).

Die INNO3D X4 kommt stock auf 343W (Max: 355W).
Da fehlt also noch etwas zu den 370W.

Im Mittel lagen laut GPU-Z-Log 1727 MHz an.

Ja, luftgekühlt kommt die Karte nicht an die 3090 FE ran, die ich zuvor hatte.
Und dabei hatte die FE sogar weniger gekostet.:(

Bestätigt sich immer wieder mit der genialen FE Kühlerkonstruktion..

Aber warum tauschst die gegen ne Inno ?
Das isja wie der Tausch Bentley gegen DAcia !
 
Zuletzt bearbeitet:
Die 3090 FE würde ich persönlich niemals eintauschen!😎
Das Teil ist einfach zu geil!

Erst zum Generationenwechsel auf die 4000er Serie können wir darüber reden 😬
 
Das isja wie der Tausch Bentley gegen DAcia !
Um bei dem Vergleich zu bleiben:
Die Garage ist zu klein gewesen für den Bentley.:d
Nicht ganz. Karte hat ja ins Gehäuse gepasst.

Der Grund: Eine Highend-Karte ohne Wasserkühler, der mir optisch taugt, hat für mich so viel Nutzen, wie ein Ziegelstein.
Die Titan V lag damals gut 2 Monate im Schrank, bis endlich von EK ein Kühler gekommen ist. Den habe ich dann auch nur aus der Not gekauft.
Aber so richtig glücklich bin ich mit dem nicht geworden.

Und obwohl EK immer einer der ersten ist, kann man Stand heute noch nichtmal etwas für 3080/90 FE bestellen.
Bis auf ein Teaser-Bild gibt es nichts. <- Wobei mir danach gehend der EK-Kühler sogar sehr gefallen würde.
Hätte ich den letzte Woche bestellen können, dann wäre die 3090 FE wohl noch hier.

WC und AC wollten sich entweder nicht festlegen, ob sie einen Kühler bringen oder haben schon gesagt, dass nichts kommen wird.

Mit dem Bykski-Kühler konnte ich mich nicht anfreunden.

Der hochkant montierte 12Pin-Stecker schaut dann mit Wasserkühler auch nicht optimal aus.

So wie es für manchen heißt "Strix oder nix", so funktioniert für mich ne Karte nur mit einem Wasserkühler, der mir optisch taugt.
Beides ist vielleicht nicht rational zu begründen. Es ist aber so.
 
Versteh ich, glaube wenn ich Waküler wäre wäre mir die Karte und Firma auch recht egal, ohne Kühler ist es eh nur ne Platine..
 
Wenn es keine brauchbaren Kühler gibt, wäre schon bitter, der einzige der bis jetzt wirklich ne große Bandbreite liefert ist Alphacool.
Aber ich würde gerne noch andere Tests zu dem Kühler sehen.
 
Damals war es noch einfach für mich. FE von einem AIB welcher Kühlerwechsel erlaubt und gut. Wakühler gab es relativ fix von AC oder WC für die FEs... JETZT mit Ampere ist alles bissel anders. KA wo die ganzen Chips/Karten hingehen. So einen Papiertiger hab ich jedenfalls noch nie erlebt, Corona hin oder her. GG NV :rolleyes:

Damals wurde NV (zurecht) wegen ihrem "Thermi" zerrissen weil sie halt unbedingt eine DX11 Karte raushauen mussten um irgendwas gegen ATIs Cypress (HD5870/HD5850) stellen zu können. Mit der GTX 580er dann kam eigentlich das, was man von der GTX 480er erwarten durfte.... Damals war NV halt in NOT!

Und heute? OHNE NOT Ampere rausgehauen. Anstatt im kleineren Fertigungsverfahren bei TSMC wird bei Samsung gefertigt... Ist der Ausschuss dort echt so enorm oder die Kapazitäten so klein, das die Nachfrage nicht mal ansatzweise gedeckt werden kann? Für mich nicht nachvollziehbar warum NV OHNE NOT sowas macht. So langsam gehts mir auf den Wecker, überall wird man durch Reviews angefixt aber NIRGENDWO kannst bestellen (zum nicht Gierpreis). GG NV :rolleyes:

Nunja... Mister Lederjacke, mein neuer Moni kann nicht nur G-Synch sondern auch Freesynch ... U know?

PS: JA, bin pissed.
 
Ja, luftgekühlt kommt die Karte nicht an die 3090 FE ran, die ich zuvor hatte.

wieso HATTE? wo ist die?

Edit: sehs grad... wth du hast sie verstoßen?

eqrdtwkjhwelrktneklwöfjqetljweltozhjirtozöj2otjeorwzrjwölze

und ich hab ne 80FE und will eine 90FE
 
Also - Operation geglückt. Danke allen für den Beistand und Input!

Habe Pi mal Daumen Curve 1950MHz @0.9V eingestellt und +250MHz auf den Speicher.
In Division 2 (was mein instabilstes Spiel ist) pendelt sich der Takt fix auf 1920MHz ein. Mein Loop ist aktuell provisorisch mit Schläuchen und ohne Wassertemp Sensor, kann also zum Delta nichts berichten - morgen werde ich Rohre biegen und anfangen CPU und GPU OC auszuloten. Auf jeden Fall ist die 3090 um die 10 Grad wärmer als meiner 1080Ti Strix bei 2000MHz @1,0V.

Division 2 in 3840x1600 - alle Regler auf volle Kanone...bin im CPU Limit?! Auslastung bewegt sich nicht bei 98-99%...
CPU OC oder 5950X werden das bestimmt richten...

P.S.: Selbst im NCase sieht die Referenz Karte verloren aus...die ist echt winzig. Geiler Build mit den kurzen Karten wäre wohl ein Cooltek U3...

P.S.2: Zum Thema PCB biegen - hatte mal einen Build, wo das Gehäuse 2mm zu klein für die Karte war und ich habe sie mit Gewalt reingepresst. Auf dem Anhang "U3" habe ich rot die Kratzspuren im Lack eingekreist, die die Karte beim reindrücken verursacht hat...die Banane lief 2 Jahre in meinem Build und 3 weitere Jahre bei einem Kumpel...ich scheiß mich bei dem Thema nicht ganz so ein.
Bei der 3090 scheint es definitiv eine kleine Wölbung zu geben...einfach bis Anschlag anschrauben. Funktioniert, wie es soll.
 

Anhänge

  • 3090.PNG
    3090.PNG
    16 KB · Aufrufe: 147
  • IMG_5476.JPG
    IMG_5476.JPG
    699,4 KB · Aufrufe: 138
  • U3.PNG
    U3.PNG
    621 KB · Aufrufe: 146
nett zu sehen, dass 16gb von 24 voll sind^^
soviel zum thema 3080 ram reicht
 
nett zu sehen, dass 16gb von 24 voll sind^^
soviel zum thema 3080 ram reicht

Lustig halt, das Division auf 11GB-Karten genau so gut läuft.
Ich hab mich auch gewundert, als ich vor 2 Jahren auf 24GB umgestiegen bin. Es werden sofort 16GB als belegt angezeigt in D2. Aber es wird wahrscheinlich auf einer 3080 genau so gut laufen.
 
Machma die cpu ausnutzung an im afterburner, Div 2 ist sehr cpu lastig, kein Game zieht bei mir so cpu leistung wie division 2..
Beitrag automatisch zusammengeführt:

Lustig halt, das Division auf 11GB-Karten genau so gut läuft.
Ich hab mich auch gewundert, als ich vor 2 Jahren auf 24GB umgestiegen bin. Es werden sofort 16GB als belegt angezeigt in D2. Aber es wird wahrscheinlich auf einer 3080 genau so gut laufen.

Jop im Gegensatz zu andern Games scheint Div einfach den Vram vollzuballern..
 
Zuletzt bearbeitet:
Werf den 3950X in die Tonne sobald 5950X raus ist :fresse:.

Ich bin auch am gucken ob mein HK 4 kompatibel mit dem womöglich zukünftigen Crosshair VIII Formula ist^^. Die Bretter werden auch immer teurer...
 
nett zu sehen, dass 16gb von 24 voll sind^^
soviel zum thema 3080 ram reicht


wenn sie 48 GB hat sind 32 belegt und wenn sie 96GB hat sind vielleicht 67 belegt....

es ist einfach soooooooooooooo ermüdend
 
Werf den 3950X in die Tonne sobald 5950X raus ist :fresse:.

Eigentlich echt zu schade drum...ist ein selektierter hier aus dem Forum...
Macht 4.5Ghz CCD1 -- 4.4Ghz CCD2 bei nur 1.187V in CB20...

Laut Verkäufer womöglich der beste, den das Forum gesehen haben soll - weiß nicht, wie viel an der Aussage dran ist...aber ich habe vor einem Monat noch 750EUR für den gezahlt...keine Ahnung, ob ich dann wirklich einen 5950X benötige... :-(
 
Naja aber ma Echt, vorm Monat war doch auch klar das Ryzen 5k bald kommt ?

Hatte es echt nicht so auf dem Schirm und hab mich bequatschen lassen, dass Ryzen 3 keinen großen Unterschied machen wird. Lehrgeld.

Ach übrigens. Meine Palit - Spulenfiepen gefühlt nicht existent. Bin mega zufrieden. Die 1080Ti Strix vorher war dagegen ein richtiger Zirkus...
 
Macht 4.5Ghz CCD1 -- 4.4Ghz CCD2 bei nur 1.187V in CB20...
CCD What? 4,4-4,5GHz? Mein 2600K lief 5,5GHz :shot:

Bin auch gespannt, wie ZEN3 mit dem Ramtakt umgeht. Überlege gerade 2x16GB 3600 CL16 oder 4000 CL19 :unsure:
 
Die Frage stellen sich viele. Kommt halt auf das Limit an. Selbst ein "nur" 4/8 Kerner im GPU-Limit reicht aus, um Ampere ordentlich zu befeuern. ABER gibt halt auch Games, welche von mehr flotten Kerner deutlich profitieren können.
Beitrag automatisch zusammengeführt:

Hatte dein 2600k auch 16 Kerne ? ;)
Natürlich - Nicht.
Das ist ja das Ding. AMD macht Allcores 4,4-4,5GHz? Intels 10er 5-5,2GHz und das mit z.t. deutlich über 4k Ramtakt. Ob ZEN3 das auch kann? Wenn ja = tschüss Intel for me ;).
 
Ach übrigens. Meine Palit - Spulenfiepen gefühlt nicht existent. Bin mega zufrieden. Die 1080Ti Strix vorher war dagegen ein richtiger Zirkus...
Bist mit HisN dann schon der zweite der die abweichenden Spulen angenehm empfindet. =]
 
So bin endlich daheim, gleich die eMails gecheckt und natürlich keine Versandbestätigung von Alternate. Auch so keine neue Info. Es bleibt also alles beim alten, das warten auf die Strix OC und Wakü Block geht weiter...
 
ich hoffe ja auch das noch ein Block für die Strix kommt, aber schaut man auf twitter gesichtsbuch und co wollen die meisten die evga ftw3 :/
😍

Für Strix OC sollte aber auch was erscheinen :-)
Beitrag automatisch zusammengeführt:

Ja, hat er. Der Chip soll leicht nach oben gewölbt sein, so dass der Kühler nicht plan aufliegt.
Sowas macht mich bei Direkt-Die-Kühlung immer nervös...
Hätte Bedenken so einen spröden Die mit zu viel Anpressdruck zu „knacken“ :rolleyes2:
 
Zuletzt bearbeitet:
Habt ihr bei der TUF zb. auf Perf.Mod gestellt bevor OC oder Untervolting?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh