[Sammelthread] NVIDIA GeForce RTX 3090 / RTX 3090 TI + FAQ

NVIDIA GeForce RTX 3090 / 3090 TI (In Progress)

ThnfdUH.jpg


sUZUm5S.jpg
1648633623369.png



NEWS

BIOS

Anleitung

1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Flashen auf eigene Gefahr. Ich übernehme keine Haftung dafür.


OVERCLOCKING | TOOLS

Kurze Info wegen Stromverbrauch: 3090 Trio auf Anschlag + 9900K mit 1,36v und 5,4 GHZ = 665W für das gesamte System bei mir (SH). Dies kann natürlich bei euch abweichen. Eine Strix kann 100W mehr ziehen. Daher würde ich jedem, der OC betreibt +850W Netzteile empfehlen

Undervolting PT Usage Tests mit meiner 3090 FTW3

800mv = 320 Watts
850mv = 370 Watts
900mv = 430 Watts
912mv = 450 Watts
918mv = PT Limit für FTW3 mit 450
UNDERVOLTING

800mv = 320 Watts
850mv = 370 Watts
900mv = 430 Watts
912mv = 450 Watts
918mv = PT Limit für FTW3 mit 450W



ManufacturerProductRTX 3080RTX 3090
NVIDIAFounders EditionMixed (2)Mixed (2)
AsusTUFMLCCMLCC
AsusStrixMLCCMLCC
EVGAXC3Mixed (1)Mixed (2)
EVGAFTW3Mixed (2)**Mixed (2)
GalaxBlackMixed (1)Unknown
GainwardPhoenixMixed (1)Unknown
GigabyteEagleUnknownPOSCAP
GigabyteGamingPOSCAPPOSCAP
Inno3DiChill X3Mixed (1)Unknown
Inno3DiChill X4Mixed (1)Unknown
MSIGaming X TrioMixed (1)Mixed (2)
MSIVentusMixed (1)Mixed (2)
PalitGaming ProMixed (1)Mixed (2)
ZotacTrinityPOSCAPPOSCAP
ZotacX-GamingUnknownPOSCAP

Quelle: https://www.reddit.com/r/nvidia/comments/izhpvs/the_possible_reason_for_crashes_and_instabilities/

3090 TI Power Limit Übersicht


ManufacturerProductRTX 3090 TI
NVIDIAFounders Edition450 W maximal
AsusTUF
AsusStrix OC LC516 W maximal
EVGABlack Gaming
EVGAFTW3
EVGAFTW 3 Ultra

KÜHLERTAUSCH | GARANTIE


HerstellerKühlerwechselOverclockingOvervoltingVBIOS flashen
ASRockKulanz5
Asus✓1✓1
EVGA✓2
Gainward✓3
Gigabyte
KFA²
MSI
Nvidia
Palit✓4
PowerColor
SapphireKulanz5
XFX
Zotac✓ (nur die ersten zwei Jahre)
1 Nur mit GPU Tweak II oder AMD/Nvidia-Software; 2 Nur Grafikkarte mit Dual-BIOS von denen eines im Originalzustand sein muss; 3 Nur mit Gainwards ExpertTool; 4 Nur mit Palits ThunderMaster; 5 Dazu sind die Hinweise des folgenden Abschnitts „Kulanz statt Garantie“ zu beachten

Quelle: Computerbase


MSI:


"Sie können bei Grafikkarten die Wärmeleitpaste oder Kühler Tauschen. Dieser muss jedoch die gleiche oder eine besser Leistung besitzen.
Sofern beim Umbau nichts beschädigt wird, bleibt die Garantie der Karte erhalten.
Sollte jedoch ein Fehler an der Karte auftreten, müssten Sie für eine Garantieabwicklung über den Händler den Original Zustand der Karte wieder herstellen.

Dies gilt für alle MSI Grafikkarten welche in Deutschland und Österreich von MSI Deutschland vertrieben wurden."

ZOTAC:

"die normalen zwei Jahre bleiben erhalten, ein Erweiterung der Garantie
ist dann ungültig. Die Karte muss wenn etwas im im Originalzustand
eingereicht werden."

Gainward und Palit

"Leider müssen wir Sie auch mitteilen, wenn Sie den originale Kühlkörper umbauen, werden Sie dadurch Ihre Ansprüche auf Garantie dieser Karte verlieren. Das gilt nicht nur für Gainward Produkt , sondern auch für Palit"


Aktuelle Referenzkarten

Zotac:

Zotac GAMING GeForce RTX 3080 TrinityZT-A30800D-10P
Zotac GAMING GeForce RTX 3080 TrinityZotac GAMING GeForce RTX 3090 TrinityZT-A30900D-10P
GALAX/KFA2:

Galax GeForce RTX 3080 SG38NWM3MD99NN
Galax GeForce RTX 3090 SG38NWM3MD99NK
KFA2 GeForce RTX 3080 SG39NSM5MD1GNA
KFA2 GeForce RTX 3090 SG39NSM5MD1GNK
Gainward:

Gainward RTX 3080 Phoenix471056224-1952
Gainward RTX 3080 Phoenix GS471056224-2010
Gainward RTX 3090 Phoenix471056224-1976
Gainward RTX 3090 Phoenix GS471056224-2034
Palit:

Palit GeForce RTX 3080 Gaming ProNED30800S19IA-132AA
Palit GeForce RTX 3080 Gaming Pro OCNED3080S19IA-132AA
Palit GeForce RTX 3090 Gaming ProNED30900S19SB-132BA
Palit GeForce RTX 3090 Gaming Pro OCNED3090S19SB-132BA
PNY:

PNY GeForce RTX 3080 XLR8 Gaming EPIC-XVCG308010TFXMPB
PNY GeForce RTX 3090 XLR8 Gaming EPIC-XVCG309024TFXPPB
INNO3D:

Inno3D GeForce RTX 3080 iChill X3C30803-106XX-1810VA37
Inno3D GeForce RTX 3080 iChill X4C30804-106XX-1810VA36
Inno3D GeForce RTX 3080 Twin X2 OCN30802-106XX-1810VA34
Inno3D GeForce RTX 3090 iChill X3C30903-246XX-1880VA37
Inno3D GeForce RTX 3090 iChill X4C30904-246XX-1880VA36
Inno3D GeForce RTX 3090 Gaming X3N30903-246X-1880VA37N


Mehr Informationen gibt es hier: https://www.overclock.net/threads/official-nvidia-rtx-3090-owners-club.1753930/
 
Zuletzt bearbeitet:
Ist ja auch nicht schlecht, manche geben mehr oder weniger produktiven SPAM von sich. Aber hier ein von der OMA erzählen als Randomguy und dann beleidigt sein, ist nicht okay.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
DAs wäre als gäbs die Semi Slicks nur für den Oma 60 PS Polo...

Mal ganz im Ernst... den 3090er Thread, deinen Wunsch danach und auch den realen Nutzen einer 3090 in einigen Gaming- und vielen Arbeitsszenarien in allen Ehren:

Aber könntest du zur Abwechslung mal einen einzelnen Post verfassen, in dem du nicht kleinkindlich oder prollig über das kleinere 3000er-Modell herziehst? Kein Plan, ob andere User das nach 378 Mal immernoch witzig finden... ich finde es eher anstrengend. Es nervt und hat in einem eigenen 3090-Sammler rein logisch auch nichts zu suchen.

Gerade wenn man sich explizit vom anderen Thread abgrenzen will wie du, kommt es doch irgendwie schon wieder billig und verzweifelt rüber, wenn man sich dann zigfach zum eigentlich absichtlich abgegrenzten Thema 3080 herablassend äußern muss, nur um sich und seine eigene GPU-Wahl noch deutlicher zu profilieren. Meinst du nicht?

Es gibt ja genügend Diskussionspotential zu der BP (Fertigung der BP, Notwendigkeit der aktiven Kühlung, RAM-Temps und deren Auswirkungen usw und so fort...), welches sich für die 3090 selbst als wichtig erweisen kann, dass man die "andere" Karte ganz einfach mal außen vor lassen und beim Thema bleiben könnte :)
 
Zuletzt bearbeitet:
Laut GH ca. 4 monate später...
Die White 14 monate später.

Bei einem bin ich mit zu 100% sicher. Das iPhone 12, das morgen endlich vorgestellt werden soll, könnte ich garantiert eher in der Hand halten, als eine Strix OC :rolleyes2:
 
Kam erst ein dreiviertel Jahr später oder so, war extrem teuer (~ Strix 3090 Level) und quasi nie verfügbar.

2 der 3 Kriterien erfüllen die meisten 3090er ja aktuell bereits^^

Für mich sieht es im Moment so aus, als könne faktisch nicht vernünftig hoch gebinnt werden. Dazu sind sich dann die versch. Ergebnisse quer über die Modellreihen und Hersteller zu ähnlich.
 
Die Strix Galaxo Binford 3090 Neptune Super Quantum aRGB kommt erst nach dem 7nm-Wechsel zu TSMC!
Habe 30 Strix hier liegen (eine nehme ich sogar zum Zerkleinern von Katzenfutter) und glaubt mir, wer mich kennt, der weiß, dass ich keinen Mist erzähle! 8-)
 
@***** @SH @Thrawn. @HisN etc.

Könntet ihr mal bitte testen wieviel eure Karten schaffen mit ATI Tool Voltage regler auf 100% und die Kurve dann bei 1,1V hochziehen,
wieviel Takt ihr packt, ohne den Voltage Regler ist glaube bei 1,08V Schluss.

Also wirklich ohne abzukacken ist bei mir bei 1,1V und 2295Mhz Schluß, da gehen auch ganz kurz 2310Mhz.
3090 und 3080 sollten da gleich sein, so kann man mal die Chips vergleichen wie gut oder schlecht.
Es geht auf jeden Fall bis über 2300Mhz je nach Quali.Damit wüssten wir dann so wie die Chips sich so bewegen von der Silicon Lotterie.
1.jpg
 
Mal ganz im Ernst... den 3090er Thread, deinen Wunsch danach und auch den realen Nutzen einer 3090 in einigen Gaming- und vielen Arbeitsszenarien in allen Ehren:

Aber könntest du zur Abwechslung mal einen einzelnen Post verfassen, in dem du nicht kleinkindlich oder prollig über das kleinere 3000er-Modell herziehst? Kein Plan, ob andere User das nach 378 Mal immernoch witzig finden... ich finde es eher anstrengend. Es nervt und hat in einem eigenen 3090-Sammler rein logisch auch nichts zu suchen.

Gerade wenn man sich explizit vom anderen Thread abgrenzen will wie du, kommt es doch irgendwie schon wieder billig und verzweifelt rüber, wenn man sich dann zigfach zum eigentlich absichtlich abgegrenzten Thema 3080 herablassend äußern muss, nur um sich und seine eigene GPU-Wahl noch deutlicher zu profilieren. Meinst du nicht?

Es gibt ja genügend Diskussionspotential zu der BP (Fertigung der BP, Notwendigkeit der aktiven Kühlung, RAM-Temps und deren Auswirkungen usw und so fort...), welches sich für die 3090 selbst als wichtig erweisen kann, dass man die "andere" Karte ganz einfach mal außen vor lassen und beim Thema bleiben könnte :)

Ich schreibe was mir auf der Leber liegt, wenns dir nicht passt pack mich auf ignore. Wer bist du mir vorzugeben was für Themen hier von mir diskutiert werden sollten ?
Konnte auch noch keine produktiven Ergebnisse von deiner 3090 lesen ?

Geh Bitteb deine Hyoobypschoanalysen an wem anders testen, beim nächsten derartigen Post biste auf Ignore.

Das geilst ist du schreibst inhaltlich dasselbe wie ich, nur anders fomuliert und bei mir isses dann verkehrt ? :lol:

Beitrag automatisch zusammengeführt:

@***** @SH @Thrawn. @HisN etc.

Könntet ihr mal bitte testen wieviel eure Karten schaffen mit ATI Tool Voltage regler auf 100% und die Kurve dann bei 1,1V hochziehen,
wieviel Takt ihr packt, ohne den Voltage Regler ist glaube bei 1,08V Schluss.

Also wirklich ohne abzukacken ist bei mir bei 1,1V und 2295Mhz Schluß, da gehen auch ganz kurz 2310Mhz.
3090 und 3080 sollten da gleich sein, so kann man mal die Chips vergleichen wie gut oder schlecht.
Es geht auf jeden Fall bis über 2300Mhz je nach Quali.Damit wüssten wir dann so wie die Chips sich so bewegen von der Silicon Lotterie.
Anhang anzeigen 538613

Schau später mal, hab grad 3 Kumpels da und machen lan..
 
Zuletzt bearbeitet:
@***** @SH @Thrawn. @HisN etc.

Könntet ihr mal bitte testen wieviel eure Karten schaffen mit ATI Tool Voltage regler auf 100% und die Kurve dann bei 1,1V hochziehen,
wieviel Takt ihr packt, ohne den Voltage Regler ist glaube bei 1,08V Schluss.

Also wirklich ohne abzukacken ist bei mir bei 1,1V und 2295Mhz Schluß, da gehen auch ganz kurz 2310Mhz.
3090 und 3080 sollten da gleich sein, so kann man mal die Chips vergleichen wie gut oder schlecht.
Es geht auf jeden Fall bis über 2300Mhz je nach Quali.Damit wüssten wir dann so wie die Chips sich so bewegen von der Silicon Lotterie.
Anhang anzeigen 538613
2300mhz. Hart :)

Ich teste es mal
 
@SH
Grade für dich bestimmt interessant der 3080 Chip von dem Chrisch schafft 2310Mhz 1,067V bei 32Grad.Das ist 1 bis 2 Stufen besser als meiner, so als grober Anhaltspunkt, ist bis jetzt das beste was ich gesehen hab.
Ich schaff da bei 40Grad 2280Mhz könnten dann bei 32Grad auch 2295Mhz sein.
 
im Würfeltest? das heisst 0,0 ^^ im GPUZ kriegste das auch hin
Das ist kein Stabilitätstest, sondern um den Bin rauszufinden, meine schlechte 2080 hat da knapp über 2100@Wakü gepackt, meine gute ist erst bei 2265Mhz abgekackt.

Die gute lief dann 2145-2160Mhz konstant 24/7.
 
@***** @SH @Thrawn. @HisN etc.

Könntet ihr mal bitte testen wieviel eure Karten schaffen mit ATI Tool Voltage regler auf 100% und die Kurve dann bei 1,1V hochziehen,
wieviel Takt ihr packt, ohne den Voltage Regler ist glaube bei 1,08V Schluss.

Also wirklich ohne abzukacken ist bei mir bei 1,1V und 2295Mhz Schluß, da gehen auch ganz kurz 2310Mhz.
3090 und 3080 sollten da gleich sein, so kann man mal die Chips vergleichen wie gut oder schlecht.
Es geht auf jeden Fall bis über 2300Mhz je nach Quali.Damit wüssten wir dann so wie die Chips sich so bewegen von der Silicon Lotterie.
Um die GPUs genauer miteinander vergleichen zu können, sollten sie aber die gleiche Temperatur haben. Da hinkt es schon. Und auch nur, wenn das Temp-Offset bei jedem Hersteller gleich ist ;)

Du hattest zb 41 Grad...
Und die Anderen? Gibt es neben den 50 Grad noch eine Stufe, bei der runtergetaktet wird?
 
Ja vollkommen richtig Lüfter auf 100%.5 Grad werden schon ca. eine Stufe ausmachen.
Aber es ist ein guter Anhaltspunkt schlechte GPU's packen auch bei 20Grad keinen hohen Takt, gute schaffen selbst bei 60Grad noch heftig Takt.
Beim Testen am besten zwischen 30-40Grad bewegen.

P.s. Bei 42Grad ist er bei mir eine Stufe runtergegangen auf 2280, ob das Zufall war oder Grenze hab ich nicht getestet.
 
Eventuell wie bei meiner Pascal. Dort gehts alle 10° eine Taktstufe (12MHz) runter. Bei Ampere müssten es 15MHz sein.
 
ATI_Tool.jpg
Wie lange soll ich das laufen lassen?

Ah, ohne den Voltage-Regler. Nicht so wie auf Deinem Screen. Da ist bei 1,08v Schluss.
ATI_Tool2.jpg


Bei 2355 macht mein Treiber dann nen Reset, also gehen wohl 2340 bei mir.
ATI_Tool3.jpg
 
Zuletzt bearbeitet:
@HisN
Den Drehwürfel musst du aber nehmen nicht den Speichertest.
Das du keine schlechte GPU hast hab ich aber schon bei deinen UV Tests gesehen, du hast nur zu wenig PT und deine H2O Temps sind etwas hoch.
 
Ich hab das mal mit dem Speicher test gemacht, da geht höchstens eine Stufe höher also HisN seine ist richtig Top.
 
Zuletzt bearbeitet:
Wobei auf manchen Chips wirklich "Qual Sample" steht. Was auch immer das heißt.

HisN Top Chip. Wenn die Spulen da auch noch tatsächlich leiser sind, ist die Karte eine gute Wahl für Wakü. Die Asus Spulen sind lauter als die Magic meiner alten Ti, aber nicht so mies wie bei Turing FE. Hab immer weniger Bock auf die Strix. In erster Linie ist der Chip entscheidend und 24/7 wird sweetspot bei mir und sowieso keine 480w, alleine schon wegen der Lautstärke (Spulenrasseln ist da auch stärker).
UV scheint bei dir auch top.
Ich komme bis 2310 mit Lüfter 100% (3080). 2325 steigen schnell aus.

Und die Anderen? Gibt es neben den 50 Grad noch eine Stufe, bei der runtergetaktet wird?

Meine Karte taktet bei 51° rum einen Step hoch. Ja richtig gelesen, hoch. Reproduzierbar.
Hat das mal jemand genauer gecheckt?
 
Ich habe mich heute mal höher als 1v getastet im OC :)

Schaut euch mal die stabile Taktrate an unter Luft. Ich liebe meine EVGA Karte. Schade, dass ich so lange noch auf den Wakü warten muss :(

Ich verstehe den Speicher OC immer noch nicht. Liegt es an der Temperatur, dass die Performance schlechter wird, wenn der Memory Takt höher geht? Mit +300 gibt es mehr Punkte als mit +500 zb
 

Anhänge

  • 122132.jpg
    122132.jpg
    174,9 KB · Aufrufe: 77
Nachricht gelöscht
 
Zuletzt bearbeitet von einem Moderator:
Wobei auf manchen Chips wirklich "Qual Sample" steht. Was auch immer das heißt.
Igor hat es in seinem Binnig-Video ja erwähnt, dass die erste Charge noch Chips aus dem Testlauf bekommt / bekommen hat. Sind also noch keine Chips aus der eigentlichen Massenproduktion - mit dem Nachteil, dass die Wahrscheinlichkeit deutlich niedriger ist, dass man nen gut übertaktbaren Chip bekommt (könnte also sein, dass die Warterei auf die Strix am Ende doch nen Vorteil mit sich bringt).

Hab im Juni das komplette 3DMark-Paket für 3,25€ bei Steam gekauft. Ist da Port Royal schon drin?
Ich glaube schon. Habe mir kürzlich auf Humblebundle das komplette 3DMark-Paket geholt - da war es auf jeden Fall mit drin. Kannst du aber recht einfach prüfen indem du auf Steam prüfst, ob die Upgrade-Pakete mit deinem Account verknüpft sind.
 
@HisN
Also ich hab mal etwas kälter und etwas länger den "Speichertest" gemacht, also ohne Artefakte ist da bei mir bei 1,08V bei 2080Mhz!!!! Schluss.
Heißt deine GPU ist, wenn du dauerhaft 2340Mhz da packst 60Mhz besser, das ist schon echt ordentlich.:wink:🙌👍

@SH
Versuch doch mal die Karte mit Ventilator anzupusten damit die Rückseite kühl bleibt ohne GPUOC, also wenn ich das richtig gesehen hab schaffen sehr gute +1300-1400 rum, wenn der Speicher "kalt" bleibt.
Bei mir sinken bei +1500 die Werte auf jeden Fall, bei +1400 sieht das noch gut aus.

Ich hoff ja mal das CP oder Amazon noch liefert, dann gucke ich mal was in meinen Rechner wandert, mich würde mal interessieren wo das untere Ende der GPU´s ist,
ich hoffe aber das ich das nicht selbst rausfinde. 😂
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: SH
Igor hat es in seinem Binnig-Video ja erwähnt, dass die erste Charge noch Chips aus dem Testlauf bekommt / bekommen hat. Sind also noch keine Chips aus der eigentlichen Massenproduktion - mit dem Nachteil, dass die Wahrscheinlichkeit deutlich niedriger ist, dass man nen gut übertaktbaren Chip bekommt (könnte also sein, dass die Warterei auf die Strix am Ende doch nen Vorteil mit sich bringt).
Gut Ding braucht Weile :-)
(FTW3 Ultra mit 520W!?)

Wegen dem 3DMark-Paket guck ich mal (y)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh