[Sammelthread] NVIDIA GeForce RTX 3090 / RTX 3090 TI + FAQ

NVIDIA GeForce RTX 3090 / 3090 TI (In Progress)

ThnfdUH.jpg


sUZUm5S.jpg
1648633623369.png



NEWS

BIOS

Anleitung

1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Flashen auf eigene Gefahr. Ich übernehme keine Haftung dafür.


OVERCLOCKING | TOOLS

Kurze Info wegen Stromverbrauch: 3090 Trio auf Anschlag + 9900K mit 1,36v und 5,4 GHZ = 665W für das gesamte System bei mir (SH). Dies kann natürlich bei euch abweichen. Eine Strix kann 100W mehr ziehen. Daher würde ich jedem, der OC betreibt +850W Netzteile empfehlen

Undervolting PT Usage Tests mit meiner 3090 FTW3

800mv = 320 Watts
850mv = 370 Watts
900mv = 430 Watts
912mv = 450 Watts
918mv = PT Limit für FTW3 mit 450
UNDERVOLTING

800mv = 320 Watts
850mv = 370 Watts
900mv = 430 Watts
912mv = 450 Watts
918mv = PT Limit für FTW3 mit 450W



ManufacturerProductRTX 3080RTX 3090
NVIDIAFounders EditionMixed (2)Mixed (2)
AsusTUFMLCCMLCC
AsusStrixMLCCMLCC
EVGAXC3Mixed (1)Mixed (2)
EVGAFTW3Mixed (2)**Mixed (2)
GalaxBlackMixed (1)Unknown
GainwardPhoenixMixed (1)Unknown
GigabyteEagleUnknownPOSCAP
GigabyteGamingPOSCAPPOSCAP
Inno3DiChill X3Mixed (1)Unknown
Inno3DiChill X4Mixed (1)Unknown
MSIGaming X TrioMixed (1)Mixed (2)
MSIVentusMixed (1)Mixed (2)
PalitGaming ProMixed (1)Mixed (2)
ZotacTrinityPOSCAPPOSCAP
ZotacX-GamingUnknownPOSCAP

Quelle: https://www.reddit.com/r/nvidia/comments/izhpvs/the_possible_reason_for_crashes_and_instabilities/

3090 TI Power Limit Übersicht


ManufacturerProductRTX 3090 TI
NVIDIAFounders Edition450 W maximal
AsusTUF
AsusStrix OC LC516 W maximal
EVGABlack Gaming
EVGAFTW3
EVGAFTW 3 Ultra

KÜHLERTAUSCH | GARANTIE


HerstellerKühlerwechselOverclockingOvervoltingVBIOS flashen
ASRockKulanz5
Asus✓1✓1
EVGA✓2
Gainward✓3
Gigabyte
KFA²
MSI
Nvidia
Palit✓4
PowerColor
SapphireKulanz5
XFX
Zotac✓ (nur die ersten zwei Jahre)
1 Nur mit GPU Tweak II oder AMD/Nvidia-Software; 2 Nur Grafikkarte mit Dual-BIOS von denen eines im Originalzustand sein muss; 3 Nur mit Gainwards ExpertTool; 4 Nur mit Palits ThunderMaster; 5 Dazu sind die Hinweise des folgenden Abschnitts „Kulanz statt Garantie“ zu beachten

Quelle: Computerbase


MSI:


"Sie können bei Grafikkarten die Wärmeleitpaste oder Kühler Tauschen. Dieser muss jedoch die gleiche oder eine besser Leistung besitzen.
Sofern beim Umbau nichts beschädigt wird, bleibt die Garantie der Karte erhalten.
Sollte jedoch ein Fehler an der Karte auftreten, müssten Sie für eine Garantieabwicklung über den Händler den Original Zustand der Karte wieder herstellen.

Dies gilt für alle MSI Grafikkarten welche in Deutschland und Österreich von MSI Deutschland vertrieben wurden."

ZOTAC:

"die normalen zwei Jahre bleiben erhalten, ein Erweiterung der Garantie
ist dann ungültig. Die Karte muss wenn etwas im im Originalzustand
eingereicht werden."

Gainward und Palit

"Leider müssen wir Sie auch mitteilen, wenn Sie den originale Kühlkörper umbauen, werden Sie dadurch Ihre Ansprüche auf Garantie dieser Karte verlieren. Das gilt nicht nur für Gainward Produkt , sondern auch für Palit"


Aktuelle Referenzkarten

Zotac:

Zotac GAMING GeForce RTX 3080 TrinityZT-A30800D-10P
Zotac GAMING GeForce RTX 3080 TrinityZotac GAMING GeForce RTX 3090 TrinityZT-A30900D-10P
GALAX/KFA2:

Galax GeForce RTX 3080 SG38NWM3MD99NN
Galax GeForce RTX 3090 SG38NWM3MD99NK
KFA2 GeForce RTX 3080 SG39NSM5MD1GNA
KFA2 GeForce RTX 3090 SG39NSM5MD1GNK
Gainward:

Gainward RTX 3080 Phoenix471056224-1952
Gainward RTX 3080 Phoenix GS471056224-2010
Gainward RTX 3090 Phoenix471056224-1976
Gainward RTX 3090 Phoenix GS471056224-2034
Palit:

Palit GeForce RTX 3080 Gaming ProNED30800S19IA-132AA
Palit GeForce RTX 3080 Gaming Pro OCNED3080S19IA-132AA
Palit GeForce RTX 3090 Gaming ProNED30900S19SB-132BA
Palit GeForce RTX 3090 Gaming Pro OCNED3090S19SB-132BA
PNY:

PNY GeForce RTX 3080 XLR8 Gaming EPIC-XVCG308010TFXMPB
PNY GeForce RTX 3090 XLR8 Gaming EPIC-XVCG309024TFXPPB
INNO3D:

Inno3D GeForce RTX 3080 iChill X3C30803-106XX-1810VA37
Inno3D GeForce RTX 3080 iChill X4C30804-106XX-1810VA36
Inno3D GeForce RTX 3080 Twin X2 OCN30802-106XX-1810VA34
Inno3D GeForce RTX 3090 iChill X3C30903-246XX-1880VA37
Inno3D GeForce RTX 3090 iChill X4C30904-246XX-1880VA36
Inno3D GeForce RTX 3090 Gaming X3N30903-246X-1880VA37N


Mehr Informationen gibt es hier: https://www.overclock.net/threads/official-nvidia-rtx-3090-owners-club.1753930/
 
Zuletzt bearbeitet:
Biste dir sicher, dass das nicht Shadercompiling ist? Verschwindet das stuttering mit der Zeit bzw. wird schwächer?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Eben nicht , hast du beides an hebelt das gsync aus es läuft nicht beides gleichzeitig

Hat man gsync an schaltet man vsync aus

Denn wenn dein Rechner bestimmte framerate nicht Schaft limitiert dich vsync

Beispiel schwanken deine frames bei 60-80 nagelt dich vsync auf 60 fest , hast weniger als 60 kann es sogar weniger sein

Gsync hingegen lässt deine FPS in Ruhe und hast dennoch kein tearing

Also es wurde nicht geschaffen das beides zusammen läuft , ist vsync an ist gsnyc automatisch nicht aktive

Der Punkt ist doch mit gsync kein tearing und so viel FPS wie die graka hergibt , vsync nimmt sich den kleinsten gemeinsamen Nenner und dann kann es passieren das deine Karte nur zu 70% als Beispiel ausgelastet ist und man möchte ja das die graka so nah an 100% läuft wie geht
FALSCH!
So kannte ich das bisher auch. Wollte mich da aber gestern nicht einmischen bei den ganzen Fachgesprächen :)
FALSCH!
Genau so siehts aus.. G-Sync mit an hebelt ja die V-Sync Vorteile wieder aus..
Beitrag automatisch zusammengeführt:
FALSCH!

So extra für euch von Google ins Deutsche übersetzen lassen aber ihr glaubt ja eh nix :rolleyes:

1604995292044.png
 
Hat nix mit Glauben zu tun, ich hatte bisher so einfach kein Tearing, das hat mit eigener Erfahrung zu tun..
 
Hat nix mit Glauben zu tun, ich hatte bisher so einfach kein Tearing, das hat mit eigener Erfahrung zu tun..
Ja dann hast du halt Glück genau in einem Frequenzbereich zu liegen, in dem die Frametime-Abweichungen nicht zum Tragen kommen. Fakt ist aber, dass man auf der sicheren Seite "nur" mit V-Sync ein ist. Ende der Diskussion. Ist ja manchmal schlimm hier...
 
Zuletzt bearbeitet:
Das Bild hier finde ich da sehr informativ. Einfach verständlich und sehr aussagekräftig. Evtl nochmal so als Zusammenfassung.
Aber jeder sieht es anders, ich kenne Leute die können 30 von 60 fps und nichtmal von 144 fps unterscheiden (natürlich auf nem 144hz monitor).
blur-busters-gsync-101-range-chart.jpg
 
Eben nicht , hast du beides an hebelt das gsync aus es läuft nicht beides gleichzeitig

Hat man gsync an schaltet man vsync aus

Denn wenn dein Rechner bestimmte framerate nicht Schaft limitiert dich vsync

Beispiel schwanken deine frames bei 60-80 nagelt dich vsync auf 60 fest , hast weniger als 60 kann es sogar weniger sein

Gsync hingegen lässt deine FPS in Ruhe und hast dennoch kein tearing

Also es wurde nicht geschaffen das beides zusammen läuft , ist vsync an ist gsnyc automatisch nicht aktive

Der Punkt ist doch mit gsync kein tearing und so viel FPS wie die graka hergibt , vsync nimmt sich den kleinsten gemeinsamen Nenner und dann kann es passieren das deine Karte nur zu 70% als Beispiel ausgelastet ist und man möchte ja das die graka so nah an 100% läuft wie geht
Quatsch! Stell im NV CP g.syng Anzeige anzeigen an, dann machst v-syng an und schreibst hier ob die g-syng Anzeige inGame auf OFF steht....
Beitrag automatisch zusammengeführt:

Habt ihr den neuen Treiber drauf? ( 457.30 )



Is ja wohl n schlechter Witz :kotz:
MSI MAG24C/MSI Optix G27C2 das gilt für die 2 Monitore liegt dann wohl eher an MSI
 
Clamp kannst ruhig anlassen das juckt die Spiele (neuen) nicht mehr, High Quality auf ON hebelt alle Verbesserungen darüber hinaus "aus" sollte man nicht einstellen.
Beitrag automatisch zusammengeführt:

War die Diskussion nicht beendet ?
In wiefern? Das was da geschrieben wird ist absoluter Blödsinn und sollte man richtig stellen. V-syng entfernt das tearing von g.syng sonst nix und natürlich begrenzt es die eingestellten Monitor HZ auf den Wert, dazu ist es ja auch da. Das selbe wäre ja man läßt v-syng aus und capt bei zb.100 FPS und g-syng würde sich ausschalten.
 
Zuletzt bearbeitet:
Der Punkt ist doch mit gsync kein tearing und so viel FPS wie die graka hergibt , vsync nimmt sich den kleinsten gemeinsamen Nenner und dann kann es passieren das deine Karte nur zu 70% als Beispiel ausgelastet ist und man möchte ja das die graka so nah an 100% läuft wie geht

Das ist falsch. Ich hatte noch nie 70% wegen V sync. Die Spiele sind meistens im GPU Limit, selten im CPU limit. Wenn im CPU limit, dann nie so, dass konstant 60fps laufen. (y)
 
Hat hier jemand bios flash für die MSI Trio X Gaming gemacht?
 
In wiefern? Das was da geschrieben wird ist absoluter Blödsinn und sollte man richtig stellen. V-syng entfernt das tearing von g.syng sonst nix und natürlich begrenzt es die eingestellten Monitor HZ auf den Wert, dazu ist es ja auch da. Das selbe wäre ja man läßt v-syng aus und capt bei zb.100 FPS und g-syng würde sich ausschalten.

Ich habe kein Tearing mit G-Sync das nochmal entfernt werden müsste nach dem Motto doppelt gemoppelt hält besser..
 
Also entweder zocke ich keins der Games oder habe eben doch Recht, siehe Aussagen über mir.. Ist ja nichtso als ob ich nicht alles schon mit allen möglichen Einstellungen und AB Overlay ma getestet hätte..

Du ballerst einfach keins der betroffenen Games (davon gibts auch nicht viele), ganz feines tearing das hier und da auftreten kann übersiehst du.

Das Video oben von Divinity 2 spricht einfach Bände, totale Tatsache. Ich war vorher auch so dumm und dachte "shice auf V Sync" bis ich dann vom Spiel belehrt wurde. (y)
 
Hab noch keinen block für. Aber alleine die Std PT von 420 w war schon ne Offenbarung.
Lief sehr gut. Hab ich aber nur kurz für paar Tests gemacht.
Alleine schon das das RGBgeraffel irgentwann wieder an war hat mich wieder zurück zum org Bios gebracht.. Bei der MSI ist es wirklich penetrant. wie nen Flakscheinwerfer Marke "Volkssturm"
Mit Wakü würde ich es aber wieder Installieren, wenn...ja wenn nicht heut ne 3090 Strixx kommen würde .

Bin von 207xx gp TS auf 217xx gp bei 450w gekommen. Mehr wollte ich nicht geben ohne Wasser.

Dieses BIOS hatte ich für die 3090 MSI Gaming X Trio benutzt.
 
Zuletzt bearbeitet:
Biste dir sicher, dass das nicht Shadercompiling ist? Verschwindet das stuttering mit der Zeit bzw. wird schwächer?
ja es ist eher zu beginn, hatte ich aber mit keiner anderen Graka bis dato ausser bei der 2080 ti ganz am Anfang als sie rauskam
 
Du ballerst einfach keins der betroffenen Games (davon gibts auch nicht viele), ganz feines tearing das hier und da auftreten kann übersiehst du.

Das Video oben von Divinity 2 spricht einfach Bände, totale Tatsache. Ich war vorher auch so dumm und dachte "shice auf V Sync" bis ich dann vom Spiel belehrt wurde. (y)

Dann haben aber einfach einige wenige Games G-Sync mies implementiert (und V-Snyc muss das dann ausbügeln..) (oder Nvidia hat das) und es ist kein generelles Problem.
 
Ja, es sind nur wenige Games davon betroffen. Killing Floor 2 ist auch ein betroffenes.
Es gibt aber eben auch ganz feines dezentes tearing, dass man leicht übersehen kann, inbesondere dann wenn man "es sind nur andere betroffen, es ist eh alles 'richtig' eingestellt" biased ist. Wer weiß was ich schon alles vor Divinity 2 übersehen habe weil meine Settings sind sowieso uber. Seit ich aber alles richtig eingestellt habe, muss ich über so nen Shice nicht mehr nachdenken.
 
Alles klar OK ich lieg komplet falsch dann lasst doch vsync an wenn es Spass macht und lässt frames liegen

Wenn jemand im Raum Kl wohnt komme ich gerne vorbei und dann können wir ja zusammen rausfinden wer falsch liegt
 
Dann haben aber einfach einige wenige Games G-Sync mies implementiert (und V-Snyc muss das dann ausbügeln..) (oder Nvidia hat das) und es ist kein generelles Problem.
Du hast die Technologie nicht ganz verstanden. Ich nehme es Dir auch garnicht übel, weil selbst die Werbung für G-Sync absolut falsch ist. Die wollen das halt verkaufen und werben mit Tearing frei, was aber technologisch einfach nicht stimmt. In erster Linie ist G-Sync ausschließlich für die Synchronisierung von der Monitor Hz und der fps zuständig!
 
Alles klar OK ich lieg komplet falsch dann lasst doch vsync an wenn es Spass macht und lässt frames liegen
Wenn du mehr FPS hast als die Refreshrate deines Monitors, verlierst G-Sync. Daher G-Sync+V-Sync bzw. besser G-sync+ FPS Limit( Je nach spiel) Unterhalb der eingestellten Refreshrate deines Monitors.
 
Zuletzt bearbeitet:
Alles klar OK ich lieg komplet falsch dann lasst doch vsync an wenn es Spass macht und lässt frames liegen

Wenn jemand im Raum Kl wohnt komme ich gerne vorbei und dann können wir ja zusammen rausfinden wer falsch liegt
Es werden keine Frames liegen gelassen! V-Sync begrenzt sie halt nur auf die maximal eingestellten Hz. Bei 144Hz = 144 fps maximal. Reicht doch völlig aus, ist super smooth und komplett Tearing frei ;)
 
V-Sync = billiger FPS limiter um innerhalb der Refreshrate zu bleiben.


Edit:

OT sry


Das ganze mal an einem praxisnahen Beispiel
Du(Monitor) schaffst es 60x(Refreshrate) die Sek mit den Augen zu blinzeln.

Deine Freundin(Graka) schafft es 60x die Sek nen neues Nacktfoto von ihr hoch zu halten.Hat halt flinke Hände. ;)
Du siehst also jedesmal wenn du die Glotzen auf machst nen neues Foto.

Nr1 Schafft sie aber mal nur 50 Bilder, hast du dann das Pech und siehst vielleicht mal nen Bild doppelt oder wie sie es gerade austauscht.

Nr2 Wenn sie mal nen guten Tag hat und 70 schafft, hast du vielleicht das Problem, das du mal nen Bild nicht siehst oder nen Tausch, weil sie mal wieder schneller war.

V-Sync: Da sagst ihr sie soll mal langsammer machen, bitte nur 60 die Sek.
Ist sie schlecht drauf hast du Nr 1

G-Sync: Du hast ne Wohlfühlrange, willst min.52 Bildchen um den Pegel hoch zu halten, aber nicht mehr wie 60.
Bekommst eh nicht auf die Reihe.
Da sagt sie dir jedes mal, wann du die Augen aufmachen darfst.
Ist sie aber wieder schneller als die 60, kommste mit dem Glotzen nicht nach.
Ab da hält sie wieder die Klappe und du siehst wieder Nr2 bis sie auf 60 oder kleiner droppt.
Ist sie langsamer als die 52 haste wieder Nr 1 bis sie größer 52 schafft.

Ideal wäre also V-Sync+G-Sync :)

Um Nr1 entgegen zu wirken wäre eine die nicht nur viel frisst, sondern die Sportlich ist ideal. ;) (Leistung hat)
Und wenns mit der Leistung nicht klappt, muss man die Ansprüche(Regler) runter schrauben.

Und auf die Frage was man denkt, nicht antworten "Ich denke, du fragst zu viel" .....Ist definitiv falsch.


OT off
 
Zuletzt bearbeitet:
Es sind nicht „einige wenige Games“ betroffen. Selbst die G-Sync Demo zeigt offensichtliches Tearing wenn es nicht korrekt eingestellt ist.

In erster Linie ist G-Sync ausschließlich für die Synchronisierung von der Monitor Hz und der fps zuständig!
Jo. Krass wie viele nicht verstehen wie die Techniken zusammenwirken.

Ich weiß auch nicht was das mit „Frames liegen lassen“ soll. Wer spielt denn im Jahr 2020 ohne Framelimiter? Da ist sämtliches Adaptive Sync von vornherein sinnlos.
 
Ja das ist ja auch ok der eine siehts der andere nicht....eigendlich gehts aber um die Mechanik die dahinter steht und nicht um subjektive Wahrnehmungen. Und damit sollten wir es auch hier belassen gibt 1000000000x Seiten die das erklären.
 
Wennman genug FPS hat sieht man (bzw ICH !) eh kein Tearing mehr..
Das ist ja auch in Ordnung, manche spielen seit Jahrzehnten ganz ohne Sync und sind damit zufrieden, soll ja erlaubt bleiben. Aber warum muss man auf technischen Fakten rumdiskutieren.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh