[Sammelthread] NVIDIA GeForce RTX 2080 TI (TU102-300A) Sammelthread + FAQ



2080 TI Übersicht - Google Tabellen
Falls ihr Daten habt, die in der Tabelle fehlen, bitte mit Quellenlink kommentieren oder an mich schicken. Ich bearbeite das Sheet dann.

HWLX / OCN / 2080TI defect statistics - Google Tabellen

Tools:

Treiber:
NVIDIA

****entfernt von dbode*****

NVIDIA | NVFLASH
Download NVIDIA NVFlash 5.527.0 Official Download NVIDIA NVFlash | TechPowerUp

Anleitung

1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Flashen auf eigene Gefahr. Ich übernehme keine Haftung dafür.


****entfernt von dbode*****



NEWS:

MSI GeForce RTX 2080 Ti Lightning Z PCB pictured | VideoCardz.com
GeForce RTX 2080 Ti von ASUS und MSI im Test
Turing-Undervolting: 15 % geringere Leistungsaufnahme und dennoch leichtes OC - Hardwareluxx
NVIDIAs Turing-GPUs im Mining-Test - Hardwareluxx
Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test - Hardwareluxx
RTX 2080 Ti Founders Edition Tear-Down: Edition - YouTube
Die Turing-Architektur mit RTX, Ray Tracing und den neuen Shader-Funktionen - Hardwareluxx
Erneuter Leak: Technische Daten zur TU102-, TU104- und TU106-GPU - Hardwareluxx
The new features of NVIDIA Turing architecture | VideoCardz.com
NVIDIA GeForce RTX 2080 reviews go live on September 17th - VideoCardz.com
Alphacool Eiswolf 240 GPX Pro für die Geforce RTX 2080 und 2080 Ti vorgestellt - Hardwareluxx
Interview mit NVIDIA: Infos zum OC und der Leistung der GeForce RTX 2080 Ti - Hardwareluxx
Blockdiagramm und neue Cache-Hierarchie zur Turing-Architektur enthüllt - Hardwareluxx



Präsentation: 20.08.2018 auf der GamesCom in Köln. Video gibt es hier: NVIDIA GeForce Keynote - IGN Live at Gamescom 2018 - YouTube
Release: 20.09.2018
Preis: Zwischen 1169-1400 Euro

Geizhals Link: 2080 ti in PCIe mit GPU Consumer (nach Erscheinung): RTX 2080 Ti Preisvergleich Geizhals Deutschland

Shops:

Alternate: https://www.alternate.de/html/listi...ICE&order=DESC&hideFilter=false#listingResult
EVGA: EVGA - DE - Produkte - Grafikkarten - GeForce 20 Series Family - RTX 2080 Ti

EVGA - Support - Step-Up Program
Dv5FhA1.jpg


Mindfactory:
MediaMarkt: Ihre Suchergebnisse - MediaMarkt
Saturn: https://www.saturn.de/de/search.html?query=2080+ti&searchProfile=onlineshop&channel=sedede
Amazon:
Computeruniverse: Suche
Caseking: NVIDIA GeForce RTX 2080 Ti online kaufen

Daten:

eEWLAu6.jpg
Vergleich
keori3g.jpg



Overclocking:

MSI Afterburner 4.6.0 Beta 9 (13338) Download
EVGA - Software - EVGA Precision X1

Kühlerwechsel Garantie:

H3g9d4U.jpg


Wasserkühlung:

GeForce RTX 20x0 Series - Full Cover for NVIDIA® GeForce® - GPU Blocks - Water Blocks – EK Webshop

EKWB WaKü für 2080/2080 TI sind vorbestellbar.

http://gpu.watercool.de/WATERCOOL_HEATKILLER_GPU_Compatibility.pdf
 
Zuletzt bearbeitet von einem Moderator:
Immer nur Vrel (der blaue Balken) und nichts anderes.
Welches BIOS hast du, vielleicht probiere ich mal ein Anderes

btw:
Beim Stock-BIOS hatte ich @ default 0,95V und beim jetzigen 380W-GALAX-BIOS @ default 1,05V. Ist das normal?
Aber es ist nicht das GALAX-BIOS von Post #1
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Lag wohl am BIOS...
Hab nun dieses hier drauf und das Gleiche probiert - siehe da max. 1,093V

Aber ich frage mich, wie verlässlich die Anzeige in GPU-Z und Afterburner sind, denn ich hatte mit angezeigten mehr Takt ein schlechteres Benchergebnis.
Was wäre die Erklärung dafür?
 
Zuletzt bearbeitet:
Moin du,ich hatte auch erstr diese Bios was alle haben wollten,das Galax 380er Watt Bios. Braucht man nicht wirklich. Hab dann ein kompromiss gemacht und nehme "für meine Karten Marke" das 373 Evega Bios und fahre damit sehr gut in den Games. Wird wirklich manchmal voll benutzt 374/377 Watt.

Erstellt:08. Januar 2019 (10:57)
CPU Name:Intel Core i9-9900KPhysikalische / Logische CPUs:8 / 16
CPU-Takt (max):3600 /im Test 5,3MHz
Hauptplatine:ASUSTeK ROG MAXIMUS XI GEN
Betriebssystem:Windows 10 (Build 17763)
Grafik-API:directX GPU-Treiber:417,35 GPU-Name:GeForce RTX 2080 Ti Rev. A (TU102)GPU-Anbieter:NVIDIAGPU-Speicher:11264 MB
Anzahl der Karten:1GPU-Speichertakt (max):8260 MHzGPU-Kerntakt (max.):2190 MHz
GPU Temp min / max:28/38 � C
FPS min / avg / max:85.82/105.87/132.62

Das sind die Einstellungen beim Test.
Wenn du yprobleme mit dem Dpannungserhöhungs yregler hadt im MSI afterburn.must du 2 gewisde einstellungen mache. In den Einstellungen Im MsI.

Hier diese Bios Version habe ich genommen.

VGA Bios Collection: EVGA RTX 2080 Ti 11 GB | TechPowerUp

Und dann nach Anleitung von der erdten Seite mit dem richtigen Flash Tool. Ist kindetleicht.

Gruss Axel
 
Wie hast du das Ergebnis erreicht ?

Kann bei meiner Karte Power Limit bis 122% stellen . Hab dann 8277 mhz RAM gegeben und 2130 gpu takt . Problem ist das ich die 2130 mhz nicht stabil gehalten bekomme und der Takt bis auf 2050 runtergeht .

Kriege bei 4k optimize vielleicht 13700 punkte zusammen

Irgendwie nicht so geil ...
 
@MS1988

Das macht beim spielen keinen bis kaum einen Unterschied.

@Dwayne_Johnson

40. Platz auf der Liste. Die meisten Runs landen aber nicht auf der Liste, da nur Free-Version.
 
Habe jetzt mal dieses hier drauf...
Aber seltsam ist, dass sich der Takt und mal auch die Spannung minimal ändert, obwohl ich in keinem Limit bin
Und Power sind nur 107% bei ca. 330W. Alles irgendwie nicht nachvollziehbar

Komisch ist auch, dass ich mit diesem BIOS keine 97-98% Auslastung mehr hab - eher 96%, aber trotzdem ein besseres Ergebnis?


@ BF2

Meine sind auch inoffiziell, da auch nur free


@ MS

Wie hoch geht deine Temperatur?
 
Zuletzt bearbeitet:
Puh hab ich garnicht drauf geachtet 😀

Vielleicht 40°c . Dauert ja bisschen bis sich der Loop aufheizt .

Hab in der Regel zwölf grad delta zwischen Wasser und Gpu .
 
Zuletzt bearbeitet:
Ich hab nochmal getestet.

Also habe vorraussätzlich Spieletauglich 2115/8007 ausgelotet.

Bei 8007 MHZ Ram konnte ich auch stabil einen GPU Takt ausloten.

Bei 2150 MHZ kam bei Heaven hier und da kleine Bildfehler , aber bei 2115 MHZ liefen alle Benches und test´s schonmal durch.

Karte wird 42°C warm .

Hab einen A Chip und Samsung Speicher. Denke ist nichts besonderes, aber wohl auch nicht Ultra schlecht.

2115/8007
 
Das immer noch besser als jede Stock-Karte ;)

In BF5 ist der Unterschied bei mir grob 10FPS zwischen Stock und OC
In BF4 hab ich komischerweise garkeinen Unterschied. K.A. warum

Hab noch nicht viel gemacht, seit ich Wakü und OC hab. Aber 2100/8200 scheinen gut zu laufen
Andererseits merkt man davon aber nichts - eher am Stromverbrauch (70-90W mehr)

Wenn ich mal alles fertig hab, greife ich nochmal an in Superposition, um evtl. 14.500 zu knacken.
 
Zuletzt bearbeitet:
Ja hab mir das jetzt auch nur bei Afterburner abgespeichert.


Hab sonst Stock und erhöhter PT, weil brauche inmoment die Leistung nicht, aber das game wo die Lesitung sicher gebraucht wird kommt
sicher noch ^^
 
Und ich dachte der "kleine" Firestrike ist inzwischen ein CPU-Benchmark.
 
Kurze (wahrscheinlich unnötige) Frage.

Ich habe eine gebrauchte 2080TI erstanden die vorher in einem Wakü System lief. Der Verkäufer hat den alten Kühler wieder draufgebaut (Gigabyte Aorus).
Er hat dabei nur vergessen die 2 Stecker für die LEDs wieder anzustecken. Jetzt müsste ich den Kühler nochmal runternehmen um das zu korrigieren.

Muss ich da beim ab und wieder draufschrauben auf etwas achten? Neue Thermal Paste/Pads oder so?
 
Hat die cpu bei 4k optimize Einfluss ?

Bei 1080ti war es zumindest nicht so
 
Die CPU hat keinen Einfluss bei 4K. Denn damals hatte ich mit der 1080TI die selben Punkte mit 2 unterschiedlichen Prozessoren (Ryzen 1600X und 8700K).
 
Weiß jemand, bei welcher Custom 2080 Ti sich die Lüfter auf mind. 500 rpm runterregeln lassen kann ohne der nervenden AN/AUS Problematik der Lüfter oder ist das höchste der Gefühle mind. ca. 800 rpm?
Es scheint ja so zu sein, dass wohl alle Custom 2080 Ti mit dem Problem des AN/AUS-Bug unterhalb einer gewissen RPM zu kämpfen haben (z.B. EVGA https://forums.evga.com/2080-TI-XC-Ultra-fan-clicking-noise-m2866077.aspx)

Wäre schön, wenn jemand dazu eine fachkundige Auskunft geben kann.
Danke!
 
Zuletzt bearbeitet:
Ich meine mit Asus GPU Tweak kann man den Lüfter so weit runter regeln, wie man will.
 
sp4kt.jpg

Müsste Platz 39 sein.
Gigabyte (GPU 2100 - RAM 8500)
 
Ram 8500 muss erstmal laufen .

Nicht schlecht.
 
Ram 8500 muss erstmal laufen .

Nicht schlecht.

Mit EVGA Tool kann ich sogar bis 8650Mhz.
Ab 8700 gibts Bildfehler:fresse:
24/7 läuft aber mit GPU 2100 RAM 8200, reicht vollkommen.
Bios ist Original von Gigabyte, hab auch andere ausprobiert bringt aber so gut wie nix ausser hohe Temps und Stromverbrauch.

 
So viel dazu, es gäbe bei Superposition 4k keine Konstellation, bei der die CPU limitiert:


Der 6900k lief mit 3,7Ghz, der 9900k mit 4,7GHz.

Die GPU ist beide Male gleich eingestellt gewesen.
 
Ich kann bei AB 8570 einstellen , weil meine Karte von Haus aus mit 7070 läuft .

Der eine Kollege meinte ja mit dem evga tool geht mehr .
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh