[Sammelthread] NVIDIA GeForce RTX 2080 TI (TU102-300A) Sammelthread + FAQ



2080 TI Übersicht - Google Tabellen
Falls ihr Daten habt, die in der Tabelle fehlen, bitte mit Quellenlink kommentieren oder an mich schicken. Ich bearbeite das Sheet dann.

HWLX / OCN / 2080TI defect statistics - Google Tabellen

Tools:

Treiber:
NVIDIA

****entfernt von dbode*****

NVIDIA | NVFLASH
Download NVIDIA NVFlash 5.527.0 Official Download NVIDIA NVFlash | TechPowerUp

Anleitung

1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Flashen auf eigene Gefahr. Ich übernehme keine Haftung dafür.


****entfernt von dbode*****



NEWS:

MSI GeForce RTX 2080 Ti Lightning Z PCB pictured | VideoCardz.com
GeForce RTX 2080 Ti von ASUS und MSI im Test
Turing-Undervolting: 15 % geringere Leistungsaufnahme und dennoch leichtes OC - Hardwareluxx
NVIDIAs Turing-GPUs im Mining-Test - Hardwareluxx
Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test - Hardwareluxx
RTX 2080 Ti Founders Edition Tear-Down: Edition - YouTube
Die Turing-Architektur mit RTX, Ray Tracing und den neuen Shader-Funktionen - Hardwareluxx
Erneuter Leak: Technische Daten zur TU102-, TU104- und TU106-GPU - Hardwareluxx
The new features of NVIDIA Turing architecture | VideoCardz.com
NVIDIA GeForce RTX 2080 reviews go live on September 17th - VideoCardz.com
Alphacool Eiswolf 240 GPX Pro für die Geforce RTX 2080 und 2080 Ti vorgestellt - Hardwareluxx
Interview mit NVIDIA: Infos zum OC und der Leistung der GeForce RTX 2080 Ti - Hardwareluxx
Blockdiagramm und neue Cache-Hierarchie zur Turing-Architektur enthüllt - Hardwareluxx



Präsentation: 20.08.2018 auf der GamesCom in Köln. Video gibt es hier: NVIDIA GeForce Keynote - IGN Live at Gamescom 2018 - YouTube
Release: 20.09.2018
Preis: Zwischen 1169-1400 Euro

Geizhals Link: 2080 ti in PCIe mit GPU Consumer (nach Erscheinung): RTX 2080 Ti Preisvergleich Geizhals Deutschland

Shops:

Alternate: https://www.alternate.de/html/listi...ICE&order=DESC&hideFilter=false#listingResult
EVGA: EVGA - DE - Produkte - Grafikkarten - GeForce 20 Series Family - RTX 2080 Ti

EVGA - Support - Step-Up Program
Dv5FhA1.jpg


Mindfactory:
MediaMarkt: Ihre Suchergebnisse - MediaMarkt
Saturn: https://www.saturn.de/de/search.html?query=2080+ti&searchProfile=onlineshop&channel=sedede
Amazon:
Computeruniverse: Suche
Caseking: NVIDIA GeForce RTX 2080 Ti online kaufen

Daten:

eEWLAu6.jpg
Vergleich
keori3g.jpg



Overclocking:

MSI Afterburner 4.6.0 Beta 9 (13338) Download
EVGA - Software - EVGA Precision X1

Kühlerwechsel Garantie:

H3g9d4U.jpg


Wasserkühlung:

GeForce RTX 20x0 Series - Full Cover for NVIDIA® GeForce® - GPU Blocks - Water Blocks – EK Webshop

EKWB WaKü für 2080/2080 TI sind vorbestellbar.

http://gpu.watercool.de/WATERCOOL_HEATKILLER_GPU_Compatibility.pdf
 
Zuletzt bearbeitet von einem Moderator:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wo lernt man eigentlich die Karten zu demontieren und die custom Blöcke zu montieren? Selbst mit Anleitung sieht das extrem kompliziert und fehleranfällig aus.
 
Also jeder, der sich selbst seinen Rechner zusammengesteckt hat, sollte problemlos dazu in der Lage sein.

Inwiefern kompliziert und fehleranfällig?
 
ich hab schon 2003 meine erste custom Wakü auf geforce 4200ti und amd athlon xp 2500 gebaut. selber im Cad blöcke gezeichnet und dann fräsen lassen, plexi oben drauf gebaut, Motoradkühler als Radiator, aquarienpumpen ...... Man waren das noch Zeiten. :fresse2:

Nee im Ernst, mit etwas handwerklichem Geschick und in Ruhe sollte das klappen.
 
Zuletzt bearbeitet:
Ist doch nicht schwer. Schrauben rausdrehen, den Kühler vorsichtig von der Karte lösen (die haften recht gut), Stecker für die RGB Beleuchtung und Lüfter entfernen, Chip reinigen, neue Wärmeleitpaste auftragen, Wärmeleitpads anbringen (laut Anleitung) und dann den neuen Kühler drauf und festschrauben.
Das ist eigentlich alles.
Gibt aber auch solche Videos.
kryographics Pascal - GTX 1080 1070 Installation - YouTube

das hat mir damals bei meinen ersten Umbau schon etwas geholfen. Weil ein Video doch oft mehr zeigt als paar Bilder.
 
Wenn ich die Zahlen von Webmi so sehe, möchte ich meinen Rechner gleich aus dem Fenster werfen^^
 
Nicht übel:

Auch die Kühltechnologie braucht sich nicht zu verstecken: so erreichten wir auf übertakteten Karten im Stresstest ein DeltaT von DIE zu Wasser von nur 10K.

Ist also möglich, ka was da teils bei den EK los ist.
 
Falls sich das bewahrheiten sollte, hab ich die 100 Euro auch noch übrig^^
Aber das Gebrülle der Lüfter ist so einfach nicht auszuhalten^^
 
Die Ergebnisse sind sehr gut, ja. Als ich gestern meine Superposition Zahlen mit denen der Unigine eignen HOF vergleiche, könnte ich mich da auf #3 und #4 platzieren in 4K und 8K, würde ich die Score dort einreichen. Dazu müsste ich halt Superposition lizenzsieren...

14.240 Punkte (4K) sind mal eben fast 1000 Punkte mehr, als der Rest hier so mit 2080TI drückt...

8086K @ 5.200 MHz, 16GB 4.133 MHz C17, 2080TI 2.190 MHz, das geht gut vorwärts. :shot:

9900K und 9700K sind vorbestellt, mal schauen wie die so laufen.
 
Alternate hat überraschend heute angeliefert, und EKWB ist auch gekommen, meine Frau rief mich gerade an und fragte was ich denn bestellt hätte:hust:

Ich sach neue Graka !, und kostet ? 639,-€!:hust:, hoffentlich macht Sie die Verpackung nicht auf :shot:
 
14.240 Punkte (4K) sind mal eben fast 1000 Punkte mehr, als der Rest hier so mit 2080TI drückt...

8086K @ 5.200 MHz, 16GB 4.133 MHz C17, 2080TI 2.190 MHz, das geht gut vorwärts. :shot:

Wobei ich ja schon für mich festgestellt habe, das ich mit dem alten 5960X auch mit 4.5 schon im CPU-Limit beim 4K verhungere.
Allerdings sollte das bei 8K ja nicht so sein (da zeigt das OSD auch immer schön 99% Auslastung an), und trotzdem fehlen mir da viele viele viele viele Punkte^^

@ABA74
Meine Frau hat mich bei 1,4K dann doch ein bisschen schräg angeschaut, aber sie kennt mich ja inzwischen lange genug, und die letzte Graka hat 2 Jahre gehalten^^
 
lol

kenn ich :d
 
Ist also möglich, ka was da teils bei den EK los ist.

Was soll da los sein? Ich habe mit 380W BIOS 13K Delta. Mit einem 310W BIOS sind das sicher auch 10K. Dabei nutze ich noch nicht mal LM, mit dem ein noch besseres Delta drin wäre.

Vergleiche ich also Warmwasser und nutze evtl. noch LM kommst mit jedem Kühler auf 10K... Die Frage ist halt auch immer, welches Delta vergleiche ich. Ich komme bei low-Flow auch schon mal auf 6-7K Delta nur vom Warm- zu Kaltwasser! Such ich mir hier die günstigere Temp raus und vergleiche die mit der GPU, komm ich auf ein besseres Delta. Jeder hat andere (Mess-)Umstände, jede Wakü ist anders und dann ein Fass auf zu machen, weil einer Block unter Umständen XYZ evtl. 3K besser kühlt, als der nächste, obwohl die Umstände dazu oft nur sehr schwer vergleichbar sind, ist doch Schwachsinn, liegen die Unterschiede immer nur eher im Rahmen der Messgenauigkeit.



 
Zuletzt bearbeitet:
@Hisn

Meine meinte, wie kannst Du nur, spielst ja eh nicht mehr so viel...., doch sag ich, ab heute wieder !:d

Wertanlage:hust:
 
Zuletzt bearbeitet:
Meine Frau sagt, gönns Dir einfach man lebt nur einmal und ich, nope so ein Wucher kann ich nicht unterstützen! :d

- - - Updated - - -

Wobei ich ja schon für mich festgestellt habe, das ich mit dem alten 5960X auch mit 4.5 schon im CPU-Limit beim 4K verhungere.

Das wirst du aber unter realen Spielbedingungen nie und wenn es gibt ja noch diverse AA Modi ;)
 
So isses.
Schade um die hohen Zahlen^^
Und glücklicherweise hab ich einen UHD-Monitor und krieche bei vielen Games auch mit der 2080TI unterhalb von 60 FPS rum. Die stemmt meine CPU in der Regel.
 
Eisblock GPX-N Light für Geforce RTX 2080Ti M01
https://static1.caseking.de/media/image/thumbnail/wach-542_wach_542_02_800x800.jpg

EK Waterblocks EK RTX 2080 Ti
https://www.tomshw.de/wp-content/uploads/2018/10/Cooler-Rear.jpg

Phanteks Glacier G2080Ti Fullcover
https://www.tomshw.de/wp-content/uploads/2018/10/View-Rear.jpg

HEATKILLER® IV for RTX 2080 Ti
http://shop.watercool.de/WebRoot/Sage/Shops/WatercooleK/5B8E/AE0A/7C18/6C76/07F5/0A0C/05BA/DDEF/HK_IV_2080Ti_Acryl_2.jpg
http://shop.watercool.de/WebRoot/Sage/Shops/WatercooleK/5B8E/AE0A/7C18/6C76/07F5/0A0C/05BA/DDEF/HK_IV_2080Ti_Acryl_1.jpg

Gewicht von 800 Gramm reinem Eletrolytkupfer :-)

Sehe ich das richtig, das am HEATKILLER mehr vom PCB angedeckt und gekühlt wird?
Wirkt ja echt massiv und hochwertig.
 
Zuletzt bearbeitet:
Was soll da los sein? Ich habe mit 380W BIOS 13K Delta. Mit einem 310W BIOS sind das sicher auch 10K. Dabei nutze ich noch nicht mal LM, mit dem ein noch besseres Delta drin wäre.

Vergleiche ich also Warmwasser und nutze evtl. noch LM kommst mit jedem Kühler auf 10K... Die Frage ist halt auch immer, welches Delta vergleiche ich. Ich komme bei low-Flow auch schon mal auf 6-7K Delta nur vom Warm- zu Kaltwasser! Such ich mir hier die günstigere Temp raus und vergleiche die mit der GPU, komm ich auf ein besseres Delta. Jeder hat andere (Mess-)Umstände, jede Wakü ist anders und dann ein Fass auf zu machen, weil einer Block unter Umständen XYZ evtl. 3K besser kühlt, als der nächste, obwohl die Umstände dazu oft nur sehr schwer vergleichbar sind, ist doch Schwachsinn, liegen die Unterschiede immer nur eher im Rahmen der Messgenauigkeit.

Nicht gleich wieder an die Decke gehen webmi. Du missverstehst meine Beiträge irgendwie ganz gern. ;)
Hast du hier nicht mitgelesen? Bist du nicht der einzige hier bei dem dem der Kühler brauchbar performt? Die meisten anderen haben doch ein viel höheres Delta und die meinte ich. Beim Watercool brauchst ja nichtmal LM für die 10° wenn das stimmt. Klar sind ein paar Grad zu vernachlässigen, aber warum nicht mitnehmen?
 
Bist du nicht der einzige hier bei dem dem der Kühler brauchbar performt? Die meisten anderen haben doch ein viel höheres Delta und die meinte ich.

Ralf hat noch nie nen Block auf ne Karte gezogen und das gestern auf anhieb so hinbekommen, dass ich auf 13K komme mit 380W Belastung. Kann man jetzt philosophieren was bei den anderen los ist.
 
Schöne Karte webmi!!!

Lass 2200 fallen ;)

Werd erst noch warm mit der Karte bzw. dem Boost von Turing. UV habe ich bis jetzt auf die schnelle nicht hinbekommen. OV leider auch noch nicht so richtig. Die 2190 liefen mit 1.063v, die hat er sich einfach genommen, hatte da keinen Einfluss darauf, obwohl via Curve. Zieh ich auf 1.0 bei 2100, zieht er trotzdem 1.05. Muss mich da heute noch mal mit beschäftigen um das besser in den Griff zu bekommen. Wenn ich das spezifischer einstellen kann, geht evtl noch was, weil weniger PT bei mehr und stabilierem Takt oder sowas halt.

1.03 wenn zum Beispiel mit 2.190 laufen würde, statt mit 1.06v, sind das evtl ein paar Punkte weil hier und da weniger PT limitiert. Mal sehen. Muss noch mal rumspielen mit dem Editor.
 
So meine 2080 FTW3 ist nun endlich da! Woran sehe ich noch mal ob ich einen A1 Chip habe?
 
GPU-Z unter Device ID muß 1E07 zu finden sein. Das ist dann der A Chip.
 
Scheint bei der non Ti wohl anders zu sein. Bei mir steht 1E87.
 
Achso. Das gilt für die ti. Habe nicht gesehen das du die andere hast.
 
Jau, sollte evtl. mal endlich jemand in den Startpost machen, aber gut. Darüber hinaus biste im falschen Sammelthread mir deiner 2080, rv112, hier treffen sich doch die Kartenleger zum Austausch von Pünktchen bezüglich der 2080 Ti, hier biste mit der Kleinen dann eben vollkommen fehl am Platz, also wenn du auch Pünktchen, Takt usw. präsentieren möchtest. ;)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh