[Sammelthread] NVIDIA GeForce RTX 2080 TI (TU102-300A) Sammelthread + FAQ



2080 TI Übersicht - Google Tabellen
Falls ihr Daten habt, die in der Tabelle fehlen, bitte mit Quellenlink kommentieren oder an mich schicken. Ich bearbeite das Sheet dann.

HWLX / OCN / 2080TI defect statistics - Google Tabellen

Tools:

Treiber:
NVIDIA

****entfernt von dbode*****

NVIDIA | NVFLASH
Download NVIDIA NVFlash 5.527.0 Official Download NVIDIA NVFlash | TechPowerUp

Anleitung

1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Flashen auf eigene Gefahr. Ich übernehme keine Haftung dafür.


****entfernt von dbode*****



NEWS:

MSI GeForce RTX 2080 Ti Lightning Z PCB pictured | VideoCardz.com
GeForce RTX 2080 Ti von ASUS und MSI im Test
Turing-Undervolting: 15 % geringere Leistungsaufnahme und dennoch leichtes OC - Hardwareluxx
NVIDIAs Turing-GPUs im Mining-Test - Hardwareluxx
Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test - Hardwareluxx
RTX 2080 Ti Founders Edition Tear-Down: Edition - YouTube
Die Turing-Architektur mit RTX, Ray Tracing und den neuen Shader-Funktionen - Hardwareluxx
Erneuter Leak: Technische Daten zur TU102-, TU104- und TU106-GPU - Hardwareluxx
The new features of NVIDIA Turing architecture | VideoCardz.com
NVIDIA GeForce RTX 2080 reviews go live on September 17th - VideoCardz.com
Alphacool Eiswolf 240 GPX Pro für die Geforce RTX 2080 und 2080 Ti vorgestellt - Hardwareluxx
Interview mit NVIDIA: Infos zum OC und der Leistung der GeForce RTX 2080 Ti - Hardwareluxx
Blockdiagramm und neue Cache-Hierarchie zur Turing-Architektur enthüllt - Hardwareluxx



Präsentation: 20.08.2018 auf der GamesCom in Köln. Video gibt es hier: NVIDIA GeForce Keynote - IGN Live at Gamescom 2018 - YouTube
Release: 20.09.2018
Preis: Zwischen 1169-1400 Euro

Geizhals Link: 2080 ti in PCIe mit GPU Consumer (nach Erscheinung): RTX 2080 Ti Preisvergleich Geizhals Deutschland

Shops:

Alternate: https://www.alternate.de/html/listi...ICE&order=DESC&hideFilter=false#listingResult
EVGA: EVGA - DE - Produkte - Grafikkarten - GeForce 20 Series Family - RTX 2080 Ti

EVGA - Support - Step-Up Program
Dv5FhA1.jpg


Mindfactory:
MediaMarkt: Ihre Suchergebnisse - MediaMarkt
Saturn: https://www.saturn.de/de/search.html?query=2080+ti&searchProfile=onlineshop&channel=sedede
Amazon:
Computeruniverse: Suche
Caseking: NVIDIA GeForce RTX 2080 Ti online kaufen

Daten:

eEWLAu6.jpg
Vergleich
keori3g.jpg



Overclocking:

MSI Afterburner 4.6.0 Beta 9 (13338) Download
EVGA - Software - EVGA Precision X1

Kühlerwechsel Garantie:

H3g9d4U.jpg


Wasserkühlung:

GeForce RTX 20x0 Series - Full Cover for NVIDIA® GeForce® - GPU Blocks - Water Blocks – EK Webshop

EKWB WaKü für 2080/2080 TI sind vorbestellbar.

http://gpu.watercool.de/WATERCOOL_HEATKILLER_GPU_Compatibility.pdf
 
Zuletzt bearbeitet von einem Moderator:
Klar sollte man von Haus aus ein so hohes Powerlimit bekommen wie bei der GTX und die Frage ist warum die Hersteller bisher so vorsichtig sind !?
Entwickelt Turing oberhalb vom Sweetspot mehr Abwärme ? Soll man einen 50Watt Puffer lassen weil Ray Tracing für mehr Abwärme sorgen wird ?

Das mit dem Puffer finde ich gar nicht so weit hergeholt.

Warum werden zweimal 8 selbst bei der Referenz verbaut und nur 300 freigegeben?!
Könnte wirklich sein das noch 50 Watt auf die Tensor etc gehen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist das Lian Li eine super bzw. die beste Lösung? Ich hatte das be quiet dark base 900 pro rev.2 im Auge. Aber man sucht ja immer nach der "non plus ultra" Lösung...

Nein leider nicht. Leider passen nicht alle CPU Kühler und Grafikkarten auf Grund der Höhenbeschränkung.
 
Kann ich mir nicht vorstellen, das zieht sicher alles am selben Powerlimit.

Warum die Hersteller so vorsichtig sind? Weil die ihre Karten eben positionieren müssen und das Powerlimit, bis auf ein paar Ausnahmen, meist auch auf die Kühlung zugeschnitten ist. Außerdem wird es so gut wie in keinem Bereich ein Produkt geben, was direkt an der Kotzegrenze des technisch, oder elektrisch machbaren läuft. Und wenn doch, dann regen sich trotzdem alle auf. Siehe Ryzen OC...
 
Blacksche Gleichung. Wenn man den Werten von Igor trauen darf mit 8 Ampere, dann kann die MTTF am PCIe Bus nicht sehr groß sein. Die Graka unter Wasser hält da noch länger durch :fresse2:
Müsste man noch A nachschlagen für sein Mainboard...

Ich würde es nicht machen, aber aus wissenschaftlichen Überlegungen finde ich es ein schönes Experiment!
 
Wo bleiben jetzt eigentlich TimeSpy Ergebnisse mit den offenen Karten?
 
Den Meisten fehlen noch die Blöcke... ;)
 
Mal eine Frage an die, die ihre 980 TI volles Rohr laufen lassen haben. Wie viel Watt hat sie gezogen und ist sie kaputt gegangen?
 
Aber für einige von den falschen Herstellern. Watercool und Aqua Computer fehlt noch.
 
Der Heatkiller wurde ja auch verschoben. Der ganze Launch ist eine katastrophe.
 
Bin langsam auch genervt, in Sachen FE rührt sich gar nichts. Ich frage mich echt, warum man mit der Ankündigung der Karten nicht einfach noch zwei Monate gewartet hat. Ist jetzt nicht so, dass man irgendwie unter Druck wäre und möglichst schnell was raushauen müsste...
 
Mal eine Frage an die, die ihre 980 TI volles Rohr laufen lassen haben. Wie viel Watt hat sie gezogen und ist sie kaputt gegangen?

Seit bald 3 Jahren mit 370W PL (genug für all meine Spiele @UHD). Zieht bei weniger anspruchsvollen Titeln etwa ~250W (BF1) und bei anspruchsvolleren ~330W (Witcher 3). Peaks auch mal über 350W.

Um es kurz zu machen: Lebt noch.
 
Zuletzt bearbeitet:
Macht doch mal einer Time Spy normal + extreme mit maximal OC. Also mit 2180/8100 usw.. will mal sehen was möglich ist. Gogogo
 
hat jemand schon ein EKWB oder was ähnliches zum wasserkühlen vor Ort und getestet?

würde gern die Temps vergleichen , bin mir nicht sicher ob ich genug flüssigmetall drunter habe, komme bei 34c° wasser auf 48 c°
 
hat jemand schon ein EKWB oder was ähnliches zum wasserkühlen vor Ort und getestet?

würde gern die Temps vergleichen , bin mir nicht sicher ob ich genug flüssigmetall drunter habe, komme bei 34c° wasser auf 48 c°

Wenn 380 Watt Anliegen könnte das hinkommen ansonsten passt es nicht.
 
Ich habe mich heute im Feierabend mal einem Thema gewidmet, welches mich auch persönlich interessiert: Was passiert, wenn zu den Shadern auch noch die Tensor- und RT Cores hinzukommen? Taktet die GPU dann geringer, weil mehr "Recheneinheiten" aktiv sind? Wie sieht es mit der Leistungsaufnahme aus?

Die Tests jetzt haben keinerlei Anspruch an Vollständigkeit, ich habe einfach nur versucht etwas abzubilden. Verwendet habe ich eine GeForce RTX 2080 Ti Founders Edition. An Software zum Einsatz kam der spezielle Benchmark von Final Fantasy XV, der mit TAA und DLSS ausgeführt wird und die Unreal Engine 4 Demo "Infiltrator", die ebenfalls mit TAA und DLSS ausgeführt werden kann. Ich kann beide Anwendungen also einmal mit und einmal ohne Verwendung der Tensor Cores ausführen.

Die RT Cores kann ich derzeit gar nicht messen. Die Elevator-Demo auf Basis der UE4 verwendet zwar RTX-Techniken, allerdings neben Ray Tracing auch DLSS und dies lässt sich ebenso trennen wie die Ausführung der Anwendung ohne RTX/DLSS.

Aufgezeichnet habe ich jeweils den GPU-Takt (per Software ausgelesen) und die Leistungsaufnahme (per Stromzange an den beiden 8-Pin-Anschlüssen und dem PCI-Express-Steckplatz abgenommen, zugleich die Spannung gemessen und beides in 0,1 ms Abständen aufgezeichnet).

Hier nun die Ergebnisse:

Final Fantasy XV - Takt:

FFXV-Auswertung-Takt.jpg

Final Fantasy XV - Leistungsaufnahme:

FFXV-Auswertung-Leistungsaufnahme.jpg

Infiltrator - Takt:

Infiltrator-Auswertung-Takt.jpg

Infiltrator - Leistungsaufnahme:

Infiltrator-Auswertung-Leistungsaufnahme.jpg

Die Ergebnisse zeigen aber nicht das erwartete Ergebnis. Für Final Fantasy XV messe ich einen durchweg höheren Takt mit DLSS also aktiven Tensor Cores. Hier müssen also andere Einflüsse eine Rolle spielen. Die Leistungsaufnahme ist identisch. Für Infiltrator sieht das Bild identisch aus. Der Takt bricht hier mit zweimal mit DLSS ein und auch die Leistungsaufnahme ist dann geringer. Das muss aber an der Demo liegen, denn bei jedem Durchlauf habe ich diese beiden Drops.

Fazit:

Wir sich die Turing-GPUs verhalten, wenn die Tensor- und/oder RT Cores hinzukommen, werden wir noch sehen müssen. Spiele, die DXR/RTX-Effekte zu- und abschalten lassen, könnte hier weitere Erkenntnisse liefern. Derzeit gibt es aber noch keines. Bei NVIDIA habe ich angefragt, ob es dazu offizielle Informationen gibt. Auf dem Tech Day wurde nur gesagt, dass Shadereinheiten, RT Cores und Tensor Cores gleichzeitig laufen können. Eine vollständige Auslastung bei 100 % aller drei Komponenten käme in der Praxis nicht vor. Wie sich die Ressourcen hinsichtlich des Power-Budgets verhalten, ist unbekannt.

Schönen Abend!
 
DLSS hat aber wieder den Vorteil, dass die GPU Last wegen quasi ausgeschaltetem AA sinkt. Das könnte dann auch den höheren Takt erklären.
 
An die Experten was haltet ihr von der msi trio 2080ti ? Kann 1 zu 1 GG meine strix 1080ti tauschen verpackt mit Rechnung.

Machen oder 1080ti behalten ?

Grüsse

Gesendet von meinem SM-G950F mit Tapatalk
 
1:1? würd ich sofort machen. Hat der noch eine für mich? :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh