[Sammelthread] NVIDIA GeForce RTX 2080 TI (TU102-300A) Sammelthread + FAQ



2080 TI Übersicht - Google Tabellen
Falls ihr Daten habt, die in der Tabelle fehlen, bitte mit Quellenlink kommentieren oder an mich schicken. Ich bearbeite das Sheet dann.

HWLX / OCN / 2080TI defect statistics - Google Tabellen

Tools:

Treiber:
NVIDIA

****entfernt von dbode*****

NVIDIA | NVFLASH
Download NVIDIA NVFlash 5.527.0 Official Download NVIDIA NVFlash | TechPowerUp

Anleitung

1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Flashen auf eigene Gefahr. Ich übernehme keine Haftung dafür.


****entfernt von dbode*****



NEWS:

MSI GeForce RTX 2080 Ti Lightning Z PCB pictured | VideoCardz.com
GeForce RTX 2080 Ti von ASUS und MSI im Test
Turing-Undervolting: 15 % geringere Leistungsaufnahme und dennoch leichtes OC - Hardwareluxx
NVIDIAs Turing-GPUs im Mining-Test - Hardwareluxx
Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test - Hardwareluxx
RTX 2080 Ti Founders Edition Tear-Down: Edition - YouTube
Die Turing-Architektur mit RTX, Ray Tracing und den neuen Shader-Funktionen - Hardwareluxx
Erneuter Leak: Technische Daten zur TU102-, TU104- und TU106-GPU - Hardwareluxx
The new features of NVIDIA Turing architecture | VideoCardz.com
NVIDIA GeForce RTX 2080 reviews go live on September 17th - VideoCardz.com
Alphacool Eiswolf 240 GPX Pro für die Geforce RTX 2080 und 2080 Ti vorgestellt - Hardwareluxx
Interview mit NVIDIA: Infos zum OC und der Leistung der GeForce RTX 2080 Ti - Hardwareluxx
Blockdiagramm und neue Cache-Hierarchie zur Turing-Architektur enthüllt - Hardwareluxx



Präsentation: 20.08.2018 auf der GamesCom in Köln. Video gibt es hier: NVIDIA GeForce Keynote - IGN Live at Gamescom 2018 - YouTube
Release: 20.09.2018
Preis: Zwischen 1169-1400 Euro

Geizhals Link: 2080 ti in PCIe mit GPU Consumer (nach Erscheinung): RTX 2080 Ti Preisvergleich Geizhals Deutschland

Shops:

Alternate: https://www.alternate.de/html/listi...ICE&order=DESC&hideFilter=false#listingResult
EVGA: EVGA - DE - Produkte - Grafikkarten - GeForce 20 Series Family - RTX 2080 Ti

EVGA - Support - Step-Up Program
Dv5FhA1.jpg


Mindfactory:
MediaMarkt: Ihre Suchergebnisse - MediaMarkt
Saturn: https://www.saturn.de/de/search.html?query=2080+ti&searchProfile=onlineshop&channel=sedede
Amazon:
Computeruniverse: Suche
Caseking: NVIDIA GeForce RTX 2080 Ti online kaufen

Daten:

eEWLAu6.jpg
Vergleich
keori3g.jpg



Overclocking:

MSI Afterburner 4.6.0 Beta 9 (13338) Download
EVGA - Software - EVGA Precision X1

Kühlerwechsel Garantie:

H3g9d4U.jpg


Wasserkühlung:

GeForce RTX 20x0 Series - Full Cover for NVIDIA® GeForce® - GPU Blocks - Water Blocks – EK Webshop

EKWB WaKü für 2080/2080 TI sind vorbestellbar.

http://gpu.watercool.de/WATERCOOL_HEATKILLER_GPU_Compatibility.pdf
 
Zuletzt bearbeitet von einem Moderator:
"Denn entweder es ist GPU-Limited, dann ist TR4 an der stelle aber nicht besser, oder es ist CPU-Limited, da ist TR4 schlechter."
ist aber nicht das selbe wie
zu wenig CPU Singlecore Leistung für solch ein GPU Setup

Bitte nicht immer so übertreiben.

Es behauptet ja niemand das der TR4 in Spielen besser wäre als eine hochtaktenden Intel CPU, aber das ein TR4 System völlig ungeeignet für ein Dual GPU System sein soll, ist einfach nur völliger Blödsinn.

Vorteile gegenüber dem jetzigen oder dann dem TR4 2950X System wirst du erst mit einem X299 system + Hochtaktende CPU sehen. Da schlägt dann die höhere IPC wieder durch, zumindest in Bereichen ab 120 HZ+++. Unter UHD könnte dann wieder zuerst die GPU zumachen, so das der höhere IPC verpufft.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ein TR4 System allgemein völlig ungeeignet ist habe ich nie behauptet, ich habe mich nur auf ihn bezogen.
"Mit einem TR System hast du eher Leistungsverlust in Games"

Ich bin von seinem Standpunkt ausgegangen (9900k). Hier macht es 0 Sinn auf ein TR Setup zu wechseln weil man 16x / 16x will.
Von diesem Standpunkt aus, hat ein TR Setup zu wenig Singlecore Leistung für sein SLI Setup, sodass sich ein Wechsel nicht lohnt bzw. eher negativ auswirkt.


Hier auch nochmal ein Test bezüglich 8x / 8x vs 16x / 16x: NVLink RTX 2080 Ti Benchmark: x16/x16 vs. x8 GTX 1080 Ti SLI - YouTube

Ich bin nichtsdestotrotz auf deine Testergebnisse gespannt :)
 
Zuletzt bearbeitet:
Das kommt doch drauf an wie viel CPU kerne genutzt werden können bei BF5.
Wenn die 16kerne des TR genutzt werden dann bringen auch die 5Ghz nichts beim 8700k

ich würde aber zum zocken auch eher auf einen Intel Setzen.

Mein Favorit wäre da ein 7900X@ max OC
 
Zuletzt bearbeitet:
Es ist völlig egal wie viele CPU Kerne bei BF genutzt werden, es geht allgemein um CPU limitierende Games die nicht von mehr als 6-8 hochtaktenden Kernen profitieren, BF war lediglich ein Beispiel.

Dahingehend ist aktuell der 9900k DIE Gaming CPU wenn Geld keine Rolle spielt, keine Ahnung was da ein 7900X soll.

HEDT hat aktuell im Gaming Bereich 0,0 Vorteile, bestenfalls hast du nur mehr Kohle ausgegeben, schlechtestenfalls hast du auch noch weniger FPS :fresse:
 
Zuletzt bearbeitet:
Das kommt doch drauf an wie viel CPU kerne genutzt werden können bei BF5.
Wenn die 16kerne des TR genutzt werden dann bringen auch die 5Ghz nichts beim 8700k

ich würde aber zum zocken auch eher auf einen Intel Setzen.

Mein Favorit wäre da ein 7900X@ max OC

7900X zum Zocken? Der sieht in 99% der Titel sogar die Rücklichter gegen einen i5 8600K/9600K (6C/6T).

Zum Zocken würde ichs nichts anderes als 8700K/9700K/9900K kaufen.
 
der 7900X war wegen SLI und volle Lanes mein Favorit.
der 8700k und 9900k sind schon top keine frage.
 
Volle Lanes haben wie gesagt seit NVLink SLI (und nur um die geht es hier in dem Thread) keine Vorteile :)
 
Eine Frage an alle Gainward 2080 Ti Phoenix GS Nutzer. Verwendet von Euch jemand problemlos seit längerer Zeit ein anderes BIOS als das Originale? Wenn ja welches? Danke für Rückmeldungen.

Hab das 380W BIOS seit Release drauf, hatte dann mal ne Weile das neue 330W BIOS drauf aber bin wieder aufs 380W BIOS gegangen weil ich bei Shadow of the TR usw. jegliches MHz und W PT brauche (spiele da mit 2055/7700 und die 380W werden fast dauerhaft komplett genutzt). Außer dass die Lüfterkurve anders ist bzw. mit weniger % mehr Drehzahlen rauskommen (bei Fans auf Auto aber komischerweise nicht) ist alles okay, Karte lebt auch noch und läuft wie an Tag 1.

Was für ein Unfug ......... Wie immer auf dem etwas langsamere IPC herumgeritten wird.... Geh auf UHD und schon hat sich das fast erledigt mit der Höheren IPC da die Karten früher dicht machen.

Abgesehen davon, dass ich nicht nachvollziehen kann wie man mit der 2080 Ti auf UHD spielen will (mir ist sie selbst für QHD @ 144 Hz noch zu langsam und ich freue mich schon auf die nächste Gen - außer wenn man mit 60 Hz spielen möchte, was ich auch absolut nicht nachvollziehen kann, aber das ist ein anderes Thema), hat er doch absolut recht. Ich würde mir, völlig unabhängig davon ob es AMD oder Intel ist, niemals eine CPU mit mehr Kernen als 8C/16T in den Sockel schnallen. Habe sogar noch einen guten 9900k von Intel hier, aber der 6-Kerner ist mir einfach lieber, geht höher zu takten, ist einfacher zu kühlen und im Endeffekt einfach pflegeleichter. Den 9900k würde ich wenn dann mit 8C ohne HT laufen lassen und dafür den Takt erhöhen, denn bis auf die Frostbite Engine/die Battlefield Teile profitiert keines der von mir getesteten Spiele bzw. Engines von soviel Kernen bzw. HT.

IPC bzw. Takt ist nach wie vor das wichtigste, und das wird sich imo auch noch einige Jahre nicht ändern. Bei vielen alten Games fährt man sogar deutlich besser, wenn man Kerne deaktiviert (HT im UEFI aus oder im Taskmanager nur 4 Kerne zuweisen). Far Cry 3/4 sind so Beispiele.

Wohlgemerkt auf Sicht eines Gamers, der vllt. 1x pro Woche was rendert/photoshoppt.
 
Zuletzt bearbeitet:
So schaut's aus.
 
Doch ich. Zustellung ab 07.01.2019. Wenn die Karte kommt, werde ich aber erstmal die ersten Erfahrungsberichte bzgl. Chip und Lautstärke abwarten, bevor ich sie auspacke. Danach dann Siliconlotterie oder back to Sender.

Meine wurden heute versandt.
 
Ist es jetzt echt so, dass man mit der neuen AB Version mehr Punkte bei ner Curve hochziehen muss als davor? Irgendwie sehen meine übernommenen Curves komisch aus...
 
^^Ja, aber nur die Rasterung ist enger, siehe Bild, hat man einen etwas größeren Überblick, die Punkte als solches bleiben aber gleich, immer fünf Punkte pro Raster in der Breite. Aber aufpassen, wenn man die Kurve mit dem Scanner austesten lässt, dann hat man hinterher im Idle einen ca. 10 Watt höheren Stromverbrauch gegenüber der Beta 9 mit alter Scanner-API. Aus irgend einen Grund wird der Speicher im Idle anstatt auf 405MHz dann auf 810MHz gesetzt, kann nur ein Bug sein.

 
Zuletzt bearbeitet:
The Division 4K UHD Ultra Settings Preset

Single GPU 2080Ti / 9900K @ 4GHz

TheDivision1Gpu.jpg

Single GPU 2080Ti / 9900K @ 5GHz

TheDivision1Gpu5000.png

SLI/NVLINK 2080Ti / 9900K @ 4GHz

THedivsion2gpu4000.jpg

SLI/NVLINK 2080Ti / 9900K @ 5GHz

TheDivison2Gpu5000.png


Ok ein paar FPS kann ich dem Takt zuschreiben :) ich lass mir nochmal Zeit ...
 
Zuletzt bearbeitet:
7900X zum Zocken? Der sieht in 99% der Titel sogar die Rücklichter gegen einen i5 8600K/9600K (6C/6T).

Zum Zocken würde ichs nichts anderes als 8700K/9700K/9900K kaufen.

Verstehe ich jetzt nicht ganz - ich dachte die CPU wäre nicht ausschlaggebend? Dann benötigt man mit NVLink ja auch keine 8700K/9700K/9900K, da diese Ihre Performance nicht ausspielen (können). Insofern wäre es ja dann wieder egal, ob man eine i5/i7/i9 oder 7900X CPU fürs Zocken hat. Jetzt habt Ihr mich abgehängt...
 
Weil man in der Realität eben nie im komplettem GPU Limit ist, außer man spielt jetzt schon auf 4k. Aber selbst da merkt man die CPU Speed mit SLI deutlich würde ich sagen.

Man braucht ja nur mal die Werte aus dem Luxx Test mit anderen YT Tests mit 8700k @ 5 GHz vergleichen... da sieht das Luxx System die Rücklichter, was leider dazu führt, dass die Unterschiede zwischen den GPUs kleiner sind, als sie seien könnten. Werde ich intern auch nochmal anregen, dass das m.E. eine falsche Wahl war.
 
Hmm. dann hätte ich mehr FPS in 4K, wenn ich mein SLI Setup auf einem Z370/Z390 mit ner 9900K anstatt ner 7900X (X299) betreibe? Da dann ja nur 16 Lanes zu Verfügung stehen würden - wie würden dann meine beiden NVMe's angebunden werden? Oder bleiben dann keine 8 Lanes pro GPU übrig?
 
deine M2 SSD werden übern Chipsatz versorgt

allerdings hast du ZWEI M2 SSD

Single GPU kriegt x16 von der CPU
die restlichen 8 (Chipsatz) teilen sich dann die andern Karten

Multi GPU hast du 8/8

Multi GPU und eine M2 hast du 8/8

Multi GPU und ZWEI M2 hast du 8/4

würde mir das überlegen, bzw ich würde mir SLI generell überlegen
 
Hm, nicht ganz. Die CPU hat eigentlich „sogar“ 20 Lanes (viel zu wenig). 16 zur direkten Anbindung der Slots und 4 für den DMI/Chipsatz, der dann weiterverteilt.

Er kann durchaus zwei M.2 SSDs an den Chipsatz hängen, wenn das Board dies mit entsprechenden Slots erlaubt. Die teilen sich dann halt die DMI Bandbreite und kosten SATA Ports, aber imho besser als die GPU Lanes zu verkrüppeln.

Deswegen bin ich immer noch beim 7900X. Hatte auch schon ein Sidegrade auf 9900K überlegt, aber dieses Lane Gemurkse....
 
Zuletzt bearbeitet:
Deswegen bin ich immer noch beim 7900X. Hatte auch schon ein Sidegrade auf 9900K überlegt, aber dieses Lane Gemurkse....

Sehe ich auch so.

Da sind mir sogar die lächerlichen 28 Lanes meines 7800X lieber als mir die wenigen 16 anzutun.
 
Muss man sich am Board angucken da gibt es ja auch unterschiedliche Lösungen im Lane sharing. Da sieht man meist Unterschiede zwischen günstig und teurer.
x299 würde ich nur nehmen wenn ich streamen würde.
 
Was soll ich mit den Lanes, hab lieber max. Leistung. 2x M.2 laufen auch so 1A bei mir.
 
Genau Lanes sind völlig über bewertet, entweder man hat sie oder hat sie nicht. :p
 
Beide M.2 Bei mir mit X4 angebunden und GPU mit 16x.

m2ivf4y.jpg


hatte jetzt kein Szenario am Gamer System wo es irgendwie Probleme gab.


Naja hier geht es ja eig um die 2080ti
 
Zuletzt bearbeitet:
Beide M.2 Bei mir mit X4 angebunden und GPU mit 16x.

m2ivf4y.jpg


hatte jetzt kein Szenario am Gamer System wo es irgendwie Probleme gab.


Naja hier geht es ja eig um die 2080ti

Das wird bei mir auch angezeigt obwohl ich nur noch 4 Lanes für 2 m2 ssds frei hab also würde ich dem nicht so trauen
 
Dein Chipsatz hat 20 Lanes dieser ist mit 4 Lanes an die CPU gebunden. Du musst mal ins handbuch gucken wie das realisiert wird. Trauen kann man dem schon.
Siehst du ja auch wenn du die bencht.
 
Die ist bei Mindfactory für den gleichen Preis auf Lager. Und von Amazon kann man sie auch noch für 1409 bestellen, nur halt unbekannter Liefertermin.

Hab auch bereits mit dem Gedanken gespielt die zu kaufen, aber ich denke da hat man für einen saftigen Aufpreis lediglich die Garantie, dass nicht viel durch zusätzliches Overclocking zu holen ist (denn wenn doch wäre es eine AMP Extreme ohne Core geworden).
 
Bei Amazon Zahle ich gerne bisschen mehr. Wenn die Karte hops geht bekommt man sein Geld zurück oder man sendet unverzüglich eine neue Karte.
Mindfactory und alle anderen muss man warten.

Dazu habe ich kein Lust.

Wer von euch hat eine ZOTAC Gaming GeForce RTX 2080 Ti AMP Extreme.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh