[Sammelthread] NVIDIA GeForce RTX 2080 TI (TU102-300A) Sammelthread + FAQ



2080 TI Übersicht - Google Tabellen
Falls ihr Daten habt, die in der Tabelle fehlen, bitte mit Quellenlink kommentieren oder an mich schicken. Ich bearbeite das Sheet dann.

HWLX / OCN / 2080TI defect statistics - Google Tabellen

Tools:

Treiber:
NVIDIA

****entfernt von dbode*****

NVIDIA | NVFLASH
Download NVIDIA NVFlash 5.527.0 Official Download NVIDIA NVFlash | TechPowerUp

Anleitung

1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Flashen auf eigene Gefahr. Ich übernehme keine Haftung dafür.


****entfernt von dbode*****



NEWS:

MSI GeForce RTX 2080 Ti Lightning Z PCB pictured | VideoCardz.com
GeForce RTX 2080 Ti von ASUS und MSI im Test
Turing-Undervolting: 15 % geringere Leistungsaufnahme und dennoch leichtes OC - Hardwareluxx
NVIDIAs Turing-GPUs im Mining-Test - Hardwareluxx
Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test - Hardwareluxx
RTX 2080 Ti Founders Edition Tear-Down: Edition - YouTube
Die Turing-Architektur mit RTX, Ray Tracing und den neuen Shader-Funktionen - Hardwareluxx
Erneuter Leak: Technische Daten zur TU102-, TU104- und TU106-GPU - Hardwareluxx
The new features of NVIDIA Turing architecture | VideoCardz.com
NVIDIA GeForce RTX 2080 reviews go live on September 17th - VideoCardz.com
Alphacool Eiswolf 240 GPX Pro für die Geforce RTX 2080 und 2080 Ti vorgestellt - Hardwareluxx
Interview mit NVIDIA: Infos zum OC und der Leistung der GeForce RTX 2080 Ti - Hardwareluxx
Blockdiagramm und neue Cache-Hierarchie zur Turing-Architektur enthüllt - Hardwareluxx



Präsentation: 20.08.2018 auf der GamesCom in Köln. Video gibt es hier: NVIDIA GeForce Keynote - IGN Live at Gamescom 2018 - YouTube
Release: 20.09.2018
Preis: Zwischen 1169-1400 Euro

Geizhals Link: 2080 ti in PCIe mit GPU Consumer (nach Erscheinung): RTX 2080 Ti Preisvergleich Geizhals Deutschland

Shops:

Alternate: https://www.alternate.de/html/listi...ICE&order=DESC&hideFilter=false#listingResult
EVGA: EVGA - DE - Produkte - Grafikkarten - GeForce 20 Series Family - RTX 2080 Ti

EVGA - Support - Step-Up Program
Dv5FhA1.jpg


Mindfactory:
MediaMarkt: Ihre Suchergebnisse - MediaMarkt
Saturn: https://www.saturn.de/de/search.html?query=2080+ti&searchProfile=onlineshop&channel=sedede
Amazon:
Computeruniverse: Suche
Caseking: NVIDIA GeForce RTX 2080 Ti online kaufen

Daten:

eEWLAu6.jpg
Vergleich
keori3g.jpg



Overclocking:

MSI Afterburner 4.6.0 Beta 9 (13338) Download
EVGA - Software - EVGA Precision X1

Kühlerwechsel Garantie:

H3g9d4U.jpg


Wasserkühlung:

GeForce RTX 20x0 Series - Full Cover for NVIDIA® GeForce® - GPU Blocks - Water Blocks – EK Webshop

EKWB WaKü für 2080/2080 TI sind vorbestellbar.

http://gpu.watercool.de/WATERCOOL_HEATKILLER_GPU_Compatibility.pdf
 
Zuletzt bearbeitet von einem Moderator:
Och, müssen wir einfach abwarten, wie das alles kommt mit dem OC, freue mich jetzt schon wieder aufs Kurve basteln mit Afterbuner, wenn es denn noch so geht, also das Clocken. Und wenn ja, warum nicht immer hohes OC verwenden, also auch im Alltag und nicht nur für Benches, meine 1080er z. B. macht 2,1GHz mit nur 1.031V, dass fahre ich immer und das seit nunmehr bald eineinhalb Jahren mit Shunt Mod. Schauen wir mal, was anders wird. Wenn es wieder nen Shunt Mod braucht, damit die Karte nicht droppt, auch kein Problem, man muss ihn nur richtig machen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warte mal ab SH, wenn die ersten mit Karten hier auftauchen, die 2,3 - 2,4 GHz machen, dann werden aber einige selektieren, wenn sie eben ne 1.8GHz Gurke erwischt haben und dann auch ohne Skrupel mehrere Karten zurück schicken, eben solange bis eine passt und man im erlesenen Kreis aufgenommen ist. ;)

das vermute ich auch, so war es bisher immer. Und dann dürfen sich leute die eine "nagelneue amazing 2080ti" bestelt haben, erstmal über nen Rückläufer freuen :d
 
Ähm, ja sorry, 1.031V natürlich - thanks, habs im Thread auch korrigiert. ;)
 
Zuletzt bearbeitet:
Angeblich soll OC auch vom der Stromaufnahme abhängen. Ich hoffe einfach auf die Trio. Ansonsten halt Pech. MEGA OC werde ich damit nicht betreiben. Nur mal vielleicht um zu schauen wie weit ich bei den Benchmarks komme.

Anonsten arbeite und spiele ich in Zukunft mit RayTracing von zuhause. Daher brauch ich die Karten so oder so.

Das Problem liegt bei "auch", falls das ähnlich geregelt ist wie bei der Pascal Generation.
Meine GTX 1080 TI zum Beispiel hat kein Powerlimit, für 24/7 läuft die mit 2088 MHz auf der GPU und ohne die Spannung zu erhöhen (Wk.).
Beim benchen und Afterburner zusätzlich auf 100 (Core Voltage %) sind ca. 2150 MHz mit Wk. (Firestrike Extrem/Ultra) drin.
Will ich höher mit dem GPU Takt, muss ich mit dem Galax Tool die GPU Spannung erhöhen, sonst ist Ende im Schacht. Afterburner mit curved Editor bringt zwar auch mehr Takt, aber weniger Leistung.
Mit Wk. ist allerdings bei hochlastigen Benchmarks selbst damit bei ca. 2230 MHz Schluss. Außer bei GPUPI, dabei kann man noch eine ordentliche Schaufel beim Takt drauflegen, zählt im dem Fall aber nicht. ;)

Ergo müsste bei der RTX 2080 TI auch die GPU Spannung, mehr als bei der GTX 1080 TI normaler weise möglich ist, anhebbar sein um in die Regionen von 2300 MHz bis 2400 MHz GPU Takt vorzustoßen. Bleibt auch noch die Frage, wie gut das dann zu kühlen ist. Falls die TU102-300A GPU ein Hitzkopf ist, Mahlzeit auch. :p Das ist natürlich noch ein wenig spekulativ, aber ich glaube nicht das Nvidia dabei groß was geändert hat. Warten wir mal ab.


Gruß

Heinrich
 
Bleibt eben alles abzuwarten, wenn es so wäre wie auf dem Bild, 2340@1.011V, da wäre ich glaube ich schon sehr zufrieden.

NVIDIA-Scanner.jpg
 
na das sieht irgendwie zu unwahrscheinlich aus :d
 
Jau, mit so viel rechne ich jetzt ehrlich gesagt auch nicht, aber 2,1 - 2,2 sehe ich schon im Rahmen des erreichbaren. Bleibst du eigentlich bei der V @Naennon?
 
Zuletzt bearbeitet:
kommt auf die Reviews an

kommt die 2080ti mit OC in non RTX Sachen an die V oder vorbei wechsel ich, sonst wohl eher nicht

die V ist schon ne nette Sache und hat schon ordentlich Bums - wenn die 2080ti das leistet sind 1250€ zwar viel Geld, aber die Performance is echt übel
 
kommt auf die Reviews an

kommt die 2080ti mit OC in non RTX Sachen an die V oder vorbei wechsel ich, sonst wohl eher nicht

die V ist schon ne nette Sache und hat schon ordentlich Bums - wenn die 2080ti das leistet sind 1250€ zwar viel Geld, aber die Performance is echt übel

Ja, ist glaube ich vernünftig, denn die Raytracing Dinge sind jetzt ja auch nicht sooooo der Bringer, also ich sehe da noch keinen so tollen Mehrwert drin, die Karte muss Heute und auch noch für lange Zeit vor allem in allen normalen Games Leistung zeigen.
 
kommt auf die Reviews an

kommt die 2080ti mit OC in non RTX Sachen an die V oder vorbei wechsel ich, sonst wohl eher nicht

die V ist schon ne nette Sache und hat schon ordentlich Bums - wenn die 2080ti das leistet sind 1250€ zwar viel Geld, aber die Performance is echt übel

bei taktgleichheit sollte die TI bis auf 17% an die TV herankommen.


(..)

mfg
tobi
 
Keine Ahnung was eine GTX1080Ti bei 2000Mhz zieht aber eine RTX2080Ti wird wohl noch mehr Strom brauchen und was wenn RT auch extra Strom zieht !? :eek:

dann kannste dich warm anziehen und musst weniger heizen weil du dir den Strom nichtmehr leisten kannst?
 
Mal schauen wie die FTW oder Strix diesesmal ausgebaut wird wäre Klasse wen die auf 450W ausgelegt wird und es dann auch Wakü für gibt.
 
Ich denke man erkennt an den riesigen Kühlern schon jetzt dass die Karten sehr heiß und Strom hungrig werden.
 
Das letzte mal das Nvidia auf dual Lüfter gesetzt hat war bei der GTX 295 ,wenn ich mich richtig erinnere .
Kann sein das es bissel warm wird .

Aber wakü war bei den ganzen letzten TI's nicht absolut sinnfrei .
 
Zuletzt bearbeitet:
Jo und die 590 und 690 hatten auch nur einen Lüfter in der Mitte.
Hab ich dann was durcheinander gebracht .


Naja kein Wunder, wenn Nvidia jetzt schon zwei ihrer hochqualitativen superlüfter da drauf schrauben muss das der Preis dadurch etwas
Höher ausfällt vollkommen verständlich :d . Duck und weg....
 
Habe gerade mal 4K Gaming auf meinem 65er OLED probiert. Sieht das geil aus! Input Lag liegt gerade mal bei 21ms. Ich weiß, wo ich meine Spiele am dem 20.9 spielen werde :)

Schade, dass der TV kein Displayport hat. Somit sind nur 60hz über HDMI möglich und keine 100hz.

Projekt NVLINK geht los :) Corsair HX1200 PC-Netzteil: Amazon.de: Computer Zubehör

Gibt es gerade für nur 163 Euro!
 
Zuletzt bearbeitet:
Den 65" B7D habe ich von LG. Aber HDMI 2.0b geht ja nur bis 4K 60hz. Bringt ja nicht viel, oder?
 
Habe gerade mal 4K Gaming auf meinem 65er OLED probiert. Sieht das geil aus! Input Lag liegt gerade mal bei 21ms. Ich weiß, wo ich meine Spiele am dem 20.9 spielen werde :)

Schade, dass der TV kein Displayport hat. Somit sind nur 60hz über HDMI möglich und keine 100hz.

Über 1080P kann mein AF8 Oled 120HZ.
Freue mich auch drauf wen ich endlich eine Karte drin habe und alles aus der Bildqualität des Oled Panels rausholen kannin 4K.
 
Zuletzt bearbeitet:
Wenn ich mir überlege 30cm vor einem 65“ zu sitzen, wäre mir das zu blöd den Kopf zu drehen ständig.
 
Nach der Leistungsangabe das sich die Shader Performance um 50% zu Pascal erhöht und gleichzeitg ca. 20% mehr Einheiten verbaut sind, sollte auch in normalen Games ein dickes Performance Plus entstehen oder?
 
Und wie viele Shader hat AMD? Was kommt bei denen am Bildschirm an?
Das kann man aktuell schwer sagen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh