[Sammelthread] NVIDIA GeForce RTX 2080 TI (TU102-300A) Sammelthread + FAQ



2080 TI Übersicht - Google Tabellen
Falls ihr Daten habt, die in der Tabelle fehlen, bitte mit Quellenlink kommentieren oder an mich schicken. Ich bearbeite das Sheet dann.

HWLX / OCN / 2080TI defect statistics - Google Tabellen

Tools:

Treiber:
NVIDIA

****entfernt von dbode*****

NVIDIA | NVFLASH
Download NVIDIA NVFlash 5.527.0 Official Download NVIDIA NVFlash | TechPowerUp

Anleitung

1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Flashen auf eigene Gefahr. Ich übernehme keine Haftung dafür.


****entfernt von dbode*****



NEWS:

MSI GeForce RTX 2080 Ti Lightning Z PCB pictured | VideoCardz.com
GeForce RTX 2080 Ti von ASUS und MSI im Test
Turing-Undervolting: 15 % geringere Leistungsaufnahme und dennoch leichtes OC - Hardwareluxx
NVIDIAs Turing-GPUs im Mining-Test - Hardwareluxx
Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test - Hardwareluxx
RTX 2080 Ti Founders Edition Tear-Down: Edition - YouTube
Die Turing-Architektur mit RTX, Ray Tracing und den neuen Shader-Funktionen - Hardwareluxx
Erneuter Leak: Technische Daten zur TU102-, TU104- und TU106-GPU - Hardwareluxx
The new features of NVIDIA Turing architecture | VideoCardz.com
NVIDIA GeForce RTX 2080 reviews go live on September 17th - VideoCardz.com
Alphacool Eiswolf 240 GPX Pro für die Geforce RTX 2080 und 2080 Ti vorgestellt - Hardwareluxx
Interview mit NVIDIA: Infos zum OC und der Leistung der GeForce RTX 2080 Ti - Hardwareluxx
Blockdiagramm und neue Cache-Hierarchie zur Turing-Architektur enthüllt - Hardwareluxx



Präsentation: 20.08.2018 auf der GamesCom in Köln. Video gibt es hier: NVIDIA GeForce Keynote - IGN Live at Gamescom 2018 - YouTube
Release: 20.09.2018
Preis: Zwischen 1169-1400 Euro

Geizhals Link: 2080 ti in PCIe mit GPU Consumer (nach Erscheinung): RTX 2080 Ti Preisvergleich Geizhals Deutschland

Shops:

Alternate: https://www.alternate.de/html/listi...ICE&order=DESC&hideFilter=false#listingResult
EVGA: EVGA - DE - Produkte - Grafikkarten - GeForce 20 Series Family - RTX 2080 Ti

EVGA - Support - Step-Up Program
Dv5FhA1.jpg


Mindfactory:
MediaMarkt: Ihre Suchergebnisse - MediaMarkt
Saturn: https://www.saturn.de/de/search.html?query=2080+ti&searchProfile=onlineshop&channel=sedede
Amazon:
Computeruniverse: Suche
Caseking: NVIDIA GeForce RTX 2080 Ti online kaufen

Daten:

eEWLAu6.jpg
Vergleich
keori3g.jpg



Overclocking:

MSI Afterburner 4.6.0 Beta 9 (13338) Download
EVGA - Software - EVGA Precision X1

Kühlerwechsel Garantie:

H3g9d4U.jpg


Wasserkühlung:

GeForce RTX 20x0 Series - Full Cover for NVIDIA® GeForce® - GPU Blocks - Water Blocks – EK Webshop

EKWB WaKü für 2080/2080 TI sind vorbestellbar.

http://gpu.watercool.de/WATERCOOL_HEATKILLER_GPU_Compatibility.pdf
 
Zuletzt bearbeitet von einem Moderator:
Ja 2 Jahre wird es bestimmt nicht dauern, 7nm steht ja vor der Türe, erst kommt AMD raus und Nvidia wird dann rasch nachziehen mit, womöglich aber nu mit einem refresh ...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das sofortige erscheinen der ti ist doch ein Zeichen das NVIDIA bald eine neue Generation bringt oder ?

logo, wieso sollte man auch einfach mal im Jahre 2018 was anderes wagen als bisher immer :) Meine Glaskugel sagte auch schon das die nur Übergang ist. Ich hoffe du denkst jetzt nicht das die neue Gneeration dann wieder günstiger wird.

Übrigens, hattest du schon jemals das Gefühl das die Communtiy weis was Sache ist und was passiert ? Hast du dir mal überlegt mit wem du hier bzgl GPUs schreibst? Aktiv schreiben ganze 10 Leute und die sind in jeder Generation vertreten. Woher sollen wir denn wissen was kommtß Man kann nur seinen mist dazu schreiben. Du wirst dir daraus hoffentlich keine Kaufentscheidung rauslesen.
 
Zuletzt bearbeitet:
@Holzmann
Ja je doch sieht das verdächtig nach kleinen Chips in 2019 aus so das NV in 7nm nur ein Paar % (10-20%)Mehrleistung liefern können wird wen überhaupt.
Amd wird ja auch ein kleiner Chip mit GTX1080 Leistung nachgesagt.
Den richtigen Leistungssprung in 7nm sehe ich erst in 2020 wen die Chips auch größer werden.
Gruss
 
Zuletzt bearbeitet:
Das wird sicherlich so kommen, da haben AMD und Nvidia sicher mal bei Intel geschaut.

Shrink besser mit vorhandener Architektur, danach Architektur wechseln :)
 
Selbst wenn 7nm nächstes Jahr (Evtl 2Halbjahr 19) kommen wird, denke ich das es nur ein shrink ist.
Ich geh davon aus das der Schritt zu 7nm nur mehr Takt bringt.
Mehrleistung ist mit jeder Gen. zu erwarten.

Wie man halt immer sagt. Erst kaufen wenn man die Leistung benötigt.


Gesendet von iPhone mit Tapatalk
 
Zuletzt bearbeitet:
Denke auch das wir von NV sowas wie eine 2085 sehen werden. :)
 
Mal an die, die alle News usw. mitverfolgen, sind schon irgendwo die Maße bzw. die Lochabstände für die GPU/PCB aufgetaucht? Die Größe habe ich gesehen, Lochabstände nicht. Sind die evtl. noch wie bei einer 1080Ti? Frage deshalb, weil wohl erst mal nen GPU only Kühler drauf soll.

Ich zitiere mich mal selber, weil ich die Info mittlerweile bekommen habe. Der Lochabstand der 2080 und 2080 Ti auf dem PCB, um zum Beispiel einen GPU only Wasserkühler zu montieren, ist mit 58,5mm identisch zur 1070, 1080, 1080 Ti. Da ich mir erst mal alle Kühler die so kommen anschauen möchte, werde ich wohl zunächst erst mal einen GPU only drauf schnallen.
 
Ja 2 Jahre wird es bestimmt nicht dauern, 7nm steht ja vor der Türe, erst kommt AMD raus und Nvidia wird dann rasch nachziehen mit, womöglich aber nu mit einem refresh ...

Nur das jede neue Funktion bei NVidia extrem mehr Kostet.

Gysnc
HDR
Raytracing
NVLink

Warum NVidia nicht auf die Idee gekommen ist Premium Treiber zu verkaufen zum Premium Preise weiß ich bis heute nicht.
 
"Nur" mehr Takt? Das ist bei Pascal das Erfolgsrezept ;)

Ja, schon richtig.
Interessanter ist es trotzdem eine neue Generation zu haben.
Maxwell, Pascal, Turning, Volta
Das kommt immer mit guten Neuerungen.
Die Ausmerzung der Kinderkrankheiten und mehr tackt kommt immer im Shrink
Tick - Tock Prinzip.

Aber Leistung wird immer besser [emoji4]
Die 2080Ti wird man wohl beim erscheinen der 3080Ti auch wieder gut los.


Gesendet von iPhone mit Tapatalk
 
Zuletzt bearbeitet:
Das erstmals 2013 angekündigte und 2014 gestartete GameWorks-Programm von Nvidia stellt eine Sammlung von Entwicklungs- und Analyse-Tools sowie Grafik- und Physik-Effekten dar.
Spiele- und Software-Entwickler müssen einer Lizenzvereinbarung von Nvidia zustimmen, anschließend können sie GameWorks kostenlos nutzen und die beinhalteten Programme für ihre Projekte nutzen.

Was mich extrem dabei stört ist nicht der Preis was ich Zahlen soll für eine Grafikkarte.
Mich stört es extrem wenn ich GameWorks Titel von NVidia Kaufe. Sind alle Effekte von NVidia nicht drin.

Fangen wir mal an.

Nicht alle Spiele haben DX12
GameWorks Titeln unterstützen kaum SLi
HDR Fehl einzeige

Wenn ich eine Karte explizit wie 2080 Ti hole und wenn NV mit GameWorks Titeln bewirbt erwarte ich alle Funktionen von einem Spiel das ich die Karte 100% Ausreizen kann.

Denke ich Falsch oder sieht ihr das anders.
 
Nur das jede neue Funktion bei NVidia extrem mehr Kostet.

Gysnc
HDR
Raytracing
NVLink

Warum NVidia nicht auf die Idee gekommen ist Premium Treiber zu verkaufen zum Premium Preise weiß ich bis heute nicht.

Machen Sie doch so.
Eine NVIDIA kostet so viel weil du das ganze Paket kaufst und da gehören die Treiber Gameworks Features dazu.
Das die neuen RTX Karten hammermäßig teuer sind ist keine Frage aber wir wissen ja nicht was diese Karte den Leisten wird.

Zum Thema NVLINK SLI
Ich habe mit jemandem vor paar Tagen darüber geschrieben weil ich ein Problem mit SLI hatte.
Er versicherte mir das Nvidia noch immer versucht das SLI deutlich mehr genutzt wird in den Spielen und der NVLINK ist dafür damit die Skalierung im SLI deutlich verbessert werden kann da man 100GB/s (Maxwell 1GB/s , Pascal 2GB/s)an Daten durch die Bridge schieben kann.
Im SLI hat man einen starken CPU Overhead und die neue NVLINK Bridge verbessert das wohl deutlich.
NVLINK SLI funktioniert überall da wo SLI allgemein funktioniert hatte und eben mit einer deutlich besseren Skalierung als je zuvor.
Das klassische SLI funktioniert nicht bei DX12 aber das neu NVLINK SLI kann im DX12 dann sogar wie eine GPU agieren und quasi wie ein Raid 0 bei Festplatten seine Geschwindigkeit verdoppeln und auch seinen Speicher verdoppeln.
Damit das aber so funktioniert müssen die Entwickler es in ihre Spiele implementieren und ich hoffe ja das alle Spiele bei den nun RT oder Gamesworks dazu kommt auch das neu NVLINK SLI richtig reinhaut.

Laut meiner Quelle ist NVIDIA sehr stark hinter einen gut funktionierendem SLI hinterher.

P.s. Und noch was zu meinem erwähntem SLI Problem.
Keine Ahnung ob das jemand von euch weiß aber seit einem Update von Windows 10 ist eine vollbildoptimierung gekommen welche verhindert das SLI richtig funktioniert das Problem kann man beseitigen indem man die jeweilige Anwendung heraussucht ( z.b. BF1.exe ) , Rechtsklick drauf macht und die Eigenschaften auswählt.
Nun geht man auf Kompatibilität und setzt einen hacken bei „Vollbildoptimierung deaktivieren“ und das wars.
Ob das auch bei SGPU mehr FPS bringt kann ich nicht sagen aber das kann jeder selber testen.
 
Ich würde es mir wünschen das SLI bzw NVLink endlich mal mehr gepusht wird und dann auch von den Spiele Entwicklern adaptiert wird.
Optische finde ich 2 GPUs im System am schönsten :)



Gesendet von iPhone mit Tapatalk
 
Laut meiner Quelle ist NVIDIA sehr stark hinter einen gut funktionierendem SLI hinterher.

Das ist gut aber warum wird das erst ab einer 2080 unterstützt?

Klar will NV lieber mehr von den ganz teuren Karten verkaufen oder gibt's noch einen anderen Grund?
 
Ich denke das würde das Preisgefüge zerstören.
Wenn zwei 2070er weniger als eine 2080Ti kosten aber von der Leistung schneller sind dann würde der Preis der 2080ti doch absolut nicht mehr passen.
Aber selbst die 2080 ist doch eigentlich total Schwachsinn für SLI.
Was will man mit 24Tflops machen wenn ständig der RAM voll läuft?
Ich sehe das ja bei meinen beiden TitanX.
In 4k sprengt man die 8gb recht schnell das kommt halt auch auf das Spiel an
 
Zuletzt bearbeitet:
NVLink soll doch die vollen 16GB adressieren können ...
 
Ja aber wohl nur bei DX12 spielen die das auch so implementiert haben.
Zumindest habe ich das so verstanden. Das wäre dann kein AFR mehr sondern beide Karten würden an einem Bild arbeiten.
Wir können nur auf test warten und dann sehen wie es wirklich ist.
 
Aber selbst die 2080 ist doch eigentlich total Schwachsinn für SLI.
Was will man mit 24Tflops machen wenn ständig der RAM voll läuft?
Ich sehe das ja bei meinen beiden TitanX.
In 4k sprengt man die 8gb recht schnell das kommt halt auch auf das Spiel an
Grad schreibst du doch, daß es unter DX12 den die beiden GPUs WIE AUCH den Vram als 1 sieht. Es wären für das Spiel also 1x 16GB (?) sichtbar?
 
Zuletzt bearbeitet:
NVLink soll doch die vollen 16GB adressieren können ...

Nicht im herkömlichen SLI Mode(AFR) was auch logisch ist wenn man bedenkt das der Speicher der Grafikarte mit zum Beispiel 600GBs angebunden ist wie soll das dann eine Schnittstelle mit 100GBs stemmen????
Es könnte funktionieren wen zwei Karten an einem Bild rendern ähnlich SFR) würden nicht jedoch abwechselnd so wie es SLI bisher tat.

Der Treiberaufwand und auch die Spielerhersteller wären da stark gefordert um die Berechnung an einem Bild mit 2GPUs zu optimieren.

- - - Updated - - -

@BessereHälfte

DX12 würde es ermöglichen mehr meint er damit nicht. Denoch muss die Software Umgebung es zu lassen das jede Karte weis welchen Inhalt (Daten) sie Ram vorliegen haben muss um dann gemeinsam ein Bild auszugeben und somit den Ram als ein Pool zu sehen (ähnlich SFR)wobei da ja eine Karte die obere und andere Karte den unteren Teil des Bildes rechnet.


Gruss.
 
Zuletzt bearbeitet:
Grad schreibst du doch, daß es unter DX12 den die beiden GPUs WIE AUCH den Vram als 1 sieht. Es wären für das Spiel also 1x 16GB (?) sichtbar?

Ich habe das etwas anders verstanden.
Als Beispiel
Ein Bild muss berechnet werden, die Berechnung erfordert allerdings 10GB VRAM und meine karte hat aber nur 8GB dann ist das quasi unmöglich.
Breche ich nun aber das Bild in zwei teile und gebe jedes teil einer Grafikkarte dann bekommt jede karte 5GB Vram Auslastung.

In Wirklichkeit wird es aber wohl so sein das die bilder in ganz viele Einzelheiten aufgeteilt werden.
So habe ich das ganze verstanden.
Vorteil wäre hier das es dann auch kaum mehr zu microrucklern kommen wird was ja bei AFR der fall ist.
 
Das kann durchaus trotzdem kommen, denn das Bild kann durch ne dynamische Änderung plötzlich schwerer zu berechnen sein, dann passen die Aufteilungen nicht mehr, ...
Unregelmäßige Frimetimes sind auch mit nur einer GPU möglich.
 
Ja natürlich ist das schwer zu berechnen da breuchte es eine intelligente Vorhersage wie das Bild zusammengefügt wird.

Ich frage mich wan es soweit ist das auf einer Grafikarte 2 Dies sitzen die sich einen Speicherpool teilen.
 
Zuletzt bearbeitet:
Das kommt demnächst sicherlich von AMD, deren Ryzen sind ja auch schon Module.
 
Ja hatte da was gelesen auch bei NV geht da was in die Richtung... je kleiner die Verfahren werden desto plausibler wird es um irgendwann die Leistung zu vervielfachen.
 
Powerplay, was ist wenn bei diesen neuen GameWorks Titeln keine DX12 Support vorhanden ist. Kann ich dann zwei 2080 Ti mit NVLink bei Kauf nach 14 tägigen Rückruf wieder zurück geben. Ich sehe hier versteckte Sachmangel.
Sicherlich Kaufen manche Käufer nur weil NVidia mit GameWorks die GTX2000 Serie mit RTX und DX12 Support an + SLi. HDR halte ich noch aus. Ich glaube wirklich nicht das diese GameWorks Titeln alle diese Future mit bringen werden.

Langt das dann für eine Sammelklage in USA :bigok:
 
Bisher hat NV das zusammen legen des Speichers nur für die Quadro Visuell Dargestellt.
Was wohl daran liegt das es bei Berechnungen die nicht Simultan erfolgen müssen es auch kein Problem ist den Speicher zu verdoppeln.
Desweiteren haben solche Karten eine ganz andere Softwareumgebung zur Verfügung.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh