[Sammelthread] NVIDIA GeForce RTX 2080 TI (TU102-300A) Sammelthread + FAQ



2080 TI Übersicht - Google Tabellen
Falls ihr Daten habt, die in der Tabelle fehlen, bitte mit Quellenlink kommentieren oder an mich schicken. Ich bearbeite das Sheet dann.

HWLX / OCN / 2080TI defect statistics - Google Tabellen

Tools:

Treiber:
NVIDIA

****entfernt von dbode*****

NVIDIA | NVFLASH
Download NVIDIA NVFlash 5.527.0 Official Download NVIDIA NVFlash | TechPowerUp

Anleitung

1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Flashen auf eigene Gefahr. Ich übernehme keine Haftung dafür.


****entfernt von dbode*****



NEWS:

MSI GeForce RTX 2080 Ti Lightning Z PCB pictured | VideoCardz.com
GeForce RTX 2080 Ti von ASUS und MSI im Test
Turing-Undervolting: 15 % geringere Leistungsaufnahme und dennoch leichtes OC - Hardwareluxx
NVIDIAs Turing-GPUs im Mining-Test - Hardwareluxx
Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test - Hardwareluxx
RTX 2080 Ti Founders Edition Tear-Down: Edition - YouTube
Die Turing-Architektur mit RTX, Ray Tracing und den neuen Shader-Funktionen - Hardwareluxx
Erneuter Leak: Technische Daten zur TU102-, TU104- und TU106-GPU - Hardwareluxx
The new features of NVIDIA Turing architecture | VideoCardz.com
NVIDIA GeForce RTX 2080 reviews go live on September 17th - VideoCardz.com
Alphacool Eiswolf 240 GPX Pro für die Geforce RTX 2080 und 2080 Ti vorgestellt - Hardwareluxx
Interview mit NVIDIA: Infos zum OC und der Leistung der GeForce RTX 2080 Ti - Hardwareluxx
Blockdiagramm und neue Cache-Hierarchie zur Turing-Architektur enthüllt - Hardwareluxx



Präsentation: 20.08.2018 auf der GamesCom in Köln. Video gibt es hier: NVIDIA GeForce Keynote - IGN Live at Gamescom 2018 - YouTube
Release: 20.09.2018
Preis: Zwischen 1169-1400 Euro

Geizhals Link: 2080 ti in PCIe mit GPU Consumer (nach Erscheinung): RTX 2080 Ti Preisvergleich Geizhals Deutschland

Shops:

Alternate: https://www.alternate.de/html/listi...ICE&order=DESC&hideFilter=false#listingResult
EVGA: EVGA - DE - Produkte - Grafikkarten - GeForce 20 Series Family - RTX 2080 Ti

EVGA - Support - Step-Up Program
Dv5FhA1.jpg


Mindfactory:
MediaMarkt: Ihre Suchergebnisse - MediaMarkt
Saturn: https://www.saturn.de/de/search.html?query=2080+ti&searchProfile=onlineshop&channel=sedede
Amazon:
Computeruniverse: Suche
Caseking: NVIDIA GeForce RTX 2080 Ti online kaufen

Daten:

eEWLAu6.jpg
Vergleich
keori3g.jpg



Overclocking:

MSI Afterburner 4.6.0 Beta 9 (13338) Download
EVGA - Software - EVGA Precision X1

Kühlerwechsel Garantie:

H3g9d4U.jpg


Wasserkühlung:

GeForce RTX 20x0 Series - Full Cover for NVIDIA® GeForce® - GPU Blocks - Water Blocks – EK Webshop

EKWB WaKü für 2080/2080 TI sind vorbestellbar.

http://gpu.watercool.de/WATERCOOL_HEATKILLER_GPU_Compatibility.pdf
 
Zuletzt bearbeitet von einem Moderator:
@Thunderburne
Das Problem ist auch ungleich komplexer als bei den CPUs. Und hängt imho auch nicht rein an der Leistung der Brücke. Bei mGPU ist das Thema Skalieren "nur" genauso wichtig wie die fortlaufende Gleichmäßigkeit der "Ergebnisausgabe". Da sind SLI&Co. sind beim Zocken immer eine Krücke.

Die Lastverteilung bei mGPU ist eine Megaaufgabe. Wenn man das für z.B. Gesichtserkennung nutzt ist das was anderes als wenn die menschliche Wahrnehmung mind. 60x pro Sekunde das Ergebnis begutachten möchte. Absolut fällt es ohne Benches nicht auf. Also ob ein Spiel mit +75% oder +85% Fps skaliert erkennt man nur mit Tools. Für Unregelmäßigkeiten in der Ausgabe reicht dagegen alleine das Auge/Gehirn Gespann.
Da weiß ich nicht, ob man sowas alleine auch mit einer 300 GB/s "Brücke" erschlagen kann. Man bräuchte einen wirklich gut durchdachten allgemeinen Ansatz dafür. Im OS, der GFX-Api und im Grakatreiber. Etwas allgemein gutes was dann alle gleich umsetzen. So in etwa wie alle graphic primitives gleich malen oder so.

Eigentlich mag niemand Sli :) (oder Crossfire). Jeder der das nutzt hätte lieber eine Karte, sobald sie wenigstens 160%/170% einer der SLI-Karten kann und man auch statt 2x 250W, 1x 300W hätte. In etwa.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es gab eine Zeit wo SLI gut suportet wurde ich hab auch SLI gefahren würde es auch sofort wieder tun wen die Spiele es erstmal auch alle unterstützen würden.
Gerade Scum schreit nach mehr Leistung da wird auch eine 2080Ti für max 4K nicht reichen.
 
Zuletzt bearbeitet:
Jensen hat auf dem Event gesagt, dass GPUs über NVLink als eine GPU vom System erkannt werden soll.
Vielleicht sieht so das neue „SLI/Crossfire“ Konzept aus?
 
Jensen hat auf dem Event gesagt, dass GPUs über NVLink als eine GPU vom System erkannt werden soll.
Vielleicht sieht so das neue „SLI/Crossfire“ Konzept aus?

Das ist was für Entwickler und den Serverbereich die haben da eine andere Softwareumgebung.
Für uns Spieler haben die Spielhersteller aktuell überwiegengd kein Bock drauf die Software so anzupassen das 2GPUs an einem Bild rendern so das man effektiv den annäherend doppelten Speicher erhält jedoch nicht 100% Leistung der 2ten GPU.

Das Thema ist aber noch nicht vom Tisch ich denke wen es problematischer wird mit kleineren Fertigungen dan wird MGPU unvermeidlich in welcher Form auch immer.

SCUM - 4K (Ultra HD) | Asus GTX 1080 Ti Strix | i7 8700K 4,7GHz - YouTube
 
Zuletzt bearbeitet:
Was soll man denn anpassen müssen, wenn Nvidia bei gesteckten NVlink eine einzelne GPU silutliuert?
 
Das ist wie AFR und SFR alles brauch Software um angesprochen werden zu können.

Und durch die Brücke wird meines Wissens keine Singlegpu Simuliert sondern nur die komunikationsgeschwindigkeit verbessert.

Allein so betrachtet das zum Beispiel die 2080Ti um die 600GBS die Sekunde hat und mit OC in Richtung 700GBs gehen wird schließt es eigentlich schon aus.
Glaub die die Brücke liefert 100GBs hatte auch was von 300GBs bei der 6000 gelesen.
 
Zuletzt bearbeitet:
Die Kommunikationsgeschwindigkeit könnte aber auch die Voraussetzung dafür schaffen, der Treiber könnte die Software bieten die dazu nötig ist, halte das schon für möglich.
 
In erster Linie "spricht" die Software mit dem Treiber und wenn der Treiber sagt: jo hier ist nur einer.. Aber mal schauen ob es das Konzept überhaupt gibt
 
Jensen hat auf dem Event gesagt, dass GPUs über NVLink als eine GPU vom System erkannt werden soll.
Vielleicht sieht so das neue „SLI/Crossfire“ Konzept aus?

Das gilt mit einigen Einschränken für die Tesla- und Quadro-Karten, NVLink wird auf den GeForce-RTX-Karten aber nichts anderes als ein SLI sein, wie man das kennt.
 
Don, ölass uns das einfach abwarten.
Wenn es so ist, ist es quasi useless, wenn es als Single-GPU-Simulation läuft, sehen wir was raus kommt, ...
 
Für MGPU sehe ich nur gute Zeiten wen das in den Konsolen Einzug hält.
Oder halt wen es nicht mehr kleiner geht über sehr lange Zeiträume.
 
Wenn mGPU zu "erweitere deine GPU selbst" wird, sehe ich da kein Problem. Das Spiel selbst erkennt den Unterschied nicht, nur der Hersteller der GPUs muss das Thema richtig integrieren.
 
Das gilt mit einigen Einschränken für die Tesla- und Quadro-Karten, NVLink wird auf den GeForce-RTX-Karten aber nichts anderes als ein SLI sein, wie man das kennt.

Danke :) 2080TI NVLINK brauche ich dann wohl nicht mehr zu testen.
 
Genau und selbst wenn nvlink für gamer nur eine SLI Funktion bietet, wäre ein Test damit ja nicht ganz uninteressant. ;)
 
exakt, denn bei der Bandbreite kann SLI plötzlich gänzlich anders reagierne als bisher, who knows?
 
Das wird nur nie in Konsolen Einzug halten, da die immer nur einen Bruchteil der GPU-Leistung von PC-Highend haben. Ich bezweifle dass unterstützungsfreies SLI in absehbarer Zeit möglich sein wird. Ich hatte selbst einmal SLI mit Lowendkarten und würde es nie wieder tun, auch wenn mir klar ist dass es mittlerweile besser geworden ist. Das NVLINK-SLI ist sicherlich besser von den Mikrorucklern her, die damals ein echtes Problem für mich waren, "60 FPS" fühlten sich damit ruckeliger an als 35 FPS auf einer Karte.

Traumhaft wäre es wenn AMD es gelänge einen funktionierenden Modulbau für GPUs zu entwickeln, so etwas würde falls es technisch überhaupt umsetzbar ist aber ewig dauern. Dann wäre selbst Realtime-Raytracing greifbar, weil man dann für unter 1000 € einen GPU-Threadripper bauen könnte. Bald ist das technische Limit der Shrinks erreicht, dann wird ein Umdenken erforderlich.
 
Das meine ich doch mit MGPU ich rede nicht vom klasischen SLI und CF.
Bei AMD kam das ja iwo mal zur Sprache mit Navi.
Daher hab ich das auch so auf Konsolen bezogen.
 
Zuletzt bearbeitet:
Hört sich doch gut an, dann scheinen die Gerüchte zu stimmen bzgl. Skalierbarkeit.
Also wird Navi ein Art Ryzen GPU. :)
 
Nur ob man damit zocken kann? Crossfire ist ja nochmal deutlich schlechter als SLI. Eine richtige AMD-Highend GPU wäre ein Traum, vor allem wäre die samt Monitor bezahlbar. Ansonsten hat man gar keine Wahl als 2080 Ti zu kaufen.
 
Das gilt mit einigen Einschränken für die Tesla- und Quadro-Karten, NVLink wird auf den GeForce-RTX-Karten aber nichts anderes als ein SLI sein, wie man das kennt.
Aha ;) Dieses eine GPU/ein Speicher bei den 2000ern ist imho eher eine Technologiestudie... Für Spieler knallen die Fps damit nahezu auf den Boden. Darf man das auch noch nicht sagen? :) Oder hab ich da was falsche gehört?

@all
Das funktioniert für mich nur sorgenfrei, wenn sich wie gesagt das OS/seine GFX-API und der Treiber drum kümmern. Und nicht die, welche die Anwendung schreiben. Genauso wie jemand der etwas schreibt was auf 4 Kernen läuft, sich nicht drum kümmert, ob man 2 Sockel mit jeweils 2x2 Kernen oder 1 Sockel mit 1x4 hat (hatte ;))

Nvlink & Co. sind bei GPGPU nicht grundsätzlich über. Beim Zocken schon. Weil das nur funzt, wenn der Chiphersteller alle 2 Tage bie dir anklopft, mit paar Scheinen wedelt und auch tatkräftige Unterstützung anbietet. Dann hast du SLI drauf, in dieser einer Engine. Und kein Crossfire (als Beispiel).

Sowas ist keine Lösung, sondern ein Workaround.
 
Zuletzt bearbeitet:
Marktwirtschaft...

Zudem: Wer bei teurer Highendhardware rumjammert weil kein Gamecode dabei ist, sollte sich hinterfragen, ob er in dieser Klasse überhaupt richtig ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh