[Sammelthread] NVIDIA GeForce RTX 2080 TI (TU102-300A) Sammelthread + FAQ



2080 TI Übersicht - Google Tabellen
Falls ihr Daten habt, die in der Tabelle fehlen, bitte mit Quellenlink kommentieren oder an mich schicken. Ich bearbeite das Sheet dann.

HWLX / OCN / 2080TI defect statistics - Google Tabellen

Tools:

Treiber:
NVIDIA

****entfernt von dbode*****

NVIDIA | NVFLASH
Download NVIDIA NVFlash 5.527.0 Official Download NVIDIA NVFlash | TechPowerUp

Anleitung

1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Flashen auf eigene Gefahr. Ich übernehme keine Haftung dafür.


****entfernt von dbode*****



NEWS:

MSI GeForce RTX 2080 Ti Lightning Z PCB pictured | VideoCardz.com
GeForce RTX 2080 Ti von ASUS und MSI im Test
Turing-Undervolting: 15 % geringere Leistungsaufnahme und dennoch leichtes OC - Hardwareluxx
NVIDIAs Turing-GPUs im Mining-Test - Hardwareluxx
Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test - Hardwareluxx
RTX 2080 Ti Founders Edition Tear-Down: Edition - YouTube
Die Turing-Architektur mit RTX, Ray Tracing und den neuen Shader-Funktionen - Hardwareluxx
Erneuter Leak: Technische Daten zur TU102-, TU104- und TU106-GPU - Hardwareluxx
The new features of NVIDIA Turing architecture | VideoCardz.com
NVIDIA GeForce RTX 2080 reviews go live on September 17th - VideoCardz.com
Alphacool Eiswolf 240 GPX Pro für die Geforce RTX 2080 und 2080 Ti vorgestellt - Hardwareluxx
Interview mit NVIDIA: Infos zum OC und der Leistung der GeForce RTX 2080 Ti - Hardwareluxx
Blockdiagramm und neue Cache-Hierarchie zur Turing-Architektur enthüllt - Hardwareluxx



Präsentation: 20.08.2018 auf der GamesCom in Köln. Video gibt es hier: NVIDIA GeForce Keynote - IGN Live at Gamescom 2018 - YouTube
Release: 20.09.2018
Preis: Zwischen 1169-1400 Euro

Geizhals Link: 2080 ti in PCIe mit GPU Consumer (nach Erscheinung): RTX 2080 Ti Preisvergleich Geizhals Deutschland

Shops:

Alternate: https://www.alternate.de/html/listi...ICE&order=DESC&hideFilter=false#listingResult
EVGA: EVGA - DE - Produkte - Grafikkarten - GeForce 20 Series Family - RTX 2080 Ti

EVGA - Support - Step-Up Program
Dv5FhA1.jpg


Mindfactory:
MediaMarkt: Ihre Suchergebnisse - MediaMarkt
Saturn: https://www.saturn.de/de/search.html?query=2080+ti&searchProfile=onlineshop&channel=sedede
Amazon:
Computeruniverse: Suche
Caseking: NVIDIA GeForce RTX 2080 Ti online kaufen

Daten:

eEWLAu6.jpg
Vergleich
keori3g.jpg



Overclocking:

MSI Afterburner 4.6.0 Beta 9 (13338) Download
EVGA - Software - EVGA Precision X1

Kühlerwechsel Garantie:

H3g9d4U.jpg


Wasserkühlung:

GeForce RTX 20x0 Series - Full Cover for NVIDIA® GeForce® - GPU Blocks - Water Blocks – EK Webshop

EKWB WaKü für 2080/2080 TI sind vorbestellbar.

http://gpu.watercool.de/WATERCOOL_HEATKILLER_GPU_Compatibility.pdf
 
Zuletzt bearbeitet von einem Moderator:
Bei der Frau da oben in dem Video habe ich immmer Angst, dass die Haare mal in den Lüftern hängen! :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kann es eventuell daran liegen, dass ich mir die aktuelle ue4 Version runter geladen habe oder eventuell daran, dass du es unter dx12 gestartet hattest?

Das erste Video welches ich gepostet habe lief unter dx11.

Das zweite Video zeigt ja die Unterschiede auf.
 
Ich hab eine uralte Version genommen und unter DX11 und DX12 laufen lassen.
Ich hänge am Ende genau so im CPU-Limit wie Du, aber in der Mitte gehts bei mir in 4K auf 13 FPS runter und praktisch nie auf 60 FPS hoch .... Egal ob DX11 oder 12.

Eventuell haben die Epic-Jungs da noch ordentlich drann gefeilt über die Zeit.



Da muss ich mir echt mal ne aktuelle Version ziehen. Ich nutze scheinbar die aus dem Link.
Zur RTX-Demo werden die keine jahrealte Version genommen haben (wie soll das auch mit DLAA gehen), und mir ist ja der Vergleich zur RTX wichtig.
Das wäre ja extrem erbärmlich was dann dabei rumgekommen wäre.
 
Zuletzt bearbeitet:
Das dlaa ist sowieso Verarsche. Das nimmt hochgerenderte Bilder aus der Cloud und schreibt die über den Treiber in das aktuelle Bild.
Nichts mit selbst Berechnung auf der Karte... Klar geht das in Echtzeit und frisst sicher auch etwas Leistung aber so wie ich das verstanden habe eher um die richtige Stelle im Bild zu finden und nicht durch das Berechnen der Kantenglättung selbst.

Btw wie kannst du dir die min AVG und Max fps anzeigen lassen? Bei mir geht das nicht irgendwie. Welches Programm nutzt du dafur?
 
Zuletzt bearbeitet:
Das nimmt hochgerenderte Bilder aus der Cloud und schreibt die über den Treiber in das aktuelle Bild.
Nope.

Neuronale Netze werden in der Cloud bzw. auf einem Rechner mit ordentlich Rechenleistung mit niedrig und hochaufgelösten Bildern trainiert (Rechner, schau her, das ist ein Bild in hoher Auflösung und das das gleiche Bild in niedriger. Jetzt schau mal, wie man von dem niedrig aufgelösten zum hochaufgelösten kommt).
Und das tut man mit sehr vielen Bildern und daran lernt das Netz die "Rechenregel", wie das zu tun ist.

Diese Rechenregel wird dann auf z.B. der GTX 2080 Ti angwendet, um die Bilder hochzuskalieren/zu glätten).

Wobei ich sagen muss, so richtig durchgestiegen bin ich bei Maschinenlernen und neuronalen Netzen auch noch nicht.

Aber ja, es könnte sein, das man dieses Trainieren für jedes Spiel separat tun muss.
 
Btw wie kannst du dir die min AVG und Max fps anzeigen lassen? Bei mir geht das nicht irgendwie. Welches Programm nutzt du dafur?

Das ist der Afterburner. Einfach im Benchmark-Tab zwei Tasten dafür definieren (Start/Stop). Und in den Einstellungen den Haken drann machen was Du sehen willst. Der kann auch 99 Percentile oder wie sich das schimpft, hab ich aber nicht angeschmissen gehabt.
 
Zuletzt bearbeitet:
Wann werden endlich die MXM Karten für Notebooks vorgestellt. Ich möchte von meiner 1070 auf die neue 2080 upgraden. Ich freu mich schon sehr wenn es die neuen Nvidia Karten zu kaufen gibt, ich bin jedenfalls nicht enttäuscht von den neuen Nvidia Karten. Ich freu mich sogar auf das neue Feature und das die 2080 auf 1080 TI niveau ist, mit den 8/11 GB Speicher kann ich verkraften.
 
Puh, harte Kritik:

Was das für Vorteile mit sich bringt, wenn ich mit einer RTX Gegner in Reflexionen beispielsweise um eine Ecke sehen kann, sie mich aber mit einer GTX nicht... Fast schon unfair...

Aber natürlich haben die Entwickler von DICE eine Mechanik eingebaut, um diesen Vorteil auszugleichen. Denn schon beim ersten Feindkontakt bricht bei mir die Framerate ein. Statt 120 fps sehe ich nun 15 bis 20, aber immerhin bricht sich das Licht so wunderschön, wow! Hektische Bewegungen belohnt das Spiel mit noch härteren Rucklern.

Beim ersten Nahkampf wird Battlefield 5 sogar zu einer Diashow. Gerade steht vor mir noch ein Soldat, dann friert das Bild ein und zack, bin ich tot. Zu allem Überfluss stürzt die Testversion dann auch noch ab, wir müssen den Stand verlassen.

Raytracing mit Geforce RTX 2080 Ti: It just works – oder auch nicht
 
Habe mir einmal die EVGA 2080 Ti mit dem 2 Slot Kühler bestellt.
 
We also played a variety of other PC games that shall not be named, and saw performance run in excess of 100 fps at 4K and Ultra settings. Unfortunately, we also don’t know how much power these GPUs had to draw to reach this level of performance.

Ein kleiner Auszug aus dem hier: Nvidia GeForce RTX 2080 Ti hands on review | TechRadar

Sollte das so stimmen wird die doch mehr fps ohne RT bringen als vorher angenommen.
 
Und wo sind da nun die Benchmarks oder Videos die das belegen? 3Dmark-Ergebnisse wären auch lecker. Ich schaffe BF4 auch mit über 100 FPS in Ultra-Settings (4x MSAA).
 
Das Thema NVLINK SLI ist eigentlich auch durch.
Habe mal PCGH gefragt ob es stimmt das der Speicher verdoppelt wird und die karten voll scalieren.
Antwort war: es funktioniert nur unter DX12 , ja der speicher wird auch verdoppelt spricht aus 2x8GB werden wohl wirklich 16GB VRAM
aber das ganze ist wohl sehr aufwendig zu implementieren weshalb ich wette das das kaum ein Entwickler machen wird.
Echt schade eigentlich weil zwei RTX2080 non ti würden ansonsten schon derbe gas geben können.
 
Wird auch Zeit [emoji23][emoji23][emoji23][emoji23]

Gesendet von meinem SM-G955F mit Tapatalk
 
Interessant wird es wenn die karten auch in bestätigten tests die Leistung zeigen
 
Nope.

Neuronale Netze werden in der Cloud bzw. auf einem Rechner mit ordentlich Rechenleistung mit niedrig und hochaufgelösten Bildern trainiert (Rechner, schau her, das ist ein Bild in hoher Auflösung und das das gleiche Bild in niedriger. Jetzt schau mal, wie man von dem niedrig aufgelösten zum hochaufgelösten kommt).
Und das tut man mit sehr vielen Bildern und daran lernt das Netz die "Rechenregel", wie das zu tun ist.

Diese Rechenregel wird dann auf z.B. der GTX 2080 Ti angwendet, um die Bilder hochzuskalieren/zu glätten).

Wobei ich sagen muss, so richtig durchgestiegen bin ich bei Maschinenlernen und neuronalen Netzen auch noch nicht.

Aber ja, es könnte sein, das man dieses Trainieren für jedes Spiel separat tun muss.

In dem Artikel der um 20uhr veröffentlicht wurde,
GeForce-RTX-20-Serie: Neuer AA-Modi DLSS erläutert und erste Leistungsdaten - Hardwareluxx steht das aber fast genau so wie ich das auch verstanden habe.. Hmm
 
Zuletzt bearbeitet:
Wenn das stimmt --> Schon irgendwie geil. Mal auf unabhängige Tests warten.
Ein Vergleich zu 1080 Ti und 2080 Ti wäre Interessant - Davon will ich 2 im neuen System haben...
 
Finde das schon sehr beeindruckend wenn da wirklich sogar noch RT dabei ist , dann sind nahe 100fps heftig
 
Zuletzt bearbeitet:
Wird vielleicht doch noch die erhoffte Rakete

Nvidia GeForce RTX 2080 Ti hands on review | TechRadar

"We also played a variety of other PC games that shall not be named, and saw performance run in excess of 100 fps at 4K and Ultra settings. Unfortunately, we also don’t know how much power these GPUs had to draw to reach this level of performance."

!We’ll also note that the gaming PCs at Nvidia’s event were arranged in the worst way possible, with almost all the machines exhausting heat directly toward the next one behind it. So, we’ll likely see even better performance once we get a card into our isolated test bench."

Hammergeil, wenn das stimmt.
 
@Darki24
Kannst Du die betreffende Stelle zitieren?
Ich habs eben gelesen und finde es passt zu dem, was ich geschrieben habe.
Es ist die Rede von einem Algorithmus und von wenigen Mbyte, die dieser groß ist.
 
Ja richtig. Wird aber über GeForce Experience oder per Treiber runter geladen. Der runtergeladene Teil wird dann durch die Tensor Cores genutzt. Also ist das eigentliche Aanti Aliasing aus und dafür werden die in dem Supercomputer vorberechneten Daten genutzt.

Das die Daten "on the fly" in der Cloud berechnet werden war doof von mir ausgedrückt.

Meinte das halt so, dass die Daten ja irgendwo herkommen müssen.

Also einfach ausgedrückt.

Supercomputer berechnet Bilder / erstellt einen Algorythmus-> Grafikkarte lädt die Daten über GF XP (oder den Treiber) -> Tensor Cores wenden es bei den Spielen an. (nicht im dauerhaften Online mode sondern nach und nach für neue Spiele oder aber es sind bereits genug Daten vorhanden anhand früherer Spiele und die Tensor Cores wenden den Algo auf zukünftige Spiele ebenfalls an)

Letzteres in klammern geschriebene stelle ich mir aber schwierig vor, denn wenn so ein Algorythmus mal falsch berechnet, kann es ja eher zu Verschlechterungen der Bilder kommen. (liege ich damit richtig?)
 
Zuletzt bearbeitet:
Diese Daten werden aber nicht live gestreamt sondern nur einmal geladen, oder?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh