[Sammelthread] NVIDIA GeForce RTX 2080 TI (TU102-300A) Sammelthread + FAQ



2080 TI Übersicht - Google Tabellen
Falls ihr Daten habt, die in der Tabelle fehlen, bitte mit Quellenlink kommentieren oder an mich schicken. Ich bearbeite das Sheet dann.

HWLX / OCN / 2080TI defect statistics - Google Tabellen

Tools:

Treiber:
NVIDIA

****entfernt von dbode*****

NVIDIA | NVFLASH
Download NVIDIA NVFlash 5.527.0 Official Download NVIDIA NVFlash | TechPowerUp

Anleitung

1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Flashen auf eigene Gefahr. Ich übernehme keine Haftung dafür.


****entfernt von dbode*****



NEWS:

MSI GeForce RTX 2080 Ti Lightning Z PCB pictured | VideoCardz.com
GeForce RTX 2080 Ti von ASUS und MSI im Test
Turing-Undervolting: 15 % geringere Leistungsaufnahme und dennoch leichtes OC - Hardwareluxx
NVIDIAs Turing-GPUs im Mining-Test - Hardwareluxx
Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test - Hardwareluxx
RTX 2080 Ti Founders Edition Tear-Down: Edition - YouTube
Die Turing-Architektur mit RTX, Ray Tracing und den neuen Shader-Funktionen - Hardwareluxx
Erneuter Leak: Technische Daten zur TU102-, TU104- und TU106-GPU - Hardwareluxx
The new features of NVIDIA Turing architecture | VideoCardz.com
NVIDIA GeForce RTX 2080 reviews go live on September 17th - VideoCardz.com
Alphacool Eiswolf 240 GPX Pro für die Geforce RTX 2080 und 2080 Ti vorgestellt - Hardwareluxx
Interview mit NVIDIA: Infos zum OC und der Leistung der GeForce RTX 2080 Ti - Hardwareluxx
Blockdiagramm und neue Cache-Hierarchie zur Turing-Architektur enthüllt - Hardwareluxx



Präsentation: 20.08.2018 auf der GamesCom in Köln. Video gibt es hier: NVIDIA GeForce Keynote - IGN Live at Gamescom 2018 - YouTube
Release: 20.09.2018
Preis: Zwischen 1169-1400 Euro

Geizhals Link: 2080 ti in PCIe mit GPU Consumer (nach Erscheinung): RTX 2080 Ti Preisvergleich Geizhals Deutschland

Shops:

Alternate: https://www.alternate.de/html/listi...ICE&order=DESC&hideFilter=false#listingResult
EVGA: EVGA - DE - Produkte - Grafikkarten - GeForce 20 Series Family - RTX 2080 Ti

EVGA - Support - Step-Up Program
Dv5FhA1.jpg


Mindfactory:
MediaMarkt: Ihre Suchergebnisse - MediaMarkt
Saturn: https://www.saturn.de/de/search.html?query=2080+ti&searchProfile=onlineshop&channel=sedede
Amazon:
Computeruniverse: Suche
Caseking: NVIDIA GeForce RTX 2080 Ti online kaufen

Daten:

eEWLAu6.jpg
Vergleich
keori3g.jpg



Overclocking:

MSI Afterburner 4.6.0 Beta 9 (13338) Download
EVGA - Software - EVGA Precision X1

Kühlerwechsel Garantie:

H3g9d4U.jpg


Wasserkühlung:

GeForce RTX 20x0 Series - Full Cover for NVIDIA® GeForce® - GPU Blocks - Water Blocks – EK Webshop

EKWB WaKü für 2080/2080 TI sind vorbestellbar.

http://gpu.watercool.de/WATERCOOL_HEATKILLER_GPU_Compatibility.pdf
 
Zuletzt bearbeitet von einem Moderator:
da sollte ein aktuelles 17er mit 330W drauf sein und auch ausreichen. was du kriegst, siehts du erst wenn du es hast.


(..)

mfg
tobi
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ähm.. da geht seitlich weder luft rein noch raus.. absolut kontraproduktiv bei einer axial luftgekühlten grafikkarte. lass das seitenteil offen!

btw,
halte doch mal die hand neben die karte wenn sie arbeitet. sie braucht von unten frischluft und gibt diese auch seitlich wieder ab.. angenehm erwärmt.


(..)

mfg
tobi

Ja, lasse ich auch immer offen beim Zocken, anders geht es mit OC auch gar nicht.
 
@yilem76
Habs gerade getestet.
Takt wird gehalten keine schwankungen mehr nur Speicher taktet nicht mehr runter.
Mehr GPU Takt konnte ich nicht rausholen und die Karte wird deutlich wärmer.
Mache wieder Original Bios drauf.

Bezüglich des Strix Bios...
Hast du versucht ein 2D Profil im Afterburner für den Ram anzulegen?
So das der Afterburner den Ram Takt in den Idle zwingt wen vorher OC drauf war?

Ich hab ja auch die Gigabyte Gaming hoffe mal das der Aquacomputer Kühler bald ankommt!
Gruss
 
Zuletzt bearbeitet:
Mal wieder neuer Bios Stoff, gibt nen neues .30 Bios (90.02.30.00.13). Hat 360 Watt max., nutze es seit ein paar Stunden auf meiner Gainward GS mit Samsung, alle Tests erfolgreich, lüppt bestens. Stammt von Gigabyte aus dem neuen F5 Bios der Gigabyte GeForce RTX 2080 Ti Gaming OC. ;)

Download, wer es braucht hier



 
Zuletzt bearbeitet:
Verkehrte Welt....Mindfactory
Palit GeForce RTX 2080 Ti GamingPro 1.176,45€
Palit GeForce RTX 2080 Ti GamingPro OC 1.166,90€
Palit GeForce RTX 2080 Ti Dual 1.456,02€
 
Mal wieder neuer Bios Stoff, gibt nen neues .30 Bios. Hat 360 Watt max., nutze es seit ein paar Stunden auf meiner Gainward GS mit Samsung, alle Tests erfolgreich, lüppt bestens. Stammt von Gigabyte aus dem neuen F5 Bios der Gigabyte GeForce RTX 2080 Ti Gaming OC. ;)

Download, wer es braucht hier




hast du die ausgänge alle durchgetestet? mit dem 1000W asus bios fielen auf meiner gainward 2x displayport weg und die HDMI-schnitte mochte die oculus rift nicht mehr aktivieren.. AFAIR sind gigabunts PCBs custom.




(..)

mfg
tobi
 
Alles safe, die Gaming OC ist Ref mit nur kleinen Änderungen für den Gigabyte RGB Krempel. Wer das Bios auf einer anderen Karte mit Luftkühler nutzen möchte; hier heißt es eben immer ausprobieren, wie sich der/die Lüfter verhalten, unter Wasser eben kein Problem - ich spiele bei mir immer nur Biose von anderen Herstellern auf, wo die Karte Ref ist oder zu 98 Prozent darauf basiert.
 
Zuletzt bearbeitet:
Mal wieder neuer Bios Stoff, gibt nen neues .30 Bios. Hat 360 Watt max., nutze es seit ein paar Stunden auf meiner Gainward GS mit Samsung, alle Tests erfolgreich, lüppt bestens. Stammt von Gigabyte aus dem neuen F5 Bios der Gigabyte GeForce RTX 2080 Ti Gaming OC. ;)

Download, wer es braucht hier






Mmmh bei meinem Gaming sind es noch 366W.
 
Mmmh bei meinem Gaming sind es noch 366W.

Ja, das Bios zuvor hatte noch 366 Watt, hat Gigabyte wohl etwas abgesenkt. Die 360 reichen mir aber immer noch dicke, mit der neuen Karte brauche ich für stabile 2085/2100 mit 8000MHz auf den Speichern nicht mehr als die 360 Watt - ist schon lustig, wie unterschiedlich die Chips so sind, wenn man mehrere Karten hatte, dafür wird die jetzige Karte so 2 Grad wärmer blei gleicher Last. Das olle überholte 380er nutze ich eh nicht mehr, hier müsste mal ne neue Version von her, aber auch weil ich es nach wie vor nicht einsehe 380 Watt für so nen olles Game für dann noch 1 - 2 Frames mehr zu verbraten, die 360 Watt nutze ich auch nur selten, bei den meisten Games liege ich so bei 280 - 300 Watt, jeder wie er mag.
 
Zuletzt bearbeitet:
ich muss mir das auch nochmal in ruhe anschauen. auf meinen neueren gainwards (die mit samsung ram, die mit .17 ausgeliefert wurden) war das alte 380er nicht so die wolke. damit habe ich mir zweimal das NT abgeschossen.. klack und aus. als wäre es reproduzierbar (BFV, UHD/ultra, RTX ultra und in rotterdam ins wasser fallen).



(..)

mfg
tobi
 
ja sind halt 700-800W für die Karten + CPU und das ganze (will keinen Krieg losbrechen) an den Corsairmöhren? da kann das vorkommen :d
 
aber mit nur einer karte am hx1200i?

edit:
läuft wieder.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
^^Das 380er habe ich gestern kurz probiert, meine neue GS ist ja im Grunde wie deine Neuen, die sind ja auch aus Dezember, lief aber ohne Probleme, keinerlei Abstürze oder sonst was, die auf das Netzteil zurück zu führen wären und ich nutze nur nen einfaches 650Watt Corsair RM650i, hat mich noch nie im Stich gelassen, nun schon seit Jahren.
 
Zuletzt bearbeitet:
keine Ahnung Tobi was du da so treibst bei deinen Tests ;)
 
Ja, das Bios zuvor hatte noch 366 Watt, hat Gigabyte wohl etwas abgesenkt. Die 360 reichen mir aber immer noch dicke, mit der neuen Karte brauche ich für stabile 2085/2100 mit 8000MHz auf den Speichern nicht mehr als die 360 Watt - ist schon lustig, wie unterschiedlich die Chips so sind, wenn man mehrere Karten hatte, dafür wird die jetzige Karte so 2 Grad wärmer blei gleicher Last. Das olle überholte 380er nutze ich eh nicht mehr, hier müsste mal ne neue Version von her, aber auch weil ich es nach wie vor nicht einsehe 380 Watt für so nen olles Game für dann noch 1 - 2 Frames mehr zu verbraten, die 360 Watt nutze ich auch nur selten, bei den meisten Games liege ich so bei 280 - 300 Watt, jeder wie er mag.

Jo das macht ja den Kohl wie du sagst auch nicht mehr Fett die 6Watt.
Mit welcher Auflösung hältst du diesen Takt.
Gruss.
 
Zuletzt bearbeitet:
Ja, das Bios zuvor hatte noch 366 Watt, hat Gigabyte wohl etwas abgesenkt. Die 360 reichen mir aber immer noch dicke, mit der neuen Karte brauche ich für stabile 2085/2100 mit 8000MHz auf den Speichern nicht mehr als die 360 Watt - ist schon lustig, wie unterschiedlich die Chips so sind, wenn man mehrere Karten hatte, dafür wird die jetzige Karte so 2 Grad wärmer blei gleicher Last. Das olle überholte 380er nutze ich eh nicht mehr, hier müsste mal ne neue Version von her, aber auch weil ich es nach wie vor nicht einsehe 380 Watt für so nen olles Game für dann noch 1 - 2 Frames mehr zu verbraten, die 360 Watt nutze ich auch nur selten, bei den meisten Games liege ich so bei 280 - 300 Watt, jeder wie er mag.

Bei mir reichen die 330 Watt dicke für 2160, hatte das 380´er zum Benchen mal getestet, gab ein paar Pünktchen mehr bei meiner GS, bin dann wieder zurück auf das 330´er.

Gerade bei Metro getestet, läuft super :drool: Metro Exodus @ 2160.jpg

- - - Updated - - -

ja sind halt 700-800W für die Karten + CPU und das ganze (will keinen Krieg losbrechen) an den Corsairmöhren? da kann das vorkommen :d

Na dann lieber ein gutes altes Coba:fresse2:
 
@ABA74
... bei welcher Auflösung hälst du die 2160 MHZ?
 
Jo das macht ja den Kohl wie du sagst auch nicht mehr Fett die 6Watt.
Mit welcher Auflösung hältst du diesen Takt.
Gruss.

Also ich zocke ja nur in UHD oder sogar 5K, weil mir 60 Frames in Games reichen bzw. cappe sogar bei 58 mit LG UHD 60Hz Freesync/G-Sync Monitor. Dementsprechend lote ich Karten auch mit diesen Auflösungen aus. In WQHD z. B. läuft ja vieles noch dauerhaft und mit viel höherem Takt auch ohne groß runter zu takten, als in UHD oder in 5120x2880. Daher teste ich Stabilität auch nur mit diesen Auflösungen. Als Beispiel Far Cry 5 im Game auf die native UHD Auflösung gestellt und dann noch zusätzlich die Auflösungsskalierung auf 130 oder 150 Prozent, so sollte die Karte den Takt halten können und eben auch nicht abkacheln. Da eiert man dann bei 2055 - 2100MHz auf der Ti mit 40 - 50 - 60 Frames durch die Gegend, je nach Stelle, die Last ist aber immer dementsprechend hoch. Soll mir mal einer zeigen, wer mit seiner Ti dann lange weit über 2100 hält, wenn selbst 380 Watt immer im Anschlag braten, die GPU Temp selbst unter Wasser und ohne Balkonmod dann schnell auf die 50 Grad zugeht. In Kinderauflösung, nichts für ungut, von 1080p oder 1440p laufen Games mit der neuen Karte auch mit 2160mHz stabil und dauerhaft, wie die von ABA74. Das Ganze mache ich dann noch mit ein paar anderen Games genauso, läuft so alles länger und ohne Absturz passt meist auch alles - von daher zählt meine Taktangabe für UHD und 5K. ;)
 
Zuletzt bearbeitet:
Also ich zocke ja nur in UHD oder sogar 5K, weil mir 60 Frames in Games reichen bzw. cappe sogar bei 58 mit LG UHD 60Hz Freesync/G-Sync Monitor. Dementsprechend lote ich Karten auch mit diesen Auflösungen aus. In WQHD z. B. läuft ja vieles noch dauerhaft und mit viel höherem Takt auch ohne groß runter zu takten, als in UHD oder in 5120x2880. Daher teste ich Stabilität auch nur mit diesen Auflösungen. Als Beispiel Far Cry 5 im Game auf die native UHD Auflösung gestellt und dann noch zusätzlich die Auflösungsskalierung auf 130 oder 150 Prozent, so sollte die Karte den Takt halten können. Da eiert man dann bei 2055 - 2100MHz auf der Ti mit 40 - 50 - 60 Frames durch die Gegend, je nach Stelle, die Last ist aber immer dementsprechend hoch. Soll mir mal einer zeigen, wer mit seiner Ti dann lange weit über 2100 hält, wenn selbst 380 Watt immer im Anschlag braten, die GPU Temp selbst unter Wasser und ohne Balkonmod dann schnell auf die 50 Grad zugeht. In Kinderauflösung, nichts für ungut, von 1080p oder 1440p laufen Games mit der neuen Karte auch mit 2160mHz stabil und dauerhaft, wie die von ABA74. Das Ganze mache ich dann noch mit ein paar anderen Games genauso, läuft so alles länger und ohne Absturz passt meist auch alles - von daher zählt meine Taktangabe für UHD und 5K. ;)

Es taktet auch in 1440 mal runter auf 2115 runter je nach Szene ! Sollte die Auslastung nicht voll sein bei manchen Games, skaliere ich auch bis 150%;)
 
Also ich habe kein Game, das in 1440p mit 360 oder 380 Watt Bios bei 60 Frames ins Power Limit läuft, lassen wir mal Raytracing außen vor. Klar, wenn man 144 Frames sehen möchte ist was anderes, trotzdem wird es selbst dann ja schwer.
 
Zuletzt bearbeitet:
Warst Du nicht auch einer der User mit "kleinem" Monitor? Oder wieder einer mit gutem Chip^^
Die UHD-User sind ja in der Regel mehr angeschissen^^


BTW .. wie sieht eigentlich bei euch ein Heaven-Run aus?
Ich hab Spikes und spürbare Lade-Hänger bei dem alten Game (und zwar auf zwei verschiedenen Rechnern) mit der T-Rex und mit der alten Titan X.
Ist mir früher nie so heftig aufgefallen.

Beim aktuellen 419.35 noch übler als beim alten 417.71




Hmmm... eigentlich das gleiche in grün. Genau so erbärmlich, nur mit weniger FPS^^
Spikes und Ladescreens an genau den gleichen Stellen. Klar dass die Ruckler von 200 FPS runter heftiger aussehen als die von 130 FPS runter.


Wer bietet einen glatten Run ohne die Spikes und Laderuckler?

Ein Glück spiele ich keine Benches .. aber das nervt schon ein bisschen^^
 
Zuletzt bearbeitet:
Das bei 5K der Takt nicht gehalten wird und die Karte voll ausgelastet wird,wenn sie 370-380 Watt zieht wird wohl stimmen,aber 50 Grad mit Wasserkühler und Mora + vieleicht noch 360er Radi kann ich mir nicht vorstellen. 41 Grad ist bei mir das höchste aller gefühle und die nicht lange,sondern schwankend abwärts. 50 Grad wären mir zuviel,auch weil der Takt dadurch schon runter geht und das möchte man doch vermeiden. :)
 
@Hisn. Hol dir doch mal bitte einen 9900K endlich. ;)

Ich mache den Run morgen. Ich bin gespannt, ob ich das auch habe.
 
Also ich zocke ja nur in UHD oder sogar 5K, weil mir 60 Frames in Games reichen bzw. cappe sogar bei 58 mit LG UHD 60Hz Freesync/G-Sync Monitor. Dementsprechend lote ich Karten auch mit diesen Auflösungen aus. In WQHD z. B. läuft ja vieles noch dauerhaft und mit viel höherem Takt auch ohne groß runter zu takten, als in UHD oder in 5120x2880. Daher teste ich Stabilität auch nur mit diesen Auflösungen. Als Beispiel Far Cry 5 im Game auf die native UHD Auflösung gestellt und dann noch zusätzlich die Auflösungsskalierung auf 130 oder 150 Prozent, so sollte die Karte den Takt halten können und eben auch nicht abkacheln. Da eiert man dann bei 2055 - 2100MHz auf der Ti mit 40 - 50 - 60 Frames durch die Gegend, je nach Stelle, die Last ist aber immer dementsprechend hoch. Soll mir mal einer zeigen, wer mit seiner Ti dann lange weit über 2100 hält, wenn selbst 380 Watt immer im Anschlag braten, die GPU Temp selbst unter Wasser und ohne Balkonmod dann schnell auf die 50 Grad zugeht. In Kinderauflösung, nichts für ungut, von 1080p oder 1440p laufen Games mit der neuen Karte auch mit 2160mHz stabil und dauerhaft, wie die von ABA74. Das Ganze mache ich dann noch mit ein paar anderen Games genauso, läuft so alles länger und ohne Absturz passt meist auch alles - von daher zählt meine Taktangabe für UHD und 5K. ;)
Jo Okay dann weiß ich in etwa was ich in 4K auf dem Oled erwarten Danke!
Bis auf das free sync gsync haben wir so ziemlich das gleiche nutzer Profil wen Reserve ist stell ich die Auflösung auch weiter hoch ansonsten Limiter und Vsync anpassen hilft mir ungemein.... so in etwa war meine Einschätzung auch ca 2038-2070 /8000+ bei 366W.
Ich werd es ja bald sehen wen der Kühler da ist vielleicht lasse ich das Bios so drauf hätte mich bewusst für die Gaming entschieden mit 366W gehört sie mit zu den die das höchste PT aufweisen bis auf das 380W Bios.
Ansonsten habe ich mir das Strix Bios mal zur Sicherheit gesichert!
Grüsse

@ABA74
Danke hatte mir schon gedacht das das höchsten in WQHD geht mit 2160 je nach Titel bzw sogar ehr 1080P wen man die immer halten will... die Auflösung spielt je nach Titel eine Wichtige Rolle was das max PT angeht.
330 W ist halt knapp daher habe ich nachgefragt.
Gruss
 
Zuletzt bearbeitet:
Wieviel soll denn ein 9900K in FPS schneller sein als ein 5960X? Zumal man hier noch das Quadchannelinterface aufgeben müsste.

Schau mal wie viel FPS ein 9900K mehr gibt bei diesen Regionen über 250 FPS in Games. Intel Core i9-9900K im Test: Acht Kerne mit Luxuszuschlag - Hardwareluxx

Das sind stock Werte. Ich lasse meinen in Benchmarks mit 5,4 - 5,5 laufen. Ich kann mir gut vortsellen, dass ich bis zu 50 FPS mehr haben werde als ein 5960x in diesem speziellen Benchmark in 1080p.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh