[Sammelthread] NVIDIA GeForce RTX 2080 TI (TU102-300A) Sammelthread + FAQ



2080 TI Übersicht - Google Tabellen
Falls ihr Daten habt, die in der Tabelle fehlen, bitte mit Quellenlink kommentieren oder an mich schicken. Ich bearbeite das Sheet dann.

HWLX / OCN / 2080TI defect statistics - Google Tabellen

Tools:

Treiber:
NVIDIA

****entfernt von dbode*****

NVIDIA | NVFLASH
Download NVIDIA NVFlash 5.527.0 Official Download NVIDIA NVFlash | TechPowerUp

Anleitung

1. Als erstes eigenes Original BIOS speichern per GPU-Z als Backup
2. Command Prompt starten per Adminstrator indem man "CMD" eingibt in der Windows Suchleiste
3. Richtigen Pfad angeben zum NVFlash Ordner mit cd: c/.....
4. Dann den Schutz deaktivieren mit "nvflash --protectoff" oder "nvflash64 --protectoff"
5. Dann die Custom ROM (BIOS) angeben mit "nvflash ROM_NAME.rom" oder "nvflash64 ROM_NAME.rom"
6. Falls es nicht funktioniert, da es zum ID-Mismatch kommt, muss man den Schutz gegen ein fremdes Bios deaktivieren mit "nvflash -6 ROM_NAME.rom" oder "nvflash64 -6 ROM_NAME.rom"
7. Enter drücken
8. 2x Y drücken zum bestätigen
9. Screen flackert und die Message sollte kommen, dass alles funktioniert hat
10. PC neu starten
11. Nach dem Neustart warten bis die Grafikkarte wieder erkannt wieder. Kann 1-2 Minuten dauern

Flashen auf eigene Gefahr. Ich übernehme keine Haftung dafür.


****entfernt von dbode*****



NEWS:

MSI GeForce RTX 2080 Ti Lightning Z PCB pictured | VideoCardz.com
GeForce RTX 2080 Ti von ASUS und MSI im Test
Turing-Undervolting: 15 % geringere Leistungsaufnahme und dennoch leichtes OC - Hardwareluxx
NVIDIAs Turing-GPUs im Mining-Test - Hardwareluxx
Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test - Hardwareluxx
RTX 2080 Ti Founders Edition Tear-Down: Edition - YouTube
Die Turing-Architektur mit RTX, Ray Tracing und den neuen Shader-Funktionen - Hardwareluxx
Erneuter Leak: Technische Daten zur TU102-, TU104- und TU106-GPU - Hardwareluxx
The new features of NVIDIA Turing architecture | VideoCardz.com
NVIDIA GeForce RTX 2080 reviews go live on September 17th - VideoCardz.com
Alphacool Eiswolf 240 GPX Pro für die Geforce RTX 2080 und 2080 Ti vorgestellt - Hardwareluxx
Interview mit NVIDIA: Infos zum OC und der Leistung der GeForce RTX 2080 Ti - Hardwareluxx
Blockdiagramm und neue Cache-Hierarchie zur Turing-Architektur enthüllt - Hardwareluxx



Präsentation: 20.08.2018 auf der GamesCom in Köln. Video gibt es hier: NVIDIA GeForce Keynote - IGN Live at Gamescom 2018 - YouTube
Release: 20.09.2018
Preis: Zwischen 1169-1400 Euro

Geizhals Link: 2080 ti in PCIe mit GPU Consumer (nach Erscheinung): RTX 2080 Ti Preisvergleich Geizhals Deutschland

Shops:

Alternate: https://www.alternate.de/html/listi...ICE&order=DESC&hideFilter=false#listingResult
EVGA: EVGA - DE - Produkte - Grafikkarten - GeForce 20 Series Family - RTX 2080 Ti

EVGA - Support - Step-Up Program
Dv5FhA1.jpg


Mindfactory:
MediaMarkt: Ihre Suchergebnisse - MediaMarkt
Saturn: https://www.saturn.de/de/search.html?query=2080+ti&searchProfile=onlineshop&channel=sedede
Amazon:
Computeruniverse: Suche
Caseking: NVIDIA GeForce RTX 2080 Ti online kaufen

Daten:

eEWLAu6.jpg
Vergleich
keori3g.jpg



Overclocking:

MSI Afterburner 4.6.0 Beta 9 (13338) Download
EVGA - Software - EVGA Precision X1

Kühlerwechsel Garantie:

H3g9d4U.jpg


Wasserkühlung:

GeForce RTX 20x0 Series - Full Cover for NVIDIA® GeForce® - GPU Blocks - Water Blocks – EK Webshop

EKWB WaKü für 2080/2080 TI sind vorbestellbar.

http://gpu.watercool.de/WATERCOOL_HEATKILLER_GPU_Compatibility.pdf
 
Zuletzt bearbeitet von einem Moderator:
Darum haben wir mal einen ganzen Tag lang gestritten... er war der festen Überzeugung er muss so ein besonderes Custom Kabel an die neue Logitech Pro Wireless löten, weil das geiler ist. Sowas triggert mich so sehr, dass ich hier gleich ne Auszeit bekomm. :lol:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hatte dir ja versucht zu erklären warum ich das vor hatte. Außerdem ist die Maus für Kabelbetrieb durchaus vorgesehen. Wenn du dich darüber so amüsierst, bitte, ist ok für mich. :)
Ich könnte jetzt auch mit Sachen kommen die hier gar nicht hingehören (denk mal an das was du mir mal per Steam geschrieben hast...). Weiß nicht ob du da einen guten Tag hattest, oder hier viele schlechte.
 
Also wie schon bei den 1080 Ti wird ab 41° Grad runter getacktet.
So früh gehts schon los mit den Temps,deshalb Wakü und nicht Lüku.
Jetzt hab ich mal seit langem wieder 3 Stunden gezockt,jetzt ist das Wasser 29,5° Grad und Graka 41° Grad,Takt war vorher ohne Limits 2175 Mhz
und jetzt plötzlich bei 41° Grad 2160 Mhz runter trotz ohne Limit Meldungen.
Ich bin Sau zufrieden mit meinem System,läuft rund und in ein paar Guten Benchmarkslisten konnte ich mich auch Positionieren.
Schönen Abend noch alle hier. :wink:


Echt jetzt,wollt Ihr beiden jetzt hier anfangen alte Wäsche waschen,irgendwann ist aber auch mal gut.!!!!
 
Zuletzt bearbeitet:
Auf Sylt lebts sich locker leicht :bigok:
Bei sonem friesisch herbem in der Wunderbar :d
 
Zuletzt bearbeitet:
Brauch ich nicht, denn bis jetzt sehe ich keinen Score, den es hier zu schlagen gilt... Es geht auch nicht darum, wessen Karte besser ist. Ich habe sicher nicht die beste Karte und auch das ist auch gar nicht mein Anspruch.

Ich finde nur, wer mit solchen Zahlen um sich wirft, sollte dazu auch was zeigen können. Das sind nämlich Zahlen - das wirst du zugeben müssen - die sich doch schon deutlich außerhalb dessen bewegen, was wir hier sonst so sehen. Dabei ist es auch völlig wayne, wie gut oder schlecht meine, deine oder die Karte vom Prothesen Klaus ist.

In dem Video da oben liegen nicht ein Mal 100% GPU Load an, in den Szenen, in denen 2220 laufen, sinds eher um die 50% GPU Load.

Ich kann mich an Minutenlange Gameplay Videos von Even und mir erinnern, in denen die Karten unter Load stehen und nicht Minesweeper mit 50% Load laufen...

Aber das ist hier im Luxx halt jetzt das Niveau, auf dem sich alles abspielt.

Das Niveau ist das, was ich zulasse! Ich poste generell nur mit Belegen!, alles andere interessiert mich nicht!, ich gönne jedem was er hat! Und genieße es mit! Mir geht es um die Hardware. So what....
 
Richtig, man muss auch gönnen können.

Natürlich freut sich jeder, der selber eine gute Karte erwischt hat, verständlich. Aber das noch lange kein Grund sich selber zu wichtig zu nehmen.
Scheint aber modern geworden zu sein in den letzten Jahren, dabei passe ich lieber, ist nicht mein Ding. Dann lieber so die Freizeit verbringen. ;)




Gruß

Heinrich
 
Ohne mich da jetzt wirklich im Detail einmischen zu wollen... ich denke nicht, dass webmi das aus reiner Ungunst bzw. reinem Neid geposted hat. Er hat ja selbst ne super Karte und auch mehrfach geschrieben, dass er Turri die Karte gönnt, nur dass er das bisher gezeigte nicht als "stable"/nachvollziehbar empfindet, da es etwas zugegebenermaßen etwas Wischiwaschi (das eine Video hat 50% GPU load, wie even ja schon aufgezeigt hat, und das andere Video ist nur mit 1080p gemacht und selbst da schwankt der Takt schon wegen dem PT) ist. Ihr habt also auch wieder ein gutes Stück aneinander vorbei geredet.

Erfahrungsgemäß kann ich z.B. auch sagen, dass:
a) es ein riesen Unterschied ist, ob ich PUBG in 1080p (bzw. 1920x1200) oder in 1440p spiele... auf 1440p muss ich gleich nochmal ein paar Taktstufen runter
b) es ein riesen Unterschied ist, ob ich mit FPS Cap (143 FPS mit G-SYNC) oder mit ~200-300 fps uncapped spiele (also GPU Load 99% und PT voll ausgeschöpft)... da muss ich auch gleich nochmal ein paar Taktstufen runter
c) man deutlich mehr Takt schafft, wenn dieser nicht dauerhaft anliegt und dank bremsenden PT öfters mal schwankt (soll heißen bei permanenten 99% GPU load schafft man auch gleich nochmal ein paar Taktstufen weniger, zumindest unter Luft)

Was ich damit sagen will... auch ich gönne dir die Karte, Turri, und bin völlig frei von Neid (werde eh, selbst mit dem besten Chip der Welt, mit Luftpumpe niemals in diese Regionen kommen)... aber wenn du schon Videos machst und einen hohen Takt zeigen willst, dann mache das doch gleich richtig und teste mit vernünftigen Bedingungen. Dann wären nämlich auch webmi seine Posts und die ganze Diskussion entfallen. Dass du mehr als fähig dazu bist (und du sogar das Löten drauf hast), wissen wir ja alle.... und dass es dich auch interessiert, was deine Karte so kann, scheint ebenfalls gegeben zu sein (sonst würde du das alles ja nicht posten). Also weg mit dem PT und dann unter realistischen Bedingungen testen, wenn dann immer noch ein 2200+ Takt auf dem Tacho steht (was ja trotzdem gut möglich ist) dann dicken Respekt und eine weltklasse Karte (bzw. ist sie ja auch so, sieht man ja an deinem UV Setting)! Andernfalls ist es eben schon etwas "Wischiwaschi", zumindest was den Maxtakt angeht - no offense.
 
Zuletzt bearbeitet:
Nachricht gelöscht
 
Zuletzt bearbeitet von einem Moderator:
Dann mache doch das, was Du ankündigst und mische Dich nicht ein!
Vor allem überlasse es denen, ihre Äußerungen zu interpretieren oder zu vervollständigen, die sich geäußert haben.
Oder hat man Dich um Beistand ersucht?

Das mit dem Einmischen war auf den generellen "Beef" der beiden bezogen, nicht auf meine Meinung zur Stabilität von Karten/Aussagekraft von Tests, die ich hier sicher diskutieren darf und möchte - daher auch der Post.

Verstehe auch nicht wieso du mich deswegen jetzt wieder provozieren musst? Scheinbar hast du meine Korrekturen deiner falschen Posts bzgl. der rechtlichen Grundlagen damals noch nicht verarbeitet und machst jetzt etwas persönliches daraus (was übrigens genau das ist, was du mir damals unsinnigerweise vorgeworfen hast)?

Ich hatte deine unsinnigen (wohl "lustig" gemeinten?) Posts in Berliner Dialekt auch absichtlich nicht kommentiert, obwohl ich mir dabei mehrfach an den Kopf fassen musste. Brauchst du etwas Aufmerksamkeit?
 
Zuletzt bearbeitet:
Ich habe dir damals ausführlich und mit Quellen (inklusive passender Gerichtsentscheidung) belegt und aufgezeigt, dass deine Posts schlicht weg falsch waren. Einsicht gab es aber sowohl damals wie auch heute wohl keine... dann aber auch noch zu behaupten ich hätte keine Ahnung (obwohl das offensichtlich auf dich zutrifft) ist nicht nur borniert sondern auch noch frech.

Auch zum Rest, den du so von dir gibst (nicht nur in diesem Post), kann ich einfach nur den Kopf schütteln. Für weitere "Diskussionen" mit dir - vor allem auf diesem Niveau - ist mir meine Zeit zu schade.
 
Zuletzt bearbeitet:
Kindergarten Thread inzwischen....
 
bitte erkläre doch mal wie du GPU Watt Last angezeigt bekommst.
HWMonitor geht nicht OSD anzuzeigen,ist Grau hinterlegt,MSI Afterburn gibts kein GPU W OSD.

Du kannst HWInfo Sensoren einfach in den AB einpflegen und dann genauso verwalten/anordnen, wie die übrigen AB Werte.

Kurze Anleitung hatte ich hier geschrieben.
 
Zuletzt bearbeitet:
Ich hätte da eine Frage, ich hab mir eine RTX 2080ti Gainward Phoenix GS gekauft und habe mal einbischchen sie einbisschen übertaktet.

Und wie es scheint bin ich nur in der Lage +148 Core clock zu erreichen wo ich dann konstant 2010mhz aufm core habe memory konnte ich ohne probleme um +1000 übertakten.

Schon bei +150 freezed timespy.

Könnte ein 380W BIOS vllt mir ermöglichen mehr als 148 aufm Core erreichen, oder hab ich einfach pech.

Mit welchem Programm kann man mehr als +1000 aufm memory einstellen, und ob es überhaupt empfehlenswert ist mit Luftkühlung.
 
380W bios, spannung im AB auf +100%, offset GPU +150MHz

BTW,
148 = 135


(..)

mfg
tobi
 
Mit welchem Programm kann man mehr als +1000 aufm memory einstellen, und ob es überhaupt empfehlenswert ist mit Luftkühlung.

Downloade dir erstmal die Aktuelle MSI Afterburne Version,dann klapt das auch mit +1000 und ich mach es so,
öffne die Curve vom MSI,lass den für dich deine Graka mal ausloten (oben Rechts auf OC Scanner klicken) ,speicher das als Profil und nun verändere diese Curve nach deinen wünschen und Teste.
Als Ausgangscurve macht MSI einen ganz guten Job.
Den wenn du keine eigende Curve anfertigst,wird immer nur Max. 1,050 V verwendet,nicht drüber.
Also z.b dann bei Spannung 1,063 den Punkt hoch setzten bis 2100 Mhz und das in einer vorher vom MSI ausgelotteten Curve.
Probieren,probieren,.............
Ok.

Und Regler Spannung,Power und Temp Regler alle ganz nach Rechts.
Wenn der 1. Regler nicht veränderbar ist,must du erst in den Einstellung des MSI auf der 1. Seite
unter "Kompabilitäts Eigenschaften" haken setzten bei Spannungen und rechts davon im Reiter auf "Kernel-Modus" setzten.
 
Zuletzt bearbeitet:
@TriatN
ein 380W-Bios bringt Dir da leider nur etwas, wenn Deine Karte mit mehr Spannung mehr Takt mitmacht (daher auch der Hinweis von TobiWahnKenobi, die Spannung zu erhöhen)

Es würde helfen, wenn die Karte den Takt reduziert, weil das Powerlimit erreicht ist.

Wenn ein Takt aber nicht stabil ist (z.B. Treiber-Reset), dann hilft auch kein höheres Powerlimit.
 
Zuletzt bearbeitet:
AB 4.6.0 Beta 12 ist draußen:

MSI Afterburner 4.6.0 Beta 12 (14315) Download

We're getting closer and closer to final 4.6.0 release. New beta (4.6.0 beta 12 build 14315) is uploading, changes list includes:

- Fixed problem with incorrect V/F curve rendering on some AMD GPUs with abnormal voltage tables (where voltages were not monotonically increasing with P-State index)
- Visible voltage / frequency range in V/F curve editor window on AMD GPUs is now extended to fit minimum and maximum P-State voltages and frequencies
- Added support for some future NVIDIA Turing GPUs
- Now “Mark minimum” and “Mark maximum” commands are available in the context menu of monitoring window even when a fragment of history is not selected. In this case the commands result in setting tracking marker in a global extremum position. You may still use <Shift> key and mouse cursor to select a fragment of history then use the context menu to set tracker marker in local extremum position
- Now you may press <F11> key in monitoring window to capture print friendly screenshot of hardware monitoring history graphs. The screenshot includes MSI Afterburner watermark by default, you may customize it by replacing overlay.png file located in .\Graphics folder. This feature can be useful for hardware reviewers
- Now you may hold <Del> key then click unwanted graphs in hardware monitoring history viewer mode to hide them. This feature can be useful before capturing print friendly screenshot, if you want to exclude unnecessary graphs from it

Some info on future plans:
I've added everything I planned to implement in final 4.6.0, so we're ready to release it officially soon. However, MSI are also hoping to send me Radeon VII in the nearest time. So, if their shipping schedule do not change - we'll first wait for VII sample arrival, I'll ensure that everything is working properly (most likely it will use Overdrive8 API, so AB will need to be updated to be compatible with it) then 4.6.0 goes final. If there will be some delays with VII sample availability, we'll just release 4.6.0 as is and add support for VII later in 4.6.1.
 
wie ich absolut keine lust habe den block fuer nen shuntmod abzubauen -_-

 
cool, funzt das? Erfahrungswerte?
 
ja, haben einige schon im OCN gemacht, daher auch gekauft.

gut, fliesst nicht ab und der shunt faellt dir dann auch nicht ab nachnem monat wie mit normalem LM
 
Ich meine diese Pens haben nen zu hohen Widerstand. Meist irgendwas um die 50mOhm und das getrocknet auf Papier. Auf nem Shunt kannste da fleißig Bahnen pinseln...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh