[Sammelthread] NVIDIA GeForce GTX 1080 TI (GP102) Sammelthread + FAQ



H3g9d4U.jpg


FAQ:


Wann war der Release?

10.März 2017

Welche Versionen wird es geben und wo gibt es sie zu kaufen?

Die Karte als Founders Edition kann man an jetzt auf der NVIDIA Seite vorbestellen. Aber am 10.März werden Partnerkarten schon zu kaufen sein!

Quelle: GTX 1080 Ti graphics cards, including the NVIDIA Founders Edition, will be available worldwide on March 10, from NVIDIA GeForce partners, including ASUS, Colorful, EVGA, Gainward, Galaxy, Gigabyte, Innovision 3D, MSI, Palit, PNY and Zotac. Pre-orders on nvidia.com will go live on March 2, at 8am Pacific.

Was wird die Grafikkarte kosten?

Die Karte als Founders Edition wird 699 Dollar ohne Steuern kosten. Ob die Customkarten wieder billiger sind, ist noch unklar. NVIDIA gibt für die FE einen Preis von 819,00 Euro an.
Als Vergleich. Die 1080 war auch auf 699 Dollar angesetzt beim Launch für die Founders Edition und die Custom Karten für 599 Dollar. Die Custom 1080 hat sich am Ende bei etwas 590 - 650 Euro eingependelt. Ich persönlich gehe von einem Endpreis von ab 750-800 Euro für die Customkarten aus.

Wie schnell ist die 1080 TI im Vergleich zu einer 1080 und lohnt sich der Aufpreis?

Laut NVIDIA ist die 1080 TI ca. 35% schneller als die 1080. Wenn wir jetzt von dem neuen reduzierten GTX 1080 Preis von 499 Dollar ausgehen, so liegt der Aufpreis bei etwa 40%. Ich gehe davon aus, dass die Preise sich ziemlich schnell einpendeln werden und es bei 35% Aufpreis enden wird. Sogesehen liegt der Aufpreis zur Performance bei 1:1. Das heißt, alle die mehr Performance brauchen, müssen im Vergleich nicht mehr bezahlen.

Welche neuen Features hat die 1080 TI?

Momentan findet ihr alle verfügbaren Informationen in der aktuellen 1080 TI News.
 
Zuletzt bearbeitet:
Bin noch wach, hab aber erstmal geguckt dass mir die Spannung in Afterburner angezeigt wird.

Das geht für die Strix etwas anders als bei der Ref. Hier die Anleitung (Dank geht an Digitalsurfer für das Posten der Methode für das Ref Design):

1) Die Datei MSIAferburner.oem2 im Afterburrner-Installationsverzeichnis editieren und folgende Sektion adden:

Code:
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;
; ASUS Strix 1080 Ti OC Voltage control
;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;

[VEN_10DE&DEV_1B06&SUBSYS_85E41043&REV_??]

; ASUS ROG Strix GeForce GTX 1080 Ti OC

Desc 					= GeForce GTX 1080 Ti
VDDC_Generic_Detection                  = 1

2)
bild1fdj2w.jpg


3) Fertig

Und es klappt auch, die Spannung wird nun auch im OSD angezeigt:



Der Rest kommt dann aber wirklich morgen, gn8 :sleep:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich weiß nicht was ihr alle habt.
Kann man die Regler in den Games bedienen, und schaltet das OSD mal ab, dann geht auch Wildlands oder ME:A in 4K und Ultra Settings ganz wunderbar mit einer dicken Graka. Das ganze Problem das ihr habt spielt sich ausschließlich in euren Köpfen ab und hat in dem Ausmaß wie es hier geschildert wird Null mit der Hardware zu tun. Mich z.b. haben 300 FPS in Elite Dangerous nur genervt, da ging gar nix besser als mit nur 60 FPS. Bei Division sahen Kameraschwenksv mit 90 FPS genau so beschissen ruckelig aus wie mit 60 FPS. Und deshalb ist das Titan XP SLI auch wieder rausgeflogen.

Schaltet das OSD ab Jungs und zockt ein bisschen mehr. Es wird nie eine Lösung geben die alle befriedigt. Die Softwareindustrie pennt nicht. Und wer nach 144 FPS kräht, der erreicht das in FHD in RotTR auch nicht mit SLI, auch nicht in Wildlands und erst recht nicht in ARMA oder Stellaris. Also ist jede Karte nicht mal für FHD geeignet nach eurer Logik.

Doppelmoral ich höre Dich trapsen.
Sorry, wenn ich mal wieder so reingrätsche, aber ich bekomme es einfach nicht auf die Kette wenn irgend jemand erzählt Graka XXX ist nicht für 4K geeignet, wenn seine Ansprüche von der gleichen Graka nicht mal in FHD erfüllt werden

Denn alleine darum gehts. Um die eigenen Ansprüche (die bei jedem verschieden sind), die meistens so dermaßen vernab von jeglicher Realität sind, das man da die Auflösung gleich vergessen kann. Da lügt ihr euch nur in die eigene Tasche.

Sorry

Gesendet von meinem A0001 mit Tapatalk
 
Zuletzt bearbeitet:
Hier hatte doch mal jemand nach dem Befehl gefragt, wie man das Power Limit der Karte anzeigen lassen kann.

Habe ich vorhin zufällig gefunden:

C:\Program Files\NVIDIA Corporation\NVSMI>nvidia-smi.exe -q -d power
 
Hätte mal eine Frage zu dieser Wildlands Aktion: Ein Freund würde sich für das Spiel auch gerne wie ich einen Key bei Ebay holen und in Geforce Experience einlösen. Er hat aber keine 1070/80 im Rechner. Wenn er sich jetzt bei mir in Geforce Experience anmeldet und dann in U Play sollte das doch ohne Probleme klappen oder? Oder wird das auch irgendwie an die Grafikkarten SN/ID gekoppelt??

Edit: Geht nicht. Frage mich, ob sonen Key auch bei ner 1080Ti funzen würde wenn ich einmal meine Founders von EVGA habe?
"Dennoch geht das Tool über eine Device-ID hinaus, denn pro Karte kann das gleiche Spiel nur einmal aktiviert werden. Wer ein zweites Mal einen Titel freischalten will, muss eine andere Geforce GTX 1080 oder Geforce GTX 1070 als die zuvor genutzte verwenden, da für diesen Fall offenbar eine Seriennummer hinterlegt und abgeglichen wird."
Nvidia: Spiele-Codes mber Geforce Experience aktiviert werden - Golem.de
 
Zuletzt bearbeitet:
Hab jetzt mit Boost 3.0 meine Graka auf 2140 gebracht, aber die Grafik-Punkte sind gesunken, ich dachte, dass es nur mit Speicher vorkommt.
Mit 2100Ghz ca. 15200 Punkte
Mit 2139Ghz ca. 14800 Punkte

Geht es nur mir so?
 
Geht allen so die bei mehr Takt mehr in die Limits der Karte rennen.
 
Hätte mal eine Frage zu dieser Wildlands Aktion: Ein Freund würde sich für das Spiel auch gerne wie ich einen Key bei Ebay holen und in Geforce Experience einlösen. Er hat aber keine 1070/80 im Rechner. Wenn er sich jetzt bei mir in Geforce Experience anmeldet und dann in U Play sollte das doch ohne Probleme klappen oder? Oder wird das auch irgendwie an die Grafikkarten SN/ID gekoppelt??...

Habs noch nicht probiert aber es könnte mal wieder mit Artmoney klappen der Software die passende Karte vorzugaukeln. So haben sich viele Leute Witcher 3 für Nüsse geholt.
 
Ändert nichts daran das Du vermutlich länger des lesens mächtig bist und alles auf den letzten Seiten X mal erklärt wurde, wie in jedem anderen Sammelthread auch. HisN macht eine Aussage und Du pauschalisierst das ganze. Jeder GPU Chip aufm PCB hat sein eigenes Limit.

Einfach mal ne Minute oder 2 das Hirn benutzen und erst dann, wirklich erst dann, die Finger zum tippen nehmen.
 
Ich weiß nicht was ihr alle habt.
Kann man die Regler in den Games bedienen, und schaltet das OSD mal ab, dann geht auch Wildlands oder ME:A in 4K und Ultra Settings ganz wunderbar mit einer dicken Graka.

Also sorry HisN, aber Wildlands in 4k@Ultra ist doch wirklich so gut wie unspielbar mit M+T. Abgesehen von dem Geruckel wird die Maus so dermaßen schwammig, das macht doch keinen Spaß mehr. Ich brauche in 1440p schon kein OSD um den Unterschied von 55 zu 70fps zu spüren.
 
Es macht also keinen Sinn über 2100 zu gehen. Zu erst freut man sich über mehr Ghz, aber die sind nicht brauchbar.

wenn du dadurch ins Power Limit kommst dann macht es wohl keinen Sinn. Je nachdem was halt die Karte für die 2100 an Spannung anlegt kann es halt auch sein das man noch unter dem Limit ist
 
Hab jetzt mit Boost 3.0 meine Graka auf 2140 gebracht, aber die Grafik-Punkte sind gesunken, ich dachte, dass es nur mit Speicher vorkommt.
Mit 2100Ghz ca. 15200 Punkte
Mit 2139Ghz ca. 14800 Punkte

Geht es nur mir so?

Eigentlich nicht, ich denke du wirst die 2139 MHz (GHz wäre ja mal ein Traum :d) wohl kaum durchgehend gehalten haben und ins PT gerannt sein? Beobachte den GPU-Z Graph bei Power Consumption mal aufmerksam, dann wissen wir/du mehr ;)

Bei Division sahen Kameraschwenksv mit 90 FPS genau so beschissen ruckelig aus wie mit 60 FPS.

Spielst du immer noch mit 60 Hz? :eek:
 
Zuletzt bearbeitet:
Die 2139 Mhz liegen nicht durchgehend an, aber in 90%.
Wenn ich mit 2100 teste sind die auch nicht konstant.
Wenn der Klugscheißer mir das zu schreiben erlaubt.
 
Hmm, angenommen die 2100 liegen nun aber 95% der Zeit an, die 2139 MHz nur 90%, dann würde das den Unterschied in den Punkten erklären. Das gilt es halt rauszufinden bzw. daran liegt es m.E. Denn eine Fehlerkorrektur gibt es beim GPU Takt eigentlich nicht (die bremst ja dann bei hohem Ram Takt immer ordentlich).
 
Zuletzt bearbeitet:
Die Strix Karte gehen
Alle recht gut so wie es aussieht !!

Wie macht sich der Kühler ?


Gesendet von iPhone mit Tapatalk
 
Hmm, angenommen die 2100 liegen nun aber 95% der Zeit an, die 2139 MHz nur 90%, dann würde das den Unterschied in den Punkten erklären. Das gilt es halt rauszufinden bzw. daran liegt es m.E. Denn eine Fehlerkorrektur gibt es beim GPU Takt eigentlich nicht (der bremst ja dann bei hohem Ram Takt immer ordentlich).

Danke für den netten Antwort, das ist auch meine Theorie gewesen, was den GPU Takt angeht. In wieviel % der Takt anliegt, werde ich etwas genauer anschauen.
 
Ich brauche in 1440p schon kein OSD um den Unterschied von 55 zu 70fps zu spüren.

Ich habe nicht gesagt, dass es keinen Unterschied gibt. Das werde ich auch nie in Abrede stellen.
Es wird immer "besser" gehen. Aber das ist doch völlig unabhängig von der Auflösung. Ob ich nun in FHD von 100 auf 110 FPS komme oder in UHD von 50 auf 60 FPS. Natürlich geht besser immer.
Aber Ansprüche haben die eine Graka in FHD nicht erfüllen kann, und dann was davon zu erzählen dass es nicht in UHD geht, ist einfach fürn Arsch^^

Spielst du immer noch mit 60 Hz? :eek:

Soange es keinen UHD-Monitor mit mehr als 60hz gibt .. Jupp.

Danke für den netten Antwort, das ist auch meine Theorie gewesen, was den GPU Takt angeht. In wieviel % der Takt anliegt, werde ich etwas genauer anschauen.

Was relativ schwierig ist bei einer Graka die mehrere 100 mal pro Sekunde den Takt ändern kann.
 
Die 2139 Mhz liegen nicht durchgehend an, aber in 90%.
Wenn ich mit 2100 teste sind die auch nicht konstant.
Wenn der Klugscheißer mir das zu schreiben erlaubt.

So ist das halt wenn man sein Hirn nicht nutzt.

€: Du kannst nun schreiben was Du willst, deinen Käse muss ich nicht mehr lesen.
 
Zuletzt bearbeitet:
Hmm, angenommen die 2100 liegen nun aber 95% der Zeit an, die 2139 MHz nur 90%, dann würde das den Unterschied in den Punkten erklären. Das gilt es halt rauszufinden bzw. daran liegt es m.E. Denn eine Fehlerkorrektur gibt es beim GPU Takt eigentlich nicht (die bremst ja dann bei hohem Ram Takt immer ordentlich).

Nach meiner Meinung ist es doch das der Sinn beim Pascal OC eine bestimmte Taktschwelle niemals zu unterschreiten, ergo die Karte so einzustellen das sie egal bei welchem Game nie zb 2113 Mhz unterschreitet, da muss die Kühlund und das PT stimmen und dann klappte das auch.
Ich gebe immer nur die minimalen Mhz an, dei dafür aber IMMER min anleigen, was mehr ist manchmal nehm ich eben mit.
Die Angaben hier von manchen was die Karten nur Teils in den ersten 10 sec boosten sind doch nutzlos..
 
Danke für den netten Antwort, das ist auch meine Theorie gewesen, was den GPU Takt angeht. In wieviel % der Takt anliegt, werde ich etwas genauer anschauen.

In wieviel Prozent der Takt anliegt ? Das einzige was zählt ist der minimale IMMER anliegende Takt, damit kann man arbeiten, der Rest ist unbrauchbar.
 
Ich gebe immer nur die minimalen Mhz an, dei dafür aber IMMER min anleigen, was mehr ist manchmal nehm ich eben mit.
Die Angaben hier von manchen was die Karten nur Teils in den ersten 10 sec boosten sind doch nutzlos..

Und Du wirst immer ein Game finden, dass Deine Karte in Deinen Settings wieder unter die von Dir angegegebenen Takte drückt.
Meine Karte läuft jetzt seit Monaten über 2Ghz, und seit zwei Tagen habe ich wieder ein Game gefunden, das sie ins PT drückt.
Du hast genau dieses Game in diesen Settings nicht ... oh Wunder, kommen ganz andere Takte bei raus^^
 
Wie macht sich der Kühler ?

Teste gleich noch etwas. Waren aber auch schon 2 Karten hier im Thread die kaum über 2000 MHz kamen iirc.

Was ich schon bestätigen kann: Die Retail Karten der STRIX haben definitiv 275 W PT, nicht 250 W (wie die Samples bei manchen Magazinen noch hatten):

unbenanntprj82.png


Mit PT Regler auf 120% sind 330 W möglich, was imo schon relativ ordentlich ist.
 
Zuletzt bearbeitet:
Mit 2100MhzScreenshot (20).jpgScreenshot (21).jpg

Mit 2139MhzScreenshot (23).jpgScreenshot (22).jpg


Power Limit wird im zweiten Fall öfter erreicht, im ersten Durchlauf 3DMark. Aber der Takt fehlt nicht tiefer, wie mit 2100Mhz Durchlauf. Beide gehen kurz auf 1060Mhz.

- - - Updated - - -

Korrektur, mit +20% sind 330W möglich und der Kühler überzeugt mich auch. Temp. geht knapp über 70 Grad bei unter 50% Drehzahl, mein Gehäuse ist offen. Zimmer Temp. 23-24°
 
Zuletzt bearbeitet:
Hey, cool bleiben und munter durch die Hose atmen :).
Ein (HW)-Forum ist doch u.a. dazu da, um sich auszutauschen und gegenseitig zu helfen und nicht um sich die Köppe einzuschlagen. Jeder Chip ist ein Unikat, ebenso wie jeder Mensch ein Unikat ist. Und somit ist alles relativ^^.

Für mich ist relativ :-)fresse:) klar, das ich eine 1080Ti haben will :d.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh