[Sammelthread] NVIDIA GeForce GTX 1080 (GP104) Sammelthread + FAQ

NVIDIA GeForce GTX 1080 (GP104) Sammelthread + FAQ


Impressionen der Karte:

geforce-gtx-1080-pictures-15-840x560.jpg
geforce-gtx-1080-pictures-21-840x560.jpg

geforce-gtx-1080-pictures-22-840x560.jpg
geforce-gtx-1080-pictures-23-840x560.jpg

geforce-gtx-1080-pictures-27-840x560.jpg
geforce-gtx-1080-pictures-28-840x560.jpg

geforce-gtx-1080-pictures-17-840x560.jpg
geforce-gtx-1080-pictures-29-840x560.jpg

Technische Daten der GeForce GTX 1080
  • Chip = GP104-400-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 7,2 Milliarden
  • Die-Größe = 314 mm²
  • Shader-Einheiten = 2.560 (1D) (20 SMM)
  • Texture Mapping Units (TMUs) = 160
  • Raster Operations (ROPs) = 64
  • Pixelfüllrate = 102,8+ GPixel/s
  • Texelfüllrate = 257,1+ GTexel/s
  • Chiptakt = 1.607 MHz Baseclock + Boost (1.733 MHz) + Max. Boost (~1.886 MHz)
  • Speichertakt = 2.503 MHz
  • Speichergröße = 8.192 MB
  • Speichertyp = G5X
  • Speicherinterface = 256 Bit
  • Speicherbandbreite = 320,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 180 Watt
  • Leistungsaufnahme 2D = ~9 Watt
  • Versorgung über einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel
Announce the GEFORCE GTX 1080

Einzelkartentests:

Geizhals Link:
GeForce GTX 1080 | Deutschland - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX 1080 erreicht im Leerlauf mit 0,4 Sone in etwa das Niveau der GTX 980 Ti. Der Radiallüfter dreht mit ~1.100 RPM bei 27% PWM-Stärke. Unter Last schwankt die Lautheit zwischen 3,2 Sone (~55%) bis zu (max) 4,2 Sone (62% PWM @~2.480 RPM), was etwas bis klar weniger als bei der GTX 980 Ti ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.000 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX 1080 beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt.

Wie hoch ist der Stromverbrauch?
Die GTX 1080 verbraucht im Leerlauf um die 9 Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX 1080, egal ob in Games oder im Furmark, maximal 180 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GTX 1080 eine bisher nicht erreichte Effizienz. Die Karte ist gut 60 bis 70% schneller als eine GTX 980 und verbraucht dabei aber höchstens 9% mehr.

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX 1080 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre.

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 960% (1080p), bzw. 132% (4K) und ist so im Mittel aller Reviews knapp 30% schneller als eine GTX 980 Ti und somit klar die schnellste Single-GPU-Grafikkarte.
Launch-Analyse nVidia GeForce GTX 1080 | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Pascal-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Laut den ersten Reviews sollte es machbar sein, dass jede GPU rund 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Das man kaum höhere Taktraten erreichen konnte liegt in erster Linie daran, dass bei der GTX 1080 das Power Target stark limitiert. So kann man dieses zwar per Tool auf 120% anheben (216 Watt), aber selbst das reicht nicht aus, um konstant die maximal mögliche Taktrate zu erreichen und konstant halten zu können. Mit einer besseren Kühlung und somit kühleren GPU Temperaturen und folglich einer geringeren Verlustleistung sind noch etwas höhere Taktraten erreichbar. Einen ersten Einblick bietet die PCGH mit einem verbauten Accelero Xtreme IV:
Nvidia Geforce GTX 1080 meets Accelero Xtreme IV: Die 2-GHz-Taktmauer ist gefallen

Einen Interessanten Beitrag mit Praxisbezug zum Thema Undervolting hat der User BK-Morheus veröffentlicht. In dem Video sieht man, wie man eine GTX 1070/1080 mit Hilfe des "curve editors" des Afterburners undervolten kann:
https://www.youtube.com/watch?v=UGeGLU8uh9M&ab_channel=BennyLikesTech

Was einer erhöhten OC-Performance noch im Weg stehen kann, ist die Speicherbandbreite. Obwohl nVidia mit der GTX 1080 erstmals G5X / GDDR5X Speicher verbaut (10Gbps), somit an einem 256 Bit breiten Speicherinterface 320 GB/s erreicht und die Speicherkompression nochmals verbessert hat, scheint es, dass die GPU recht stark von mehr Speichertakt profitiert. So misst Computerbase bei 10% mehr Speichertakt bis zu 9% mehr Performance - bei ansonsten Referenz-GPU-Taktraten.
Nvidia GeForce GTX 1080 im Test - ComputerBase

Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1080. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.
 
Zuletzt bearbeitet:
Ich finde The Division ist total fail wenn ihr eure Karten zum Stabilität Test hernimmt. Ich bin mit TR durch und ich hatte in der Zeit kein Treiber reset gehabt. BF4 gespielt Stundenlang läuft. The Devision gestartet in 5 min im Base Absturz gehabt??????
Spiele PVP 1 Stunde Läuft, gehe wieder Base Absturz?????

Das ganze Spiel ist irgendwie total kaputt gepatcht.

Thunderburne ich bekomme meine zwei Babys bestätigung ist gekommen ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Dann viel Spass mit den Teilen.
Sind jetzt die FTWs geworden?
 
Ich finde The Division ist total fail wenn ihr eure Karten zum Stabilität Test hernimmt. Ich bin mit TR durch und ich hatte in der Zeit kein Treiber reset gehabt. BF4 gespielt Stundenlang läuft. The Devision gestartet in 5 min im Base Absturz gehabt??????
Spiele PVP 1 Stunde Läuft, gehe wieder Base Absturz?????

Das ganze Spiel ist irgendwie total kaputt gepatcht.

Thunderburne ich bekomme meine zwei Babys bestätigung ist gekommen ;)

Warum Fail? Das wäre doch dann der heilige Gral der Stabilitätstests, so wie du das schilderst. Vorausgesetzt die Abstürze lassen sich durch Taktanpassung beheben.
 
Ich finde The Division ist total fail wenn ihr eure Karten zum Stabilität Test hernimmt. Ich bin mit TR durch und ich hatte in der Zeit kein Treiber reset gehabt. BF4 gespielt Stundenlang läuft. The Devision gestartet in 5 min im Base Absturz gehabt??????
Spiele PVP 1 Stunde Läuft, gehe wieder Base Absturz?????

Das ganze Spiel ist irgendwie total kaputt gepatcht.

Thunderburne ich bekomme meine zwei Babys bestätigung ist gekommen ;)

Warum Fail? Das wäre doch dann der heilige Gral der Stabilitätstests, so wie du das schilderst. Vorausgesetzt die Abstürze lassen sich durch Taktanpassung beheben.
 
Jungs ich habe da mal eine Frage.
8-Pin Stromverosrgung waren ja 150W
6-Pin 75W
PCI-E 75W

Die Stromzufuhr kann man ja auch bei der 980ti erhöhen in gewissen Rahmen je nach Qualität des Netzteils.

Ich habe mir jetzt die ACX3 vorbestellt und die Karte hat nur 1x 8-Pin = 150W.
Wenn wir doch irgendwann ein offenes Bios bekommen, macht es vll Sinn den 2x 6-Pin --> 8-Pin Adapter zu benutzen um die Last auf 2 Stränge des Netzteils zu legen?
Oder ist das Jacke wie Hose? :-)
 
Die Anschlüsse können höher belastet werden. AMD überschreitet 150W regelmäßig und nichts passiert. Müsste "nur" im BIOS angepasst werden.
 
Die G1 wurd getestet bei CB. Kühler und leiser als die Strix, das is mal ein Wort, oder?
 
Jungs ich habe da mal eine Frage.
8-Pin Stromverosrgung waren ja 150W
6-Pin 75W

Das ist etwas, was ich noch nie verstanden habe. Wie man an den Kabeln und Adaptern sehen kann und auch wie es in der Spec steht, kommen beim 8pin gegenüber dem 6pin ja nur zwei zusätzliche Massepins dazu, also:
- 6pin = 3x Masse + 3x 12V
- 8pin = 5x Masse + 3x 12V

Ich kapiere nicht, wie das die Belastbarkeit erhöhen soll!?

PCIe-Stromstecker 6/8-polig für Grafikkarten - Stecker-Spezifikationen bei ATX- und EPS-Netzteilen: Netzteile für PCs und Server: Standards und Stecker - TecChannel Workshop
 
Das ist etwas, was ich noch nie verstanden habe. ...
- 6pin = 3x Masse + 3x 12V
- 8pin = 5x Masse + 3x 12V....

Das ist ja auch falsch was Du geschrieben hast, deswegen passt deine Rechnung nicht. Im Thread hier ist nen Link zu den technischen Daten der 6 und 8 Pin Stecker, da wird dir geholfen.
 
Nur mal so als Tipp in die Runde geworfen. Wer kein Problem hat nen Bios von ner anderen Karte auf seine FE zu flashen - es gibt ja mittlerweile das Bios der MSI GTX 1080 GAMING X 8G zum Download - da geht schon mal einiges mehr mit, TDP ist angehoben, wie viel, habe ich jetzt noch nicht geschaut. Funktioniert bei mir ohne Problem, teste gerade was rum damit. ;)



kannste net flashen weil 8 und 6 Pin
 
aha ok gut zu wissen :d dann kann man das 980ti Kingpin auf ne 980ti Ref flashen?
 
Das ist etwas, was ich noch nie verstanden habe. Wie man an den Kabeln und Adaptern sehen kann und auch wie es in der Spec steht, kommen beim 8pin gegenüber dem 6pin ja nur zwei zusätzliche Massepins dazu, also:
- 6pin = 3x Masse + 3x 12V
- 8pin = 5x Masse + 3x 12V

Ich kapiere nicht, wie das die Belastbarkeit erhöhen soll!?
Der 8-pin Standard dient zur Sicherstellung, dass das Netzteil die geforderten 150 Watt auch über diesen Anschluss bereitstellen kann. Theoretisch geht das über einen 6-pin auch
jonnyGURU Forums - View Single Post - Pci-e cables 'actual limits vs artificial limits'
 
Okay, Forum läuft auch wieder ^^
 
Das ist ja auch falsch was Du geschrieben hast, deswegen passt deine Rechnung nicht. Im Thread hier ist nen Link zu den technischen Daten der 6 und 8 Pin Stecker, da wird dir geholfen.

Nein, stimmt definitiv. Ich habe es zunächst an meinem eigenen Netzteil festgestellt und mich gewundert. Dann habe ich den Standard nachgesehen und festgestellt, das ist wirklich so. Und ich hatte ja auch in meinem Post einen Link auf die Steckerbelegung gepostet. Das stimmt schon so.

- Oliver
 
aha ok gut zu wissen :d dann kann man das 980ti Kingpin auf ne 980ti Ref flashen?

Na ja, solange kein anderer Speicher drauf ist sollte es gehen. Zwischen dem MSI und dem EVGA Bios ist auch kaum ein Unterschied, also im Hex Editor nachgeschaut. Power Limit ist zwar angehoben, greift aber irgendwie nicht richtig, droppt trotzdem, alles merkwürdig diesmal mit der 1080er.
 
Zuletzt bearbeitet:
ein Powerlimit von 500W bringt auch nichts ^^

solang du nicht an den einzelnen Rails drehst ist dieses Powerlimit für die Katz
 
Ja, das stimmt!

@Naennon
Hat den der Macher des Maxwell Bios Editor diese Einträge schon gefunden im Bios, also für die Rails usw.? Ich mein, alleine das würde uns ja evtl. schon helfen, ohne das wir direkt Zugriff über einen Editor auf den ganzen Rest haben müssen. Also ich meine sowas wie einfach das Bios der EVGA SC nehmen, und schon mal nur die Rails und das TDP zum Beispiel auf 250 Watt hoch setzten. Hast du da schon was von ihm gehört?
 
Ja, das stimmt!

@Naennon
Hat den der Macher des Maxwell Bios Editor diese Einträge schon gefunden im Bios, also für die Rails usw.? Ich mein, alleine das würde uns ja evtl. schon helfen, ohne das wir direkt Zugriff über einen Editor auf den ganzen Rest haben müssen. Also ich meine sowas wie einfach das Bios der EVGA SC nehmen, und schon mal nur die Rails und das TDP zum Beispiel auf 250 Watt hoch setzten. Hast du da schon was von ihm gehört?

paar Sachen wurden von Edge schon gefunden, einen undefinierten Bereich haben wir auch erkannt, Editor ist noch nicht in der Mache, er war auch gesundheitlich verhindert (gebe keine Details)
 
da wird dran gebastelt ;)

Das freut doch schon sehr. Das verstehe auch wer will, Europa, die USA und Asien allgemein sind so riesig, Milliarden von Menschen aber keine Sau bekommt so nen offenes Bios für die Referenz geleackt bzw. gebaut. Angeblich habe so viele beste Beziehungen, was ist, nichts - schon spaßig.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh