[Sammelthread] NVIDIA GeForce GTX 1080 (GP104) Sammelthread + FAQ

NVIDIA GeForce GTX 1080 (GP104) Sammelthread + FAQ


Impressionen der Karte:

geforce-gtx-1080-pictures-15-840x560.jpg
geforce-gtx-1080-pictures-21-840x560.jpg

geforce-gtx-1080-pictures-22-840x560.jpg
geforce-gtx-1080-pictures-23-840x560.jpg

geforce-gtx-1080-pictures-27-840x560.jpg
geforce-gtx-1080-pictures-28-840x560.jpg

geforce-gtx-1080-pictures-17-840x560.jpg
geforce-gtx-1080-pictures-29-840x560.jpg

Technische Daten der GeForce GTX 1080
  • Chip = GP104-400-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 7,2 Milliarden
  • Die-Größe = 314 mm²
  • Shader-Einheiten = 2.560 (1D) (20 SMM)
  • Texture Mapping Units (TMUs) = 160
  • Raster Operations (ROPs) = 64
  • Pixelfüllrate = 102,8+ GPixel/s
  • Texelfüllrate = 257,1+ GTexel/s
  • Chiptakt = 1.607 MHz Baseclock + Boost (1.733 MHz) + Max. Boost (~1.886 MHz)
  • Speichertakt = 2.503 MHz
  • Speichergröße = 8.192 MB
  • Speichertyp = G5X
  • Speicherinterface = 256 Bit
  • Speicherbandbreite = 320,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 180 Watt
  • Leistungsaufnahme 2D = ~9 Watt
  • Versorgung über einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel
Announce the GEFORCE GTX 1080

Einzelkartentests:

Geizhals Link:
GeForce GTX 1080 | Deutschland - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX 1080 erreicht im Leerlauf mit 0,4 Sone in etwa das Niveau der GTX 980 Ti. Der Radiallüfter dreht mit ~1.100 RPM bei 27% PWM-Stärke. Unter Last schwankt die Lautheit zwischen 3,2 Sone (~55%) bis zu (max) 4,2 Sone (62% PWM @~2.480 RPM), was etwas bis klar weniger als bei der GTX 980 Ti ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.000 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX 1080 beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt.

Wie hoch ist der Stromverbrauch?
Die GTX 1080 verbraucht im Leerlauf um die 9 Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX 1080, egal ob in Games oder im Furmark, maximal 180 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GTX 1080 eine bisher nicht erreichte Effizienz. Die Karte ist gut 60 bis 70% schneller als eine GTX 980 und verbraucht dabei aber höchstens 9% mehr.

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX 1080 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre.

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 960% (1080p), bzw. 132% (4K) und ist so im Mittel aller Reviews knapp 30% schneller als eine GTX 980 Ti und somit klar die schnellste Single-GPU-Grafikkarte.
Launch-Analyse nVidia GeForce GTX 1080 | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Pascal-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Laut den ersten Reviews sollte es machbar sein, dass jede GPU rund 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Das man kaum höhere Taktraten erreichen konnte liegt in erster Linie daran, dass bei der GTX 1080 das Power Target stark limitiert. So kann man dieses zwar per Tool auf 120% anheben (216 Watt), aber selbst das reicht nicht aus, um konstant die maximal mögliche Taktrate zu erreichen und konstant halten zu können. Mit einer besseren Kühlung und somit kühleren GPU Temperaturen und folglich einer geringeren Verlustleistung sind noch etwas höhere Taktraten erreichbar. Einen ersten Einblick bietet die PCGH mit einem verbauten Accelero Xtreme IV:
Nvidia Geforce GTX 1080 meets Accelero Xtreme IV: Die 2-GHz-Taktmauer ist gefallen

Einen Interessanten Beitrag mit Praxisbezug zum Thema Undervolting hat der User BK-Morheus veröffentlicht. In dem Video sieht man, wie man eine GTX 1070/1080 mit Hilfe des "curve editors" des Afterburners undervolten kann:
https://www.youtube.com/watch?v=UGeGLU8uh9M&ab_channel=BennyLikesTech

Was einer erhöhten OC-Performance noch im Weg stehen kann, ist die Speicherbandbreite. Obwohl nVidia mit der GTX 1080 erstmals G5X / GDDR5X Speicher verbaut (10Gbps), somit an einem 256 Bit breiten Speicherinterface 320 GB/s erreicht und die Speicherkompression nochmals verbessert hat, scheint es, dass die GPU recht stark von mehr Speichertakt profitiert. So misst Computerbase bei 10% mehr Speichertakt bis zu 9% mehr Performance - bei ansonsten Referenz-GPU-Taktraten.
Nvidia GeForce GTX 1080 im Test - ComputerBase

Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1080. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.
 
Zuletzt bearbeitet:
Das hab ich bei amazon gefunden, wer schreibt den so ne Kundenrezensionen 50 Grad wo lebt der .

Founders Edition:
Die Optik ist das eine......Wer mal ein wenig ließt wird merken das die Founders Edition ihre warme Luft nicht in den PC ableitet und alles schön mollig warm wird. Die Founders Edition führt die Wärme über eine Kanal direkt nach hinten raus. Das bedeutet wenn man von außen die Hände an die Grafikkarte hält ( DVI und HDMI Anschlüsse ) merkt man einen warmen Luftstrom. Das ist ein extremer Vorteil da Grafikkarten einiges an Abwärme produzieren können. Der Lüfter war nach 3 Stunden Tomb Raider in vollen Details nicht eine Sekunde zu hören. Bei Battlefield hat meine GTX 970 bis zu 80 Grad erreicht nun sind es 50 Grad ohne den Lüfter manuell zu steuern.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hat schon jemand mit dem LED Visualizer rumgespielt? Wollte die Beleuchtung deaktivieren, es tut sich aber überhaupt nichts. Sämtliche Änderungen werden nicht übernommen.
 
Bei mir funktioniert der LED Cisualizer einwandfrei mit der EVGA ACX 3.0. Aber in der neuen Geforce Experience Beta gibt es den Visualizer nicht mehr oder?
 
Hmm.

Man legt doch keine Grafikkarte mit 83° heißen thermischen Blähungen ins Eisfach. :fresse:
Das ruiniert doch das Eisfach komplett. :rolleyes:
 
den anderen falschaussagen und panikmache vorwerfen und selbst bullshit verbreiten :bigok:

Welche Falschaussagen denn bitte? Alle meine Aussagen waren völlig korrekt, du hast nur den Kontext nicht überrissen und warst nicht fähig die Transferarbeit zu machen um zu verstehen wie sie gemeint waren. Dar einzige Bullshit ist, dass dir dein Ego wohl im Weg steht das zu erkennen.

Nochmal chronologisch:

- SkizZlz behauptet in #7766, dass man die Karten zum Flashen deaktivieren muss
- X Cellence weist in #7774 richtigerweise darauf hin, dass das nvflash seit Maxwell sogar automatisch macht, falls nötig
- Du machst in #7781 auch nochmal klar, dass es Bullshit ist und vertiefst die Aussage in #7784 weiterhin (wobei wir absolut d'accord sind)
- SkizZlz impliziert in #7782 das etwas mit den Karten passieren könnte, wenn mit dem Deaktivieren irgendwas nicht richtig klappt
- Ich beanstande die Aussage aus #7782 und weise in #7793 darauf hin, dass in solchen Fällen wo ein Deaktivieren nötig wäre (egal aus welchen Gründen) und nicht erfolgt, der Flash Vorgang gar nicht klappt und somit nichts passieren kann. Zu keinem Zeitpunkt nimmt meine Aussage Bezug auf das Flashen von Pascal Karten/GTX 1080, sondern sie war einfach nur generell gemeint (und weiterhin habe ich auch nie gesagt, dass WÄHREND des Flashvogangs an sich nichts schief gehen kann).

Damit hat sich das Thema jetzt von meiner Seite aber auch wirklich erledigt. Der letzte Quote von dir war eh nur noch eine billige Provokation, daher kann ich gar nicht mehr einschätzen ob du das überhaupt noch ernst meinst oder nur nicht ausstehen kannst, dass du in diesem Punkt nicht recht hattest.
 
Zuletzt bearbeitet:
- SkizZlz impliziert in #7782 das etwas mit den Karten passieren könnte, wenn mit dem Deaktivieren irgendwas nicht richtig klappt
- Ich beanstande die Aussage aus #7782 und weise in #7793 darauf hin, dass in solchen Fällen wo ein Deaktivieren nötig wäre (egal aus welchen Gründen) und nicht erfolgt, der Flash Vorgang gar nicht klappt und somit nichts passieren kann.

und genau hier liegst du eben falsch
 
Das hab ich bei amazon gefunden, wer schreibt den so ne Kundenrezensionen 50 Grad wo lebt der .

Founders Edition:
Die Optik ist das eine......Wer mal ein wenig ließt wird merken das die Founders Edition ihre warme Luft nicht in den PC ableitet und alles schön mollig warm wird. Die Founders Edition führt die Wärme über eine Kanal direkt nach hinten raus. Das bedeutet wenn man von außen die Hände an die Grafikkarte hält ( DVI und HDMI Anschlüsse ) merkt man einen warmen Luftstrom. Das ist ein extremer Vorteil da Grafikkarten einiges an Abwärme produzieren können. Der Lüfter war nach 3 Stunden Tomb Raider in vollen Details nicht eine Sekunde zu hören. Bei Battlefield hat meine GTX 970 bis zu 80 Grad erreicht nun sind es 50 Grad ohne den Lüfter manuell zu steuern.

spielt wahrscheinlich 720p mit vsync 60hz ;)
 
Das Grillen davor ist ja leider, zumindest hier in München, ins Wasser gefallen. Hoffentlich enttäuschen uns unsere Jungs wenigstens nicht :d

OT: wir haben gegrillt, sogar mit 2 aktiven Grills, da große Truppe ;)

Die paar Tropfen... Pfff [emoji14]
 
Zuletzt bearbeitet:
Ich war zwei Tage nicht hier und konnte nicht alles mitlesen.

Wer hat denn mittlerweile meine ACX?

Sehe ich das richtig, dass beim Pascal bzw. Boost 3.0 doch nicht soo viel limitiert wie wir die ganze Zeit dachten?
Wenn man genug PT im Bios hat, throttelt eigentlich gar nichts mehr, oder?

Zum Thema, Karte deaktiveren und dann flashen, ... ich habe in den letzten 10 Jahren glaube ich nicht einmal ne Karte via Gerätemanager deaktiviert?

@webmi, wie lauen die Karten mit offenem Bios?
 
So wie ich verstanden habe nur das Inno Bios wo man nicht ins PT rennt.
Vermutlich darf die 8Pin Rail hier alles geben.
Das sagt mein Verbrauchsgerät und die PT Anzeige vom Afterburner.

Auf Grund desen bin erstmal runter mit meinen Settings für 24/7 mit dem Ino Bios 0.933V 2063/5599 .
Die 300W peaks in BF4 haben mich doch stutzig gemacht mit 1126/5599 bei 1.093V.
Da will ich doch etwas mehr gewissheit haben.
 
Zuletzt bearbeitet:
Ja, wäre echt nett wenn man zumindest die Daten aus den Bios auslesen könnte.

Ich habe in dem Peaks auch so ca. 50Watt mehr als 180 + 20% ...

Ich muss noch etwas testen, aber folgende zwei Settings scheinen ganz gut zu laufen.

2000/5508 bei 0,95v
2100/5508 bei 1,05v
 
Zuletzt bearbeitet:
Bei mir sind es 1.062V 2100/5599 Dying light resistet alles ander läuft mit weniger.
Finde es Klasse das die Stock angelegten 2063 mit nur 0.993 laufen hatte mich verschrieben mit 0.933.

In 4K reden wir da von knapp 1 FPS 2063-2126MHZ.
 
Zuletzt bearbeitet:
Bei mir sind es 1.062V 2100/5599 Dying light resistet alles ander läuft mit weniger.
Finde es Klasse das die Stock angelegten 2063 mit nur 0.993 laufen hatte mich verschrieben mit 0.933.

In 4K reden wir da von knapp 1 FPS 2063-2126MHZ.

Ja, das habe ich auch bemerkt, dass der Unterschied zwischen 2114 und , sagen wir, 2088 , ist rund um 1FPS...
 
Die 2066 vom Ino Bios passen perfekt zu meinem Chip sollte der Sweetspot sein denke ich den +0.07V für 37MHZ ist schon ordentlich mehr beim Pascal.
 
Ich sehe da kein Problem. 1.093v sind von NV freigegeben. Und pt technisch hat inno freigegeben. Von daher sollte das alles noch im grünen Bereich sein....
Ich denke nicht, dass sich inno massenweise Rma ins Haus holen möchte...
Gesendet von meinem SM-G920F mit Tapatalk
 
Sicher nicht, allerdings hat Inno eine (wenn auch geringfügig) bessere Stromversorgung als die FEs - da ist die Lastaufteilung sicher etwas anders.
 
Oh Leute seid ihr immer noch damit beschäftigt. Zockt einfach und genießt euer Spiele. Man könnte meinen ihr habt alle Blanko GTX1080 gekauft ohne Bios und ohne Takt vorgaben, jetzt versucht ihr euer eigene Bios zu erstellen.
Für manche von euch würde ich Overclockers Dream AMD Karten Empfehlen, mit einpaar Einstellungen habt ihr alles rausgeholt. Dann habt ihr genug Zeit zum Spielen ;)
 
Zuletzt bearbeitet:
Ich sehe da kein Problem. 1.093v sind von NV freigegeben. Und pt technisch hat inno freigegeben. Von daher sollte das alles noch im grünen Bereich sein....
Ich denke nicht, dass sich inno massenweise Rma ins Haus holen möchte...
Gesendet von meinem SM-G920F mit Tapatalk

Das Board ist ja auch führ mehr ausgelegt mit den Phasen von der Inno aber auf der Ref????
 
Hi, hab seit gestern meine Gigabyte G1 GTX1080 am laufen die Karte boostet @standart Settings auf 1936MHz hoch und hält den Takt selbst nach 2Std. pcars. :hail:
 
Zuletzt bearbeitet:
Das Board ist ja auch führ mehr ausgelegt mit den Phasen von der Inno aber auf der Ref????

Naja jetzt mal ehrlich - auch wenns nicht das beste ist für die Karte, wie lange hast du vor sie zu behalten? Bis zur Ti oder Titan? Hattest nicht du dauerhaft 1.274V auf der 980ti anliegen und würdest jetzt auf einmal anfangen nachzudenken?
 
Ist doch gut schon mal zu wissen,wo man welche Karten nicht kauft. :) Immer reden lassen.
 
Ist doch gut schon mal zu wissen,wo man welche Karten nicht kauft. :) Immer reden lassen.

Mit dem Unterschied das ich die Leute nicht anlüge beim Verkauf und tachelis rede.
Schlimmer sind doch die jenigen die dann schreiben war noch nie ein anderes Bios drau und OC ohnein nicht mal versucht und oder die läuft 3milionen MHZ bei nur 0.1V.
Okay übertrieben aber so ähnlich.

- - - Updated - - -

Naja jetzt mal ehrlich - auch wenns nicht das beste ist für die Karte, wie lange hast du vor sie zu behalten? Bis zur Ti oder Titan? Hattest nicht du dauerhaft 1.274V auf der 980ti anliegen und würdest jetzt auf einmal anfangen nachzudenken?

Ja ist richtig 360W verteilt auf 1×6+8Pin mit 300W PCB.

GTX1080 peak 303W mit 1×8Pin da kann ich schon mal ins grübeln kommen .
Wie Oli schon schon schrieb ein bischen andere Hausnummer mit der GTX1080.

Ich bin schon risiko bereit aber nicht völlig Wahnsinnig.
 
Zuletzt bearbeitet:
Feddich mit SLI. 3x erster Platz 6800k mit 1080 SLI.

Ja ganz ordentlich.
Bin, ohne groß rumzubasteln, etwas unter deinen Werten. Aber mit Wakü.
Vermutlich würde noch mehr gehen. Aber beim Firestrike bin ich teilweise eh schon im Powerlimit.
 
Angeblich sind die Aqua Kühler nicht lieferbar, sind aber wohl doch schon ausgeliefert worden laut deren Forum. Und ich warte...
Weiß gerade jemand ob die X3 rückseitig groß anders ist als die Ref.?
Wäre blöd wenn die AC aktive Backplate nicht passte.
 
Ja ganz ordentlich.
Bin, ohne groß rumzubasteln, etwas unter deinen Werten. Aber mit Wakü.
Vermutlich würde noch mehr gehen. Aber beim Firestrike bin ich teilweise eh schon im Powerlimit.

Bei mir kein Tweak kein nix. Ist mein täglich genutztes Windows. Einzig ein paar Dienste deaktiviert. Sind meine schlechtesten Ergebnisse, hab noch nen paar nicht veröffentlicht. Bin kurz vor 29k im FS.
 
Wer hat denn mittlerweile meine ACX?

Momentan DHL, bald ich :d Dann habe ich 3 Karten hier und muss mich mal bald entscheiden ^^

Sehe ich das richtig, dass beim Pascal bzw. Boost 3.0 doch nicht soo viel limitiert wie wir die ganze Zeit dachten?
Wenn man genug PT im Bios hat, throttelt eigentlich gar nichts mehr, oder?

Naja, es gibt mehr Stufen bei denen ab einer gewissen Temp die Spannung und der Takt reduziert wird. Diese Stufen sind früher und öfters als beim Boost 2.0:

clock_analysis2.jpg
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh