[Sammelthread] NVIDIA GeForce GTX 1080 (GP104) Sammelthread + FAQ

NVIDIA GeForce GTX 1080 (GP104) Sammelthread + FAQ


Impressionen der Karte:

geforce-gtx-1080-pictures-15-840x560.jpg
geforce-gtx-1080-pictures-21-840x560.jpg

geforce-gtx-1080-pictures-22-840x560.jpg
geforce-gtx-1080-pictures-23-840x560.jpg

geforce-gtx-1080-pictures-27-840x560.jpg
geforce-gtx-1080-pictures-28-840x560.jpg

geforce-gtx-1080-pictures-17-840x560.jpg
geforce-gtx-1080-pictures-29-840x560.jpg

Technische Daten der GeForce GTX 1080
  • Chip = GP104-400-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 7,2 Milliarden
  • Die-Größe = 314 mm²
  • Shader-Einheiten = 2.560 (1D) (20 SMM)
  • Texture Mapping Units (TMUs) = 160
  • Raster Operations (ROPs) = 64
  • Pixelfüllrate = 102,8+ GPixel/s
  • Texelfüllrate = 257,1+ GTexel/s
  • Chiptakt = 1.607 MHz Baseclock + Boost (1.733 MHz) + Max. Boost (~1.886 MHz)
  • Speichertakt = 2.503 MHz
  • Speichergröße = 8.192 MB
  • Speichertyp = G5X
  • Speicherinterface = 256 Bit
  • Speicherbandbreite = 320,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 180 Watt
  • Leistungsaufnahme 2D = ~9 Watt
  • Versorgung über einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel
Announce the GEFORCE GTX 1080

Einzelkartentests:

Geizhals Link:
GeForce GTX 1080 | Deutschland - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX 1080 erreicht im Leerlauf mit 0,4 Sone in etwa das Niveau der GTX 980 Ti. Der Radiallüfter dreht mit ~1.100 RPM bei 27% PWM-Stärke. Unter Last schwankt die Lautheit zwischen 3,2 Sone (~55%) bis zu (max) 4,2 Sone (62% PWM @~2.480 RPM), was etwas bis klar weniger als bei der GTX 980 Ti ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.000 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX 1080 beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt.

Wie hoch ist der Stromverbrauch?
Die GTX 1080 verbraucht im Leerlauf um die 9 Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX 1080, egal ob in Games oder im Furmark, maximal 180 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GTX 1080 eine bisher nicht erreichte Effizienz. Die Karte ist gut 60 bis 70% schneller als eine GTX 980 und verbraucht dabei aber höchstens 9% mehr.

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX 1080 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre.

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 960% (1080p), bzw. 132% (4K) und ist so im Mittel aller Reviews knapp 30% schneller als eine GTX 980 Ti und somit klar die schnellste Single-GPU-Grafikkarte.
Launch-Analyse nVidia GeForce GTX 1080 | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Pascal-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Laut den ersten Reviews sollte es machbar sein, dass jede GPU rund 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Das man kaum höhere Taktraten erreichen konnte liegt in erster Linie daran, dass bei der GTX 1080 das Power Target stark limitiert. So kann man dieses zwar per Tool auf 120% anheben (216 Watt), aber selbst das reicht nicht aus, um konstant die maximal mögliche Taktrate zu erreichen und konstant halten zu können. Mit einer besseren Kühlung und somit kühleren GPU Temperaturen und folglich einer geringeren Verlustleistung sind noch etwas höhere Taktraten erreichbar. Einen ersten Einblick bietet die PCGH mit einem verbauten Accelero Xtreme IV:
Nvidia Geforce GTX 1080 meets Accelero Xtreme IV: Die 2-GHz-Taktmauer ist gefallen

Einen Interessanten Beitrag mit Praxisbezug zum Thema Undervolting hat der User BK-Morheus veröffentlicht. In dem Video sieht man, wie man eine GTX 1070/1080 mit Hilfe des "curve editors" des Afterburners undervolten kann:
https://www.youtube.com/watch?v=UGeGLU8uh9M&ab_channel=BennyLikesTech

Was einer erhöhten OC-Performance noch im Weg stehen kann, ist die Speicherbandbreite. Obwohl nVidia mit der GTX 1080 erstmals G5X / GDDR5X Speicher verbaut (10Gbps), somit an einem 256 Bit breiten Speicherinterface 320 GB/s erreicht und die Speicherkompression nochmals verbessert hat, scheint es, dass die GPU recht stark von mehr Speichertakt profitiert. So misst Computerbase bei 10% mehr Speichertakt bis zu 9% mehr Performance - bei ansonsten Referenz-GPU-Taktraten.
Nvidia GeForce GTX 1080 im Test - ComputerBase

Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1080. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.
 
Zuletzt bearbeitet:
Meine Karte kommt unter 1.4Ghz auch mit der Idle-Voltage aus.
Durch das CPU-Limit/Vsync wird die Karte einfach nicht gefordert.
Hier mal als Beispiel Elite-Dangerous mit aktiviertem Vsync.
Da langweilt sich die Graka.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich werde meine 1080 inkl Morpheus vermutlich auch abgeben. Falls daran wer Interesse haben sollte könnt ihr euch ja gerne bei mir melden, sonst kommt sie halt in den MP. Was ich so an oc packe bei welcher Temp wisst ihr ja schon, aber ich kanns euch dann auch gern nochmal zeigen.

Ich glaube ich werd langsam alt und vernünftig :banana:
 
Die 1080er läuft ja auch Pillepalle.
Und warum sollte der Video-Macher Rumlügen?

Der Unterschied zwischen Deinem und seinem Video ist der Grundstock.
Wie wir alle (hoffentlich) wissen bekommst Du bei Witcher3 mit Antialiasing von 16/16 zu 16/8 schon 22% weniger FPS. Und der Video-Ersteller hat "nur" einen 6700K also laufen die Grafikkarten bei ihm 8/8 und nicht wie bei Dir 16/16. Das ist der Unterschied, den Du siehst. Nur deshalb performen bei Dir die TIs vernünftiger.
Aber genau das schränkt doch den Kreis für die es Sinnvoller ist eine SLI zu betreiben unglaublich ein. Die ganzen Speed-Jünger haben nun mal die Mainstream-Schrott-Plattform^^

Und genau deshalb geht auch Dein Tomb-Raider-Bench besser (kein Bandbreiten-Problem wie in Witcher3), wobei Du natürlich auch völlig verschweigst, das in RotTR DX12 kein SLI funktioniert. Möchte man RotTR mit DX12 zocken, ist man mit dem SLI angeschissen.

HisN, du kennst dieses Video? Core i7 6700K vs 5820K vs 5960X CPU Face-Off: Which Is Best For Gaming?

Wie du oben in dem Video siehst, ist es ist vollkommen unerheblich, ob nun 8/8 oder 16/16 im SLI. Ein PC mit X99 Chipsatz und 5820K, ja sogar 5960X, sieht meist kein Land gegen einen 6700K mit popeligem 100 Euro Z170 Brett, was die Frames angeht. Ich weiß, das erschüttert Grundfeste, schließlich muss die Sauteure X99 Plattform ja das Geilste überhaupt sein, klar! Ich kann das aus meinen Tests mit der X99 Plattform von damals auch so bestätigen, wie in dem Video gezeigt, ein Z170 Brett plus ein 6700K ist, was Frames angeht, derzeit einfach die bessere Gaming Plattform und hier bremst rein gar nichts aus, auch nicht im SLI. Nur wenn das Game extrem CPU-lastig ist, also derzeit so 1 Game von 100, kann man von CPUs mit mehr als vier Kernen profitieren, was die Frames angeht. Wie es mit den neuen 6950X und 6800K aussieht, keine Ahnung, habe ich noch nicht getestet, die alten 5820K und 5960X stinken gegen den 6700K auf jeden Fall in den meisten Games ab. Was hier also die Schrott-Plattform ist, nun, hier gehen die Meinungen wohl dann doch auseinander. ;)
 
Zuletzt bearbeitet:
@Trill
Mir sind die FPS in GTA5 in dem Zusammenhang doch völlig wurst.
Mir geht es darum das Witcher3 nachweislich in UHD mit Anti-Aliasing ein Bandbreiten-Problem hat. 22% Leistungsverlust von 16/16 zu 16/8.
Schaltest Du Anti-Aliasing ab, ist das Problem weg.

Das hat nix mit Schönreden zu tun. Es betrifft meines Wissens (zur Zeit) auch nur Witcher3 und Rainbow6 Siege. Ausschließlich in UHD, ausschließlich mit Anti-Aliasing.
Das Märchen dass es keine Unterschiede zwischen 8/8 und 16/16 gibt, ist damit für mich gestorben :-)
 
Zuletzt bearbeitet:
Was reagiert bei Euch empfindlich auf zu viel Ram Mhz?
 
@Trill
Mir sind die FPS in GTA5 in dem Zusammenhang doch völlig wurst.
Mir geht es darum das Witcher3 nachweislich in UHD mit Anti-Aliasing ein Bandbreiten-Problem hat. 22% Leistungsverlust von 16/16 zu 16/8.
Schaltest Du Anti-Aliasing ab, ist das Problem weg.

Das hat nix mit Schönreden zu tun. Es betrifft meines Wissens (zur Zeit) auch nur Witcher3 und Rainbow6 Siege. Ausschließlich in UHD, ausschließlich mit Anti-Aliasing.
Das Märchen dass es keine Unterschiede zwischen 8/8 und 16/16 gibt, ist damit für mich gestorben :-)

Hä, wieso GTA5. Aber schon ok, ist ein Bandbreitenproblem, kann ja an nichts anderem liegen. ;)

Edit: Aber ich sehe gerade, du emulierst ja auch einen Vierkerner mit deinem fetten 5960X und wunderst dich, dass die Frames niedriger sind bzw. behauptest dadurch, dass The Division von einem 4-Kerner eingebremst wird. Oh weia!
 
Zuletzt bearbeitet:
So meiner mit MSI ein wenig rumgespielt.

Fire-Strike Normal lässt die Karte schon ein bisschen fiepen, in Spielen passiert überhaupt nichts, echt leise, Lüfter sind wirklich silent. Zum Übertakten..naja Coreclock auf +125 Mhz und Boost bei 2050 in Firestrike hängt sich der Treiber weg. Im Doom/Overwatch und + 135 Mhz boostet die auch auch mit 2063 Mhz, 2 Level mal gespielt. Mit der Curve bin ich noch nicht so warm geworden, vielleicht geht da ja noch was.
 
Hä, wieso GTA5. Aber schon ok, ist ein Bandbreitenproblem, kann ja an nichts anderem liegen. ;)


Na weil der Typ in Deinem Video die ganze Zeit vor einer GTA5-Szene labert^^ und ich hier auf Arbeit keine Ruhe finde mir das tatsächlich komplett anzuschauen was er da erzählt vor seiner GTA5-Szene.


Und was könnte es denn noch sein?
Aber am besten Diskutierst Du das mit den Leuten im 3DC aus :-)

3DCenter Forum - SLI - Kompatibilitätsbits - Sammelthread - Seite 105

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10903162#post10903162
 
Zuletzt bearbeitet:
Evtl. solltest du das Video mal ganz schauen, ist aber egal HisN, du hast dich eh festgelegt und bist dadurch beratungsresistent. ;) Back to Topic, hier geht es ja auch nicht um CPUs.
 
Stimmt, von CPUs haben wir gar nicht geredet, sondern von der Anbindung der GPUs :-)
Vielleicht solltest Du dem Typ mal den Tip geben Rainbow6 und Witcher3 durchzutesten, wie es die Leute im 3DC gemacht haben.

Und ja, in Bezug auf diese beiden Games und SLI habe ich eine vorgefertigte Meinung, die Du entkräften müsstest, mit genau diesen beiden Games in genau diesen Settings und nicht mit einem Typ der irgendwas vor einer GTA5-Szene erzählt :-)
 
Zuletzt bearbeitet:
Das kommt in diesem Video doch alles, auch Witcher 3 im SLI - einfach mal ganz in Ruhe anschauen, wenn du Zeit findest. Und die Anbindung der GPU regelt ja nun mal nicht die GPU. ;)
 
So meine 1080 wird in einer halben Stunde abgeholt und somit bleib ich bei der 980 ti. :d

Zwar kein plus gemacht aber so musste ich keine 200,- € drauflegen. Trotz allem ist die Palit ein gute leise Karte und weiterzuempfehlen.
 
Zuletzt bearbeitet:
Warum hast du sie jetzt wieder verkauft?
 
Warum hast du sie jetzt wieder verkauft?

Weil ich meine 980 ti Xtreme nicht zum gewünschten Preis verkauft habe (hätte innerhalb von 3 Wochen über 100,- € Verlust gemacht) und vernünftig geworden bin, da mir momentan sowieso noch der Monitor fehlt um die Leistung auszunutzen.
 
@Trill
Ich hab mir jetzt zig Minuten diesen Quark angeschaut, nur um festzustellen dass da WEDER 4K anliegen, noch irgendwo die Settings erklärt werden, die der Kerl nutzt.
Aber ich sehe an den FPS ganz deutlich dass es nicht 4K ist und Du völlig an mir vorbei redest (was ja nix neues bei uns beiden wäre^^)
 
Weil ich meine 980 ti Xtreme nicht zum gewünschten Preis verkauft habe (hätte innerhalb von 3 Wochen über 100,- € Verlust gemacht) und vernünftig geworden bin, da mir momentan sowieso noch der Monitor fehlt um die Leistung auszunutzen.

Das ist auch viel zu spät. Ich habe meine GTX 980 Ti schon vor mehr als einem Monat, für 550 Euro Nettoerlös, verkauft. Und selbst da hatte ich saumäßiges Glück, dass ich genau den richtigen Depp gefunden hatte. Die meisten wollten mir damals schon nicht mehr wie 400 - 450 Euro bieten.

Atm kann man sau froh sein, wenn man 350 - 400 Euro bekommt.
 
Zuletzt bearbeitet:
Das ist auch viel zu spät. Ich habe meine GTX 980 Ti schon vor mehr als einem Monat, für 550 Euro Nettoerlös, verkauft. Und selbst da hatte ich saumäßiges Glück, dass ich genau den richtigen Depp gefunden hatte. Die meisten wollten mir damals schon nicht mehr wie 400 - 450 Euro bieten.

Atm kann man sau froh sein, wenn man 350 - 400 Euro bekommt.

Für 549 bekommst du schon ne Matrix neu
 
Kauft niemand mehr für den Preis. Obwohl ich weiß, dass die GTX 980 Ti OC schneller als die GTX 1070 OC ist, würde ich für eine gebrauchte auch nicht mehr als 350 Euro geben. Weil die heizt richtig viel. Die Fertigung ist Steinzeit. Deshalb die hohe Abwärme.

Aber die meisten Kaufinteressenten denken, die GTX 1070 sei viel schneller und deshalb sei die 980 Ti so wenig wert. Das ist leider absoluter Bullshit.
 
Zuletzt bearbeitet:
Wer von euch hat eigentlich alles den Stuntmod probiert?
Habt ihr mal Verbauchsmessungen Vorher/Nachher gemacht?
 
Wir sind hier im luxx...da hat jeder Recht :-) und jeder ist n Fachmann !
 
@Trill
Ich hab mir jetzt zig Minuten diesen Quark angeschaut, nur um festzustellen dass da WEDER 4K anliegen, noch irgendwo die Settings erklärt werden, die der Kerl nutzt.
Aber ich sehe an den FPS ganz deutlich dass es nicht 4K ist und Du völlig an mir vorbei redest (was ja nix neues bei uns beiden wäre^^)

Ja ja, in 4K ist alles anders, schon klar. Alle anderen reden Quark nur du nie und nimmer. Wir reden aneinander vorbei, du hast recht, alles gut!
 
Zuletzt bearbeitet:
Wir sind hier im luxx...da hat jeder Recht :-) und jeder ist n Fachmann !

so isses,hier sind die profis am werk. Wenn ihr fragen habt wendet euch einfach an HiSN, webmi, Naennon oder vielleicht sogar Sharif. Da werdet ihr geholfen :popcorn:

Ja ja, in 4K ist alles anders, schon klar. Alle anderen reden Quark nur du nie und nimmer. Wir reden aneinander vorbei, du hast recht, alles gut!

Es gibt leute die haben lange vor dir aufgehört mit ihm zu diskutieren weil nur er recht hat. Du hast echt lange gebraucht.

Kauft niemand mehr für den Preis. Obwohl ich weiß, dass die GTX 980 Ti OC schneller als die GTX 1070 OC ist, würde ich für eine gebrauchte auch nicht mehr als 350 Euro geben. Weil die heizt richtig viel. Die Fertigung ist Steinzeit. Deshalb die hohe Abwärme.

Aber die meisten Kaufinteressenten denken, die GTX 1070 sei viel schneller und deshalb sei die 980 Ti so wenig wert. Das ist leider absoluter Bullshit.

woher nimmst du nur all dieses wissen ? Du quillst ja förmlich über vor lauter Wissen.
 
Zuletzt bearbeitet:
Kein Stress hier, alles ist gut, bleibt beim Thema, Müll wird doch eh wieder raus gelöscht - wir sind doch alle die Cracks und Alphatiere schlecht hin! ;)
 
Zuletzt bearbeitet:
Wer von euch hat eigentlich alles den Stuntmod probiert?
Habt ihr mal Verbauchsmessungen Vorher/Nachher gemacht?

Wenn du genug drauf schmierst, kannst dein PT fast verdoppeln, aber in Games brauchst du ca 240-270 Watt (QHD) in UHD, kannst noch ca 20 Watt draufschlagen ...Firestrike Ultra, brauchst über 300 :hmm:
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh