[Sammelthread] NVIDIA GeForce GTX 1080 (GP104) Sammelthread + FAQ

NVIDIA GeForce GTX 1080 (GP104) Sammelthread + FAQ


Impressionen der Karte:

geforce-gtx-1080-pictures-15-840x560.jpg
geforce-gtx-1080-pictures-21-840x560.jpg

geforce-gtx-1080-pictures-22-840x560.jpg
geforce-gtx-1080-pictures-23-840x560.jpg

geforce-gtx-1080-pictures-27-840x560.jpg
geforce-gtx-1080-pictures-28-840x560.jpg

geforce-gtx-1080-pictures-17-840x560.jpg
geforce-gtx-1080-pictures-29-840x560.jpg

Technische Daten der GeForce GTX 1080
  • Chip = GP104-400-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 7,2 Milliarden
  • Die-Größe = 314 mm²
  • Shader-Einheiten = 2.560 (1D) (20 SMM)
  • Texture Mapping Units (TMUs) = 160
  • Raster Operations (ROPs) = 64
  • Pixelfüllrate = 102,8+ GPixel/s
  • Texelfüllrate = 257,1+ GTexel/s
  • Chiptakt = 1.607 MHz Baseclock + Boost (1.733 MHz) + Max. Boost (~1.886 MHz)
  • Speichertakt = 2.503 MHz
  • Speichergröße = 8.192 MB
  • Speichertyp = G5X
  • Speicherinterface = 256 Bit
  • Speicherbandbreite = 320,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 180 Watt
  • Leistungsaufnahme 2D = ~9 Watt
  • Versorgung über einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel
Announce the GEFORCE GTX 1080

Einzelkartentests:

Geizhals Link:
GeForce GTX 1080 | Deutschland - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX 1080 erreicht im Leerlauf mit 0,4 Sone in etwa das Niveau der GTX 980 Ti. Der Radiallüfter dreht mit ~1.100 RPM bei 27% PWM-Stärke. Unter Last schwankt die Lautheit zwischen 3,2 Sone (~55%) bis zu (max) 4,2 Sone (62% PWM @~2.480 RPM), was etwas bis klar weniger als bei der GTX 980 Ti ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.000 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX 1080 beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt.

Wie hoch ist der Stromverbrauch?
Die GTX 1080 verbraucht im Leerlauf um die 9 Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX 1080, egal ob in Games oder im Furmark, maximal 180 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GTX 1080 eine bisher nicht erreichte Effizienz. Die Karte ist gut 60 bis 70% schneller als eine GTX 980 und verbraucht dabei aber höchstens 9% mehr.

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX 1080 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre.

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 960% (1080p), bzw. 132% (4K) und ist so im Mittel aller Reviews knapp 30% schneller als eine GTX 980 Ti und somit klar die schnellste Single-GPU-Grafikkarte.
Launch-Analyse nVidia GeForce GTX 1080 | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Pascal-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Laut den ersten Reviews sollte es machbar sein, dass jede GPU rund 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Das man kaum höhere Taktraten erreichen konnte liegt in erster Linie daran, dass bei der GTX 1080 das Power Target stark limitiert. So kann man dieses zwar per Tool auf 120% anheben (216 Watt), aber selbst das reicht nicht aus, um konstant die maximal mögliche Taktrate zu erreichen und konstant halten zu können. Mit einer besseren Kühlung und somit kühleren GPU Temperaturen und folglich einer geringeren Verlustleistung sind noch etwas höhere Taktraten erreichbar. Einen ersten Einblick bietet die PCGH mit einem verbauten Accelero Xtreme IV:
Nvidia Geforce GTX 1080 meets Accelero Xtreme IV: Die 2-GHz-Taktmauer ist gefallen

Einen Interessanten Beitrag mit Praxisbezug zum Thema Undervolting hat der User BK-Morheus veröffentlicht. In dem Video sieht man, wie man eine GTX 1070/1080 mit Hilfe des "curve editors" des Afterburners undervolten kann:
https://www.youtube.com/watch?v=UGeGLU8uh9M&ab_channel=BennyLikesTech

Was einer erhöhten OC-Performance noch im Weg stehen kann, ist die Speicherbandbreite. Obwohl nVidia mit der GTX 1080 erstmals G5X / GDDR5X Speicher verbaut (10Gbps), somit an einem 256 Bit breiten Speicherinterface 320 GB/s erreicht und die Speicherkompression nochmals verbessert hat, scheint es, dass die GPU recht stark von mehr Speichertakt profitiert. So misst Computerbase bei 10% mehr Speichertakt bis zu 9% mehr Performance - bei ansonsten Referenz-GPU-Taktraten.
Nvidia GeForce GTX 1080 im Test - ComputerBase

Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1080. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was für Angriffe? Du ziehst einfach nur die falschen Schlüsse.

Ich hab auch schon oft Karten gesehen, bei denen nach 2 Jahren das VRam ohne jegliches OC kaputt gegangen ist, nur weil sie 2 Jahre in schlecht belüfteten/gekühlten Gehäusen verbaut worden sind und langfristig den Hitzetod gestorben sind. So what?
Manche Karten fahren ja schon bei Stockeinstellungen die Speichermodule an bzw. oberhalb ihrer max. spezifizierten Temperatur, siehe die ursprünglich ausgelieferte EVGA GTX1080FTW oder MSI GTX1080 Gaming X.
 
Meine neue 1080 FTW aus der RMA könnte ne Perlööö sein. Speicher geht schon mal auf Max, also 6000. Muss noch weiter testen. Und Wakü ist noch nicht drauf!

Gibt's n Tool was über 6000 takten kann? In AB ist es das Max.
 
Oh Shit, ich muss wohl eingeschlafen sein. :(

Übertreibs blos mit dem Vramtakt nicht, wenn du dich dauerhaft in der Fehlerkorrektur befindet, kann das nach längerem Zeitraum zu einem Defekt führen, dem sogenannten Vram-Tod. Das äußert sich dann meist durch farbige Pünktchen.

PS: Ich meine natürlich nicht, wenn beim Ausloten Grafikfehler entstehen, das ist natürlich noch kein Defekt.
 
Ausloten ist schwierig. Mehr als 6000 geht ja nicht(oder ?) und da kommen keine Fehler.

Muss schauen, ob/wann die FPS weniger werden.
 
King Pin hatte 6180 Mhz Ramtakt bei einer 1080 angelegt per LN2 im Timespybenchmark. Eventuell OCCT im Errorcheckingmode laufen lassen. Spuckt dieser bereits nach ~10 Minuten Fehler aus kann man davon ausgehen das der Ram bei diesem Takt nicht fehlerfrei läuft... EVGA hat auch sowas in der Art. Den EVGA OC-Scanner X... Da kann man auch paar schöne Sachen einstellen... :d

Ansonsten halt die üblichen Spieletest´s. Ruckelt oder hackt es mal immer wieder oder tauchen sogar Artefakte auf läufts nicht fehlerfrei.
 
Zuletzt bearbeitet:
Interessant. Da scheint der Neue 6800K doch ein bisschen mehr Dampf zu haben obwohl er nur mit 4,4 Ghz läuft... :d Bin gespannt wie Ryzen sich hier einordnen wird...

3D Mark 6800K GTX 1080 Firestrike Ultra

Wenn man sich hier die Titan X anguckt wird einem schlecht gegenüber der 1080.... :haha:
Titan X Pascal Kingpin

Bin ich dann mal auf die TI gespannt was die so fabrizieren wird :d Muss wohl die 1080 doch in Rente gehen... :hmm:
 
Zuletzt bearbeitet:
Wenn ich nicht mehr als 670€ ausgeben will, welche 1080 sollte ich dann holen? Die KFA2 1080 EXOC ok? Oder doch eine andere?
 
Wenn ich nicht mehr als 670€ ausgeben will, welche 1080 sollte ich dann holen? Die KFA2 1080 EXOC ok? Oder doch eine andere?

dann leg die 20 euro drauf und nim die hof. ^^ die led software ist aber schrott und die karte hat ne blaue led die man nicht abschalten kann, kein zero fan modus und nen nervigen turbo knopf auf der rückseite der beim einbauen nervt wie sau.

ansonsten ist die karte ganz nett:fresse2:
 
Zuletzt bearbeitet:
dann leg die 20 euro drauf und nim die hof. ^^ die led software ist aber schrott und die karte hat ne blaue led die man nicht abschalten kann, kein zero fan modus und nen nervigen turbo knopf auf der rückseite der beim einbauen nervt wie sau.

ansonsten ist die karte ganz nett:fresse2:

Und damit ist sie raus bei mir :) Danke für den Hinweis

Ich habe derzeit noch eine Zotac 1070 AMP, finde die auch toll, bin sie aber zu einem guten Preis losgeworden und will jetzt die 1080.
 
Wann kommt die Aorus endlich, hat sie Igor schon zum Testen?
 
Habt ihr mal geschaut, was eure 1080er mit OC unter Furmark so an Strom fressen?

Zwar bin ich mir nicht sicher ob ich dem Tool HWINFO64 glauben schenken kann aber meine 1080 soll mit 2100/5700 Mhz im Furmark ( Fenstermodus) 278 Watt verbrauchen ( unter Wasser max 40 Grad)

Was würde die dann unter Luft fressen.

Irgendwie finde ich das schon enorm :motz:
 
Zuletzt bearbeitet:
Da hier noch etwas mehr Aktivität ist, auch mal die Frage hier:

Vielleicht hat ja hier jemand eine Idee, geht um die 980 Ti:

Hab grad n Problem mit meiner Karte...
Nach einer frischen Windows Installation habe ich meinen msi afterburner ordner gesichert und wieder eingefügt, damit meine osd settings nicht nochmal neu gemacht werden müssen.
Nun hat das Überschreiben der Dateien aber irgendwie bewirkt dass meine karte nur noch mit 1367mhz boostet, obwohl die Karte per Bios auf 1519Mhz geflasht ist. Habe schon DDU genutzt um die Treiber sauber zu löschen und neu zu installieren und ebenfalls natürlich die clocks im ab zurückgesetzt (war alles eigentlich auf 0). Afterburner deinstalliert etc. pp. Boost wird in GPU-Z auch mit 1519 angezeigt, wie im Bios auch geflasht. Boostet aber immer nur auf 1367Mhz im P0. Im NV-Inspector steht auch bei Est. Max. 1367Mhz. Hatte das schonmal jemand oder kann mir erklären was das hervorgerufen hat? Kann prizipiell Windows nochmal neu installieren, geht ja fix, aber mir geht es eigentlich auch nur darum den Hintergrund zu verstehen...
Wenn ich per Afterburner die Clocks manuell um 152Mhz erhöhe boostet die Karte dann mit 1519Mhz, wie sie soll, aber beim Boost Takt steht dann 1671Mhz. Irgendwas stimmt da eben nicht...
 
anderes programm zum auslesen mal probiert? evga pecision? die software kann ja die hardwareiegenschaften schlecht ändern. ^^
 
Hab's gefunden... hatte zuvor die Voltage geändert im Bios und beim 62. Eintrag in der Boost-Table statt 1,162v 1,274v noch drin... hatte alle Boosttables geändert außer die eine. Da ist er dann irgendwie hängen geblieben.
Windows hatte ich aber vorher schon neu installiert und danach dann gemerkt, dass es noch immer nicht geht :wall:
Hört mir auf. Hatte dann noch die falsche nvflash Version und die Karte kurzzeitig zerflasht. Dann mit iGPU gebootet und Karte wiederbelebt :fresse: nun läuft's wieder :)
 
Passt nicht ganz zum Thema...

Ich baue wieder einen Gamer-Computer. Statt der normalen 1080, soll es dieses mal die 1080 TI werden. Jemand ne Ahnung, wann diese Pi*Daumen kommt? Dieses ständige warten auf neue Hardware nervt... :fresse:
 
Zwar bin ich mir nicht sicher ob ich dem Tool HWINFO64 glauben schenken kann aber meine 1080 soll mit 2100/5700 Mhz im Furmark ( Fenstermodus) 278 Watt verbrauchen ( unter Wasser max 40 Grad)

Also bei meiner Asus unter Luft mit 2062/5500 sind es lt. Hwinfo wohl 190W mit Furmark. Definitiv verbraucht sie aber weniger als meine alte 780er mit über 1GHz.

Jemand ne Ahnung, wann diese Pi*Daumen kommt?

Aktuelle Gerüchte sagen März zur PAX, aber ob sie dann gleich lieferbar ist, ist die andere Frage.
 
Zuletzt bearbeitet:
Passt nicht ganz zum Thema...

Ich baue wieder einen Gamer-Computer. Statt der normalen 1080, soll es dieses mal die 1080 TI werden. Jemand ne Ahnung, wann diese Pi*Daumen kommt? Dieses ständige warten auf neue Hardware nervt... :fresse:

Ohoh, geht das jetzt von vorne los :d


Gesendet von iPhone mit Tapatalk
 
Ne... Ich bin in Sachen Hardware wieder relativ Fit. ;)

Meine Schwester bekommt meine GTX 1080 und ich nehme die TI. :d
 
Spiele seit eine Woche mit eine Karte. Ich muss zugeben man gewöhnt sich dran. Mit Gysnc fühlt sich in Moment wie 500 Fps an.

Trotzdem finde ich Sli geil vor allem wegen der Optik im Case und Spiele die extrem sehr gut mit Sli laufen.
 
Zuletzt bearbeitet:
Weiss einer was hier los ist ,siehe unten ?(Zur info : habe mir die Sachen von Iron gesaved und sonst ein paar Aussagen gesichert übers flashen in windows)Bin eigentlich nur mit flashen in DOS gut vertraut....was mir auch lieber wär.Für Kritik und Ratschläge bin ich gerne offen .

https://abload.de/img/cmdb1xu8n.png
 
Du bist des "DOS" nicht mächtig.

Deine Syntax stimmt da einfach nicht.

der Befehl heißt nvflash

nicht nvflash nvflash

Das ist das ganze Problem


Falls also nvflash in c:\ liegt und das t4.rom auch.

Dann ist der Aufruf dafür c:\nvflash c:\t4.rom

Wenn nvflash und das rom im ordner nvflash auf c:\ liegt

dann ist der Aufruf c:\nvflash\nvflash c:\nvflash\t4.rom

Wenn Du das ganze ohne den ganzen Pfad eingeben möchtest, dann musst Du Dich in dem Pfad befinden, indem die Dateien liegen. D.h. Du kopierst sie nach C:\Windows\System32 (was ich nicht vorschlagen würde) oder Du wechselst den Pfad in das Verzeichnis in dem die Dateien liegen.

Also in dem Fall wenn sie in c:\ liegen

cd \

oder wenn sie in c:\nvflash liegen

cd c:\nvflash

Dann kannst Du den Befehl einfach mit nvflash t4.rom ausführen.
 
Zuletzt bearbeitet:
Bios Namen sollst du ändern. Zum Bsp: 1080.rom

Aber nicht unter cmd, gehe in den Ordner wo du dein Bios hast ändere den namen xxx.rom
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh