[Sammelthread] NVIDIA GeForce GTX 1080 (GP104) Sammelthread + FAQ

NVIDIA GeForce GTX 1080 (GP104) Sammelthread + FAQ


Impressionen der Karte:

geforce-gtx-1080-pictures-15-840x560.jpg
geforce-gtx-1080-pictures-21-840x560.jpg

geforce-gtx-1080-pictures-22-840x560.jpg
geforce-gtx-1080-pictures-23-840x560.jpg

geforce-gtx-1080-pictures-27-840x560.jpg
geforce-gtx-1080-pictures-28-840x560.jpg

geforce-gtx-1080-pictures-17-840x560.jpg
geforce-gtx-1080-pictures-29-840x560.jpg

Technische Daten der GeForce GTX 1080
  • Chip = GP104-400-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 7,2 Milliarden
  • Die-Größe = 314 mm²
  • Shader-Einheiten = 2.560 (1D) (20 SMM)
  • Texture Mapping Units (TMUs) = 160
  • Raster Operations (ROPs) = 64
  • Pixelfüllrate = 102,8+ GPixel/s
  • Texelfüllrate = 257,1+ GTexel/s
  • Chiptakt = 1.607 MHz Baseclock + Boost (1.733 MHz) + Max. Boost (~1.886 MHz)
  • Speichertakt = 2.503 MHz
  • Speichergröße = 8.192 MB
  • Speichertyp = G5X
  • Speicherinterface = 256 Bit
  • Speicherbandbreite = 320,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 180 Watt
  • Leistungsaufnahme 2D = ~9 Watt
  • Versorgung über einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel
Announce the GEFORCE GTX 1080

Einzelkartentests:

Geizhals Link:
GeForce GTX 1080 | Deutschland - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX 1080 erreicht im Leerlauf mit 0,4 Sone in etwa das Niveau der GTX 980 Ti. Der Radiallüfter dreht mit ~1.100 RPM bei 27% PWM-Stärke. Unter Last schwankt die Lautheit zwischen 3,2 Sone (~55%) bis zu (max) 4,2 Sone (62% PWM @~2.480 RPM), was etwas bis klar weniger als bei der GTX 980 Ti ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.000 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX 1080 beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt.

Wie hoch ist der Stromverbrauch?
Die GTX 1080 verbraucht im Leerlauf um die 9 Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX 1080, egal ob in Games oder im Furmark, maximal 180 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GTX 1080 eine bisher nicht erreichte Effizienz. Die Karte ist gut 60 bis 70% schneller als eine GTX 980 und verbraucht dabei aber höchstens 9% mehr.

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX 1080 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre.

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 960% (1080p), bzw. 132% (4K) und ist so im Mittel aller Reviews knapp 30% schneller als eine GTX 980 Ti und somit klar die schnellste Single-GPU-Grafikkarte.
Launch-Analyse nVidia GeForce GTX 1080 | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Pascal-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Laut den ersten Reviews sollte es machbar sein, dass jede GPU rund 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Das man kaum höhere Taktraten erreichen konnte liegt in erster Linie daran, dass bei der GTX 1080 das Power Target stark limitiert. So kann man dieses zwar per Tool auf 120% anheben (216 Watt), aber selbst das reicht nicht aus, um konstant die maximal mögliche Taktrate zu erreichen und konstant halten zu können. Mit einer besseren Kühlung und somit kühleren GPU Temperaturen und folglich einer geringeren Verlustleistung sind noch etwas höhere Taktraten erreichbar. Einen ersten Einblick bietet die PCGH mit einem verbauten Accelero Xtreme IV:
Nvidia Geforce GTX 1080 meets Accelero Xtreme IV: Die 2-GHz-Taktmauer ist gefallen

Einen Interessanten Beitrag mit Praxisbezug zum Thema Undervolting hat der User BK-Morheus veröffentlicht. In dem Video sieht man, wie man eine GTX 1070/1080 mit Hilfe des "curve editors" des Afterburners undervolten kann:
https://www.youtube.com/watch?v=UGeGLU8uh9M&ab_channel=BennyLikesTech

Was einer erhöhten OC-Performance noch im Weg stehen kann, ist die Speicherbandbreite. Obwohl nVidia mit der GTX 1080 erstmals G5X / GDDR5X Speicher verbaut (10Gbps), somit an einem 256 Bit breiten Speicherinterface 320 GB/s erreicht und die Speicherkompression nochmals verbessert hat, scheint es, dass die GPU recht stark von mehr Speichertakt profitiert. So misst Computerbase bei 10% mehr Speichertakt bis zu 9% mehr Performance - bei ansonsten Referenz-GPU-Taktraten.
Nvidia GeForce GTX 1080 im Test - ComputerBase

Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1080. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
valley suckt, ich hab 2560x1440 4xAA probleme mit der auslastung, die karte taktet nicht dauerhaft hoch ^^

 
Zuletzt bearbeitet:
Naja, mit LN2. Ein Firestrike Ergebnis wurde auch noch nciht gepostet. Scheint so, also würde es nicht durchlaufen. Die Boost-Taktraten kann man auch so erwzingen, Spannend wird es ja erst, wenn die GPU-Load bei 100% liegt...
Für einen CPU-Z Screenshot bekomme ich meine CPU bestimmt auch auf 5,2Ghz, aber beim 3DM Physik-Test kackt er dann spätesten mit BSOD ab ^^
 
8x.png

@Webmi

des kommt bei mir mit 8x raus, da müsstest du doch mit 2,2 problemlos drüber kommen, den wert hab ich aber auch schon mit Limit hinbekommen
 
probier mich grad am FS-E, das problem ist, die GPU taktet wieder ständig runter auf z.b. 1975 statt dauerhaft mit 2202 zu laufen

ist witzlos so
 
hmm also auf 1975 geht meine nicht


von 2125 auf 2075 oder so, aber net so weit wie bei dir
 
probier mich grad am FS-E, das problem ist, die GPU taktet wieder ständig runter auf z.b. 1975 statt dauerhaft mit 2202 zu laufen

ist witzlos so

Powerlimit? Oder warum?

 
Der 1. Test hat Spitzen bis ca 300 Watt, aber mit Offset oder Curve, müsste sie so wie bei Naennon takten.

Kommt dann am Ende ca 11800 raus, bei Graphics...
 
Zuletzt bearbeitet:
5960X @ 4.800 Mhz, GTX1080 @ 2.200/5600 Mhz


Hier der GPU-Z dazu, fast durchgehend max-Takt


Mit dem 100% gleichen Setup wenn ich FSE oder FSU laufen lasse, throttled mir das scheiß Teil runter ohne Ende. FS kann ich so vergessen.
 
Klingt arg nach Power, Vally ist ja im Vergleich zu den high res FS ein Witz
 
Was immer es ist, es kotzt mich an und zwar derb

im GPU-Z steht dann Util/PWR/Util/PWR etc., PT kratz die 120% Marke nicht an
GPU Load auf 99% wie ein Stich, Takt macht was er will

:wut:

Was mit dem AB in Spielen und in Valley, eigtl überall außer im FS funktioniert, was mit dem Prec nicht geht, nämlich im Curve Editor X & Y Koordinaten für Spannung und Takt fest und manuell zu setzen, irgnoriert der dämliche FS ganz einfach und throttled die Karte sowas von derb runter, dass ich damit gerade mal auf meine 1530er Titan X Ergebnisse komme.
 
wieso geht bei mir nicht apply overclocking @ startup?!
 
5960X @ 4.800 Mhz, GTX1080 @ 2.200/5600 Mhz


Hier der GPU-Z dazu, fast durchgehend max-Takt


Mit dem 100% gleichen Setup wenn ich FSE oder FSU laufen lasse, throttled mir das scheiß Teil runter ohne Ende. FS kann ich so vergessen.

Kühlst Du mit Wasser oder dem Referenzkühler bzw. Foundersedition?
Sehe ich das korrekt, dass die ganzen zusätzlichen 6 bzw. 8 Pin der Customkarten nichts bringen,
weil die GPU sowieso zu warm wird?
 
Hab gelesen das der große Chip mal 50% darauflegen soll.
Vielleicht sollte man doch noch warten?
 
Der selbe Artikel besagt, dass die Quelle für dieses GERÜCHT auch nicht wirklich vertrauenswürdig ist...rechnerisch müssten wir mit dem OC jetzt an die stock Leistung einer 1080Ti kommen...oder nicht? Hat jemand hier mal gesagt, wenn ich mich nicht irre...
 
Kühlst Du mit Wasser oder dem Referenzkühler bzw. Foundersedition?
Sehe ich das korrekt, dass die ganzen zusätzlichen 6 bzw. 8 Pin der Customkarten nichts bringen,
weil die GPU sowieso zu warm wird?

Im Betrieb @Air fährt man zumindest mit den Customs besser.
Den Rest wird man noch sehen falls man es schaft das Bios zu bearbeiten.
 
Schick schick!

hält aber auch 29°C und wird so laut sein, wie ein Staubsauger :d

In Valley bekomm ichs bis 2177 durch, dann gehts an die 39°C und Schluss
 
müssen tust du gar nichts, hätte mich nur interessiert, weil ich eben gemerkt habe, dass ich mit 1.0 nicht ganz auskomme wenn ich wirklich spiele.

Du hast mal wieder absolut recht. Während alles andere stundenlang problemlos läuft, geht Division nicht mal ne Stunde bevor es abkackt. Braucht bei mir also auch mehr als 1.0v


Ich kann des auch überschreiten, aber ab 42°C, gehen die Lichter aus, wenn sie nicht den Takt absenkt.

Die Karte, passt dann scheinbar den Boost, an die neue Temperatur an und schon reichts nicht mehr aus, um stabil zu bleiben.

Die Beobachtung scheint gar nicht so schlecht zu sein. Im Gegensatz zu Webmi hab ich immer das OSD vom Afterburner am laufen und kann schauen in welchem Moment die 1 beim PowerTarget erscheint. Bei mir scheint das bei 47° der Fall zu sein. Müsste ich aber auch noch ausgiebiger beobachten.


Ich mache es mir jetzt auch einfach. Scheiss auf die ganze Quälerei. Warten auf ein angepasstes Bios und den Meisterprogger hier^^

Und bis dahin:
 
Zuletzt bearbeitet:
takt schwankte immer hin und her, können also auch 62-64 bzw 65-67 oder so gewesen sein
 
2177.png da mit 2177 auch mit +600 Ram der macht am meisten :)

Schau dir dieses Powerlimit an :P möb.png

aber zu warm :(
 
Ja die Titan ist immer noch ne gute Karte

Gesendet von meinem SM-N910F mit Tapatalk
 
1. Telefonat:
EVGA lehnt Kulanz ab aufgrund Selbstverschulden. Ihr gutes Recht. Habs ja selbst verbockt und letztendlich entschieden ehrlich zu sein (obwohl gebürtiger Pole ). Aber für einen kleinen abgerissenen Widerstand Reparaturkosten im Neuwert der Karte ansetzen ist etwas profitorientiert. Mit ist kurz übel geworden. EVGA so nach dem Motto "Du hast dein Geld bei uns gelassen, jetzt schau, wie du mit deinem Problem selbst klar kommst". Eine Firma in Berlin bietet für schmales Geld die Reparatur (mit 1 Jahr Garantie) an und wollte von mir nur Infos wie viel Ohm der abgerissene Widerstand hat, da die Karte noch so neu ist und die noch keine Schaltpläne haben.

2. Telefonat:
EVGA wollte mir, auf Anfrage wie viel Ohm der abgerissene Wiederstand hat, keine Informationen herausgeben. Letztendlich kennt sich Stullen Andi zum Glück aus und hat ein Hochauflösendes Bild vom PCB gehabt aus dem hervor geht, dass es nur ein 0 Ohm Widerstand ist. Ich als Laie hätte das nicht gewusst. Aber dass EVGA diese relativ offensichtliche Hilfe/Information nicht anbieten wollte, da bin ich ebenfalls enttäuscht. Gut die Schaltpläne wollten sie so oder so nicht rausrücken, aber das kann ich verstehen.

Sry für das Wiederanschneiden, wollte das aber nur noch gesagt haben: Es scheint mir, dass viele Leute denken, dass EVGA (oder irgendeine deutsche Niederlassung einer asiatischen Hardware-Firma in diesem Kontext) wirklich "voll" als EVGA handelt. Das stimmt aber nicht, diese Niederlassungen sind nur Marionetten, die eben nur eine Vertretung der Firma darstellen. Die Leute, auch die die dort höhere Positionen haben, haben allesamt Vorschriften die sie befolgen müssen, die von der eigentlichen Firma in Asien kommen. Sie wissen auch oft um einiges schlechter über die Produkte bescheid als diese. In den USA wäre das vielleicht etwas anders, da dort der Markt viel größer ist als in Europa, aber selbst dort agieren eigentlich nur Vertretungen.

Ich persönlich würde diese Firmen auch genauso behandeln. Sie sind eben (leider) die, an die man sich wenden muss, wenn man Probleme mit seinem Produkt hat, aber mehr nicht. Niemandem in Deutschland und nicht einmal in Asien wird geschadet, wenn man über einen abgebrochenen Wiederstand lügt/Informationen verschweigt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh