[Sammelthread] NVIDIA GeForce GTX 1080 (GP104) Sammelthread + FAQ

NVIDIA GeForce GTX 1080 (GP104) Sammelthread + FAQ


Impressionen der Karte:

geforce-gtx-1080-pictures-15-840x560.jpg
geforce-gtx-1080-pictures-21-840x560.jpg

geforce-gtx-1080-pictures-22-840x560.jpg
geforce-gtx-1080-pictures-23-840x560.jpg

geforce-gtx-1080-pictures-27-840x560.jpg
geforce-gtx-1080-pictures-28-840x560.jpg

geforce-gtx-1080-pictures-17-840x560.jpg
geforce-gtx-1080-pictures-29-840x560.jpg

Technische Daten der GeForce GTX 1080
  • Chip = GP104-400-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 7,2 Milliarden
  • Die-Größe = 314 mm²
  • Shader-Einheiten = 2.560 (1D) (20 SMM)
  • Texture Mapping Units (TMUs) = 160
  • Raster Operations (ROPs) = 64
  • Pixelfüllrate = 102,8+ GPixel/s
  • Texelfüllrate = 257,1+ GTexel/s
  • Chiptakt = 1.607 MHz Baseclock + Boost (1.733 MHz) + Max. Boost (~1.886 MHz)
  • Speichertakt = 2.503 MHz
  • Speichergröße = 8.192 MB
  • Speichertyp = G5X
  • Speicherinterface = 256 Bit
  • Speicherbandbreite = 320,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 180 Watt
  • Leistungsaufnahme 2D = ~9 Watt
  • Versorgung über einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel
Announce the GEFORCE GTX 1080

Einzelkartentests:

Geizhals Link:
GeForce GTX 1080 | Deutschland - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX 1080 erreicht im Leerlauf mit 0,4 Sone in etwa das Niveau der GTX 980 Ti. Der Radiallüfter dreht mit ~1.100 RPM bei 27% PWM-Stärke. Unter Last schwankt die Lautheit zwischen 3,2 Sone (~55%) bis zu (max) 4,2 Sone (62% PWM @~2.480 RPM), was etwas bis klar weniger als bei der GTX 980 Ti ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.000 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX 1080 beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt.

Wie hoch ist der Stromverbrauch?
Die GTX 1080 verbraucht im Leerlauf um die 9 Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX 1080, egal ob in Games oder im Furmark, maximal 180 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GTX 1080 eine bisher nicht erreichte Effizienz. Die Karte ist gut 60 bis 70% schneller als eine GTX 980 und verbraucht dabei aber höchstens 9% mehr.

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX 1080 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre.

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 960% (1080p), bzw. 132% (4K) und ist so im Mittel aller Reviews knapp 30% schneller als eine GTX 980 Ti und somit klar die schnellste Single-GPU-Grafikkarte.
Launch-Analyse nVidia GeForce GTX 1080 | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Pascal-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Laut den ersten Reviews sollte es machbar sein, dass jede GPU rund 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Das man kaum höhere Taktraten erreichen konnte liegt in erster Linie daran, dass bei der GTX 1080 das Power Target stark limitiert. So kann man dieses zwar per Tool auf 120% anheben (216 Watt), aber selbst das reicht nicht aus, um konstant die maximal mögliche Taktrate zu erreichen und konstant halten zu können. Mit einer besseren Kühlung und somit kühleren GPU Temperaturen und folglich einer geringeren Verlustleistung sind noch etwas höhere Taktraten erreichbar. Einen ersten Einblick bietet die PCGH mit einem verbauten Accelero Xtreme IV:
Nvidia Geforce GTX 1080 meets Accelero Xtreme IV: Die 2-GHz-Taktmauer ist gefallen

Einen Interessanten Beitrag mit Praxisbezug zum Thema Undervolting hat der User BK-Morheus veröffentlicht. In dem Video sieht man, wie man eine GTX 1070/1080 mit Hilfe des "curve editors" des Afterburners undervolten kann:
https://www.youtube.com/watch?v=UGeGLU8uh9M&ab_channel=BennyLikesTech

Was einer erhöhten OC-Performance noch im Weg stehen kann, ist die Speicherbandbreite. Obwohl nVidia mit der GTX 1080 erstmals G5X / GDDR5X Speicher verbaut (10Gbps), somit an einem 256 Bit breiten Speicherinterface 320 GB/s erreicht und die Speicherkompression nochmals verbessert hat, scheint es, dass die GPU recht stark von mehr Speichertakt profitiert. So misst Computerbase bei 10% mehr Speichertakt bis zu 9% mehr Performance - bei ansonsten Referenz-GPU-Taktraten.
Nvidia GeForce GTX 1080 im Test - ComputerBase

Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1080. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.
 
Zuletzt bearbeitet:
Das macht auch evga nicht anders...
Und selektiert wird da wie gesagt bei classi, ftw und schlag mich tot rein gar nichts seitens evga! Da wird lediglich der Chip mit der entsprechenden Platine versehen und das entsprechende bios aufgespielt. Würde Selektion bzw. richtiges Binning stattfinden wäre 1860 nicht der max boost;).
Es ist und bleibt ne Chip-Lotterie!


Gesendet von meinem SM-G920F mit Tapatalk
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Würde ich in meinem Beruf mit solch Dünner Faktenlage ne solch Haasträubend weit hergeholte Schlussfolgerung ziehen könnte ich mir nichtmehr lange neue Classifieds einfach mal so leisten..

Das Marketing hat ja schon in vollen Zügen eingeschlagen;).
Hab ehrlich gesagt nix anderes erwartet;)...

Gesendet von meinem SM-G920F mit Tapatalk

Ich von dir auch keinen anderen Kommentar, von daher nimmt sich das nix ;)

- - - Updated - - -

Bestenfalls wenn die neue Gen noch nicht am Start ist und die Karte limitiert war bzw. schlecht verfügbar ist.

Für gewöhnlich fällt der Wertverlust bei den teuren Karten immer höher aus.


Insbesondere von Asus tauchen immer Karten auf, die das Werks OC nicht packen.

Darfste raten, was da gebinnt wurde ... eben nichts.

Und MSI binnt laut eigener Aussage auch nicht, die kaufen von NVIDIA in Qualitätsbereiche eingeteilte GPUs.

War zumindest die Aussage eines MSI Offiziellen auf der MSI Experience.

Was MSI macht ist doch dasselbe, ob Nvidia die nun selektiert oder MSI ist völlig schnuppe.

Meine Lightning hab ich zum fast neupreis verkauft bevor die neue Gen kam, da waren normale 980Ti schon im MP deutlich billiger im verhältnis zum ehemaligen Kaufpreis.
Stimmt also was Mutio schrieb, wenn mans richtig macht und den richtigen Zeitpunkt net verpasst.
 
Zuletzt bearbeitet:
Ich hatte mal eine sehr schlecht gehende Palit, auf die ich ein Zotac Bios draufgepackt haben, die Karte hat ohne OC höher geboostet als die Karte das verkraften konnte, ergo Driver Crash. Ohne das ich einen OC riegel bewegt habe.

Nun soll mir mal einer erklären wie Zotac das hohe Boosting mit ihrem BIOS garantieren kann ohne zu selektieren? Wäre die damalige Karte nicht zu Palit sondern zu Zotac gewandert, wäre es eine Unstable Karte geworden.

Deshalb kann ich mir das mit dem Selektieren gut vorstellen.
 
Zuletzt bearbeitet:
Natürlich wird selektiert, hierwird dann aben nun Haare gespalten ob man das schon so nennen kann und echte Selektion nur über Asic geht etc..
Hauptsache man kann schreiben da is nix selektiert und fühlt sich mit seiner Karte dann besser...

Ganz genau - das wird es sein ... und das ist dann auch bei MSI mit der Gaming X und Z, bei ASUS mit der Strix OC und Advanced und bei jedem anderen Hersteller außer den Billigmarken die keiner haben will der Fall, denn durch die Bank alle 1080er sind durch schlechte Verfügbarkeit geprägt ...

Oh man ... wenn man einen Bios Test als Selektion abtun will - bitte ... selektieren im eigentlichen Sinn ist es nicht und diese Diskussion können wir hier seitenlang führen. Ich schlage vor wir machen nen Thread im EVGA Forum auf und Fragen explizit nach einer Selektion im Sinne von der Chipgüte in Verbindung mit dem Endprodukt - sprich: 90-100 Classi 80-90 FTX Rest SC und ACX ...

Ich wette es wird verneint :d

Das ist doch der springende Punkt hier ! Wie sind und netmal einig was schon Selektion ist und was nicht. Solange sich das jeder für sich selbst anders definiert ist die ganze Diskussion doch für die Tonne..
 
Zuletzt bearbeitet:
Du begreifst es nicht ... ein Binning oder eine Selektion wie du sie dir vorstellst gibt es nicht ... weder von NVIDIA noch von MSI, Asus usw.

Welches Verfahren NVIDIA nutzt um die qualitative Einstufung der GPUs vorzunehmen würde mich allerdings auch interessieren.
 
Fest steht sie testen die Chips und nur die guten werden zu einer FTW/Classified. Für mich IST das Seletion. Das muss kein Binning oder nach Asic sein, das ist Haarspalterei.
Ich gehe auch soweit mit das die eine Classified nur 2080 Mhz pakt und die andere 2140. Das ist aber immernoch besser als viele andere Customkarten.

Die 1080 FTW ist gut verfügbar, die Classified gibts nur Tropfenweise, für mcih ist das auch EIN Anhaltspunkt.
 
Zuletzt bearbeitet:
Du kapierst es immer noch nicht! ...
Sie testen gar nichts! Um testen zu können wie gut der Chip ist muss er auf der Platine sein;)..
Den min. Boost mit 1860 schafft zu 99% jeder Chip mit entsprechender Kühlung und erhöhten pt!
Kein Boardpartner selektiert!
Deine Behauptung, dass die Classi, die ftw und Sc selektiert werden bezüglich Chipgüte ist und bleibt Schwachsinn!
Und nochmal - glauben ist nicht wissen;)....
 
Zuletzt bearbeitet:
Wissen tust du doch garnix, du behauptest einfach mal und erklärst meine mit Fakten und offiziellen Stellungnahmen unterfütterte Feststellung sei falsch.
Un nochmal WISSEN tust du GARNIX, du spekulierst hier und wirfst mir das vor, sry aber aberwitziger gehts kaum noch..

Die FTW und Classi haben eigene Platinen, die kann man nicht einfach mal so nach dem verlöten und Bios testen zuner anderen Karte machen, da wäre eine Classi die das nicht packt quasi Schrott.

Was ich in euren augen kapiere oder nicht ist mir auch jetzt egal, ich beende die Missgunstgeprägte Scheindiskussion jetzt.
 
Mit Fakten und offiziellen Stellungnahmen untermauerte Feststellung??
Jetzt wirds interessant..
Und deine GROßSCHREIBUNG machen deinen Irrglauben nicht besser;)
 
Zuletzt bearbeitet:
Die suche ich raus sobald ich deine Beweise hier stehen habe. im offiziellen EVGA Forum wirste aber auch selbst fündig.
Also mein Lieber erstmal selbst was bringen bevorde hier forderst und Krallen machst..

Du gehst auf nix ein was ich in deinen Posts bemängelt habe und suchst dir nur hier was raus um wieder dicke Backen zu machen, beendetm ein beendet, Kauf dir erstmal ne 1080 bevorde hier den Grossmuffti mimst.
 
Die Classi kamen schon immer mit etwas Verspätung auf den Markt und Du hast offensichtlich Glück gehabt und eine aus der ersten Charge bekommen.

NVIDIA wird auch nur eine grobe Qualitätseinstufung durchführen anhand welcher Kriterien auch immer.

Die GPUs werden sicher nicht auf einem PCB darauf getestet ob sie 2050+ mitmachen.
 
Zuletzt bearbeitet:
So mir langt's, E-Mail an EVGA ist raus, ne offizielle Antwort dürfte hier dann alle ruhig stellen :)
 
kriegst keine weil niemand die CHIPS außer NVidia selektiert

die Hersteller selektieren maximal fertige Boads und entsprechendes Bios
 
So mir langt's, E-Mail an EVGA ist raus, ne offizielle Antwort dürfte hier dann alle ruhig stellen :)

Bravo ;)

Doch ob die Antwort zufriedenstellend ist? Ein Ja zum selektieren würde viele Käufer der nicht Classi Karten abschrecken aus Angst "schlechte Karten" zu erwischen, ein Nein wird die Enthusiasten entäuschen die viel hingeblättert haben.
 
Die Gaming Z im OC Modus Bios gehen schon sehr hoch ... Boost lau GPU-Z dann 1911 ... unter 3D Last mit OC Modus dann oft knapp unter 2100.

Den Updater mit dem auf das Gaming Z OC Modus Bios geflasht werden konnte hat MSI aber schnell wieder von der Homepage genommen ... warum nur ?! ;)
 
Auf was soll ich denn bei deiner unfundierten Bemängelung eingehen - da gibt's leider nix;).
Außerdem habe ich bereits vor Wochen hier im MP ne ACX (non sc) die 2126/5600 mit standard Volt und offset und 2170/5600 mit curve gamestable gemacht hat verkauft http://www.hardwareluxx.de/community/showthread.php?t=1126528- kann also schon beurteilen um was es hier geht. Da ist der Chip wohl auf der falschen Platine gelandet und mit dem falschen BIOS ausgestattet worden...;)
Und du kapierst es immer noch nicht wie aus deinem letzten Post hervorgeht..
Aber hey, kein Ding - so a bisserl Lernresistenz und ne "keiner hat mich lieb" Neurose ist halb so schlimm;)...
 
Zuletzt bearbeitet:
Die war aber sicher unter Wakü oder ? Wakü und Lukü sind noch mal zwei verschiedene Paar Schuhe. ;)

Ich habe mir mal eine AIO mit 240er Radi gekauft und werde mir einen NZXT G10 besorgen.

Mal schauen wie die AMP damit geht.
 
Zuletzt bearbeitet:
Ich glaube ihr redet sowieso einander vorbei. Einige ziehen hier aus sehr unlogische Schlussfolgerungen.. Mal abwarten was EVGA schreibt.
 
Das steht doch gar nicht zur Debatte;). War nur darauf bezogen, dass ich mir erst mal ne 1080er zulegen soll ....
Aber ja war unter Wasser. Lief aber auch mit dem luftkühler über 2100 bis bestimmte Temperatur erreicht wurde - aber das sollte klar sein:).
 
Zuletzt bearbeitet:
Klärt das bitte Privat und falls es ein Ergebnis geben sollte, könnt ihr es uns ja mitteilen.
Hier hat keiner Bock sich seitenweise durch belanglosen Müll zu wühlen nur um ein paar Interessante Infos zu finden.
 
Wenn für dich dieses Thema belanglos sein sollte was angebliche Selektion der GPUs angeht, dann solltest den Thread hier besser verlassen. ;)
Vielleicht der Automobilthread was für dich?
 
Da ihr aber ohne Fakten und Quellen hier nur rumquatscht, ist das nicht ansatzweise zielführend bei euren (verhärteten) Standpunkten.
Und am Ende beschwert sich wieder jemand, dass ein und die selbe Frage andauernd gestellt wird weil keiner Lust hat über 400 Seiten durchzuforsten.

Was soll das mit dem Automobilthread?
Ich empfehle dir bei deinem Mitteilungsdrang auch nicht den Waschweiberthread ...
Ende der Diskussion.
 
So mir langt's, E-Mail an EVGA ist raus, ne offizielle Antwort dürfte hier dann alle ruhig stellen :)

nur weil sich zwei forentrolle streiten? ist doch harmlos, lass sie doch diskutieren. Da kommt eh eine Marketing Antwort ohne Inhalt

@Topic: Der Hybrid Kühler von EVGA für die 1070 / 1080 ist endlich lagernd. Hat hier zufällig wer Erfahrung mit einer Hybrid oder dem Kühler der Vorgänger version? Ich find eleider keinen test wieivel Grad besser das nun wirklich ist, komme ich mit einem Hybrid kühler unter 55 Grad GPU Temperatur unter Last ?
 
Zuletzt bearbeitet:
Gute Chancen haste ... die Hybrid Kühler User, die in USA/UK keine so seltene Spezies wie hierzulande sind, berichten oft von 45-50 Grad unter Last trotz 2100+.
 
hmmm okay, ich muss da nochmal ne nacht drüber schlafen. Meine Angst ist halt da es mir wenig vorteile in den temps bringt und auch noch lauter ist, aber was man so liest ist echt nett.
 
Wie gesagt du bist im falschen Thread!
Und Diskussionen kann man nur beenden wenn eine stattfindet;). Da keiner mit dir diskutiert hast du nix zu beenden was nicht da ist!;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh