[Sammelthread] NVIDIA GeForce GTX 1080 (GP104) Sammelthread + FAQ

NVIDIA GeForce GTX 1080 (GP104) Sammelthread + FAQ


Impressionen der Karte:

geforce-gtx-1080-pictures-15-840x560.jpg
geforce-gtx-1080-pictures-21-840x560.jpg

geforce-gtx-1080-pictures-22-840x560.jpg
geforce-gtx-1080-pictures-23-840x560.jpg

geforce-gtx-1080-pictures-27-840x560.jpg
geforce-gtx-1080-pictures-28-840x560.jpg

geforce-gtx-1080-pictures-17-840x560.jpg
geforce-gtx-1080-pictures-29-840x560.jpg

Technische Daten der GeForce GTX 1080
  • Chip = GP104-400-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 7,2 Milliarden
  • Die-Größe = 314 mm²
  • Shader-Einheiten = 2.560 (1D) (20 SMM)
  • Texture Mapping Units (TMUs) = 160
  • Raster Operations (ROPs) = 64
  • Pixelfüllrate = 102,8+ GPixel/s
  • Texelfüllrate = 257,1+ GTexel/s
  • Chiptakt = 1.607 MHz Baseclock + Boost (1.733 MHz) + Max. Boost (~1.886 MHz)
  • Speichertakt = 2.503 MHz
  • Speichergröße = 8.192 MB
  • Speichertyp = G5X
  • Speicherinterface = 256 Bit
  • Speicherbandbreite = 320,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 180 Watt
  • Leistungsaufnahme 2D = ~9 Watt
  • Versorgung über einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel
Announce the GEFORCE GTX 1080

Einzelkartentests:

Geizhals Link:
GeForce GTX 1080 | Deutschland - Preisvergleich


Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX 1080 erreicht im Leerlauf mit 0,4 Sone in etwa das Niveau der GTX 980 Ti. Der Radiallüfter dreht mit ~1.100 RPM bei 27% PWM-Stärke. Unter Last schwankt die Lautheit zwischen 3,2 Sone (~55%) bis zu (max) 4,2 Sone (62% PWM @~2.480 RPM), was etwas bis klar weniger als bei der GTX 980 Ti ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.000 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX 1080 beträgt im Leerlauf vollkommen unbedenkliche 32 °C. Unter Last (Games) steigt die Temperatur bis auf 84 °C, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt.

Wie hoch ist der Stromverbrauch?
Die GTX 1080 verbraucht im Leerlauf um die 9 Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX 1080, egal ob in Games oder im Furmark, maximal 180 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GTX 1080 eine bisher nicht erreichte Effizienz. Die Karte ist gut 60 bis 70% schneller als eine GTX 980 und verbraucht dabei aber höchstens 9% mehr.

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX 1080 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre.

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 960% (1080p), bzw. 132% (4K) und ist so im Mittel aller Reviews knapp 30% schneller als eine GTX 980 Ti und somit klar die schnellste Single-GPU-Grafikkarte.
Launch-Analyse nVidia GeForce GTX 1080 | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Pascal-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Laut den ersten Reviews sollte es machbar sein, dass jede GPU rund 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Das man kaum höhere Taktraten erreichen konnte liegt in erster Linie daran, dass bei der GTX 1080 das Power Target stark limitiert. So kann man dieses zwar per Tool auf 120% anheben (216 Watt), aber selbst das reicht nicht aus, um konstant die maximal mögliche Taktrate zu erreichen und konstant halten zu können. Mit einer besseren Kühlung und somit kühleren GPU Temperaturen und folglich einer geringeren Verlustleistung sind noch etwas höhere Taktraten erreichbar. Einen ersten Einblick bietet die PCGH mit einem verbauten Accelero Xtreme IV:
Nvidia Geforce GTX 1080 meets Accelero Xtreme IV: Die 2-GHz-Taktmauer ist gefallen

Einen Interessanten Beitrag mit Praxisbezug zum Thema Undervolting hat der User BK-Morheus veröffentlicht. In dem Video sieht man, wie man eine GTX 1070/1080 mit Hilfe des "curve editors" des Afterburners undervolten kann:
https://www.youtube.com/watch?v=UGeGLU8uh9M&ab_channel=BennyLikesTech

Was einer erhöhten OC-Performance noch im Weg stehen kann, ist die Speicherbandbreite. Obwohl nVidia mit der GTX 1080 erstmals G5X / GDDR5X Speicher verbaut (10Gbps), somit an einem 256 Bit breiten Speicherinterface 320 GB/s erreicht und die Speicherkompression nochmals verbessert hat, scheint es, dass die GPU recht stark von mehr Speichertakt profitiert. So misst Computerbase bei 10% mehr Speichertakt bis zu 9% mehr Performance - bei ansonsten Referenz-GPU-Taktraten.
Nvidia GeForce GTX 1080 im Test - ComputerBase

Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1080. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.
 
Zuletzt bearbeitet:
Hmm.. Also bei den anderen Spielen dich ich getestet habe (Witcher 3, The Division) schwankt der GPU Load doch extrem, teils bei irgendwas in den 70% bis halt 100%.
Wie gesagt Rise of the Tomb Raider ist das einzig mir bekannte Spiel das einen durchgehend GPU Load hat der kaum bis gar nicht fällt. Anbei mal ein Screenshot nach 20 Minuten RotTR.
Allerdings habe ich gemerkt das die Vcore auf der GPU nicht ausreicht, traten doch ganz leichte Grafikfehler auf. Werde jetzt mal punktuell höher gehen um zu gucken was ich für den Takt tatsächlich brauche.
Aber PT von 100% wird doch leicht überschritten, liegt in etwa bei den 105% die du auch bei Projekt Cars gennant hast.




Also ich hab in jedem meiner spiele 99-100% GPU load einfach die Grafik richtig einstellen und dein curved ist auch super schlecht +hau mal was auf den ram takt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich stell die Settings so ein das ich mit V-Sync 60Hz auch 60 fps bekomme, das dies bei 4K nur durch Detail reduzierung möglich ist sollte klar sein. was kann ich an der "curved" verbessern ?
Für mich war der sinn der Kurve immer das ich die Vcore der GPU auf einen festen Wert fixen konnte, habe auch in der NV Systemsteuerung statt "optimale Leistung" maximale Leistung aktiviert.
Ja am Ram traue ich mich irgendwie nicht ran :haha:
 
Vsync, dadurch ist die Sache mit der Load klar. Zum GPU Testen natürlich weniger gut, zum Zocken halt jeder wie er mag.
 
Zuletzt bearbeitet:
Erstmal nen offset rein machen das du so auf auf dein Wunsch wert kommst Apple drücken und dann nur den einen Punkt vom wunsch takt auf die Wunsch Spannung ziehen und Apple drücken , dann hast du auch nicht so nen mega knick drin.
 
Und ich hab mich schon gewundert wie man unter 99% Load bei RotTR in 4K kommt. So wird ein Schuh draus, und das erklärt auch alle anderen "nicht 99%"-Load Zustände.
Bei RotTR geht das ja schon locker in FHD los.

 
Zuletzt bearbeitet:
Erstmal nen offset rein machen das du so auf auf dein Wunsch wert kommst Apple drücken und dann nur den einen Punkt vom wunsch takt auf die Wunsch Spannung ziehen und Apple drücken , dann hast du auch nicht so nen mega knick drin.

Ok das leuchtet ein, werde ich mal ausprobieren.

edit: Habe es jetzt ohne V-Sync probiert, die Karte klebt jetzt praktisch immer am GPU-Limit(RotTR). Nun gibt es auch deutlich sichtbare Grafikfehler bei 2112 Mhz Gpu-Takt, aber spielen könnte ich so nicht ohne V-Sync.
Werde wohl von daher wieder V-sync aktivieren, und mich freuen das die GPU nicht ständig vollen Load hat.
 
Zuletzt bearbeitet:
heyho,

hoffe mir kann jemand netterweise diese Frage beantworten, da ich keine wirklich klare Aussage hierzu gefunden habe :)

Ich habe seit einigen Tagen meine Palit 1080 JetStream im Rechner am Laufen..
Bis jetzt habe ich keinerlei manuelles OC betrieben, denn ich interesse mich eher dafür erstmal generell ein anderes Bios zu flashen.

So nun die erste Frage: Ist es "bedenkenlos" möglich das neueste Bios der Super Jetstream (auf der Palit Seite wurde vor einigen Tagen eine neue Version veröffentlicht) auf meine JetStream zu flashen?
Oder soll ich doch das Gamerock Premium Bios nehmen? - wobei ich hier gelesen habe, dass die Gamrock 8 Phasen GPU und 2 Phasen Memory hat, und die Jetstreams nur insgesamt 8 ...nicht das es hier zu Problemen kommt..

Zudem habe ich dann noch die Frage: Laut Garantie Übersicht von Computerbase, darf ich bei Palit nur mit dem Thundermaster OCen...Das tool ist ******** und würde hier natürlich lieber den MSI Afterburner nehmen.....was sagt ihr? ^^
 
Nö, bedenkenlos ist ein Flash nie, Grundsätzliche, völlig unabhängig davon ob das Bios laufen wird oder nicht. Wenn Du die Karte zerhackst (aus was für Gründen auch immer) musst Du schon eine Notfall-Option haben um das Original-Bios zurückzuspielen.

Und ich frage mich ganz ehrlich ... wie soll Dir Palit nachweisen mit welcher Software Du an den Takten der GPU gespielt hast?
 
Zuletzt bearbeitet:
Und ich hab mich schon gewundert wie man unter 99% Load bei RotTR in 4K kommt. So wird ein Schuh draus, und das erklärt auch alle anderen "nicht 99%"-Load Zustände.
Bei RotTR geht das ja schon locker in FHD los.


Beeindruckend die Leistung vom Pascal X OC!
 
Nö, bedenkenlos ist ein Flash nie, Grundsätzliche, völlig unabhängig davon ob das Bios laufen wird oder nicht. Wenn Du die Karte zerhackst (aus was für Gründen auch immer) musst Du schon eine Notfall-Option haben um das Original-Bios zurückzuspielen.

Und ich frage mich ganz ehrlich ... wie soll Dir Palit nachweisen mit welcher Software Du an den Takten der GPU gespielt hast?

Wäre die "Notfall-Option" nicht aus dem 2ten Bios heraus (da Dual-Bios) das Stock Bios wieder zu flashen?
 
Eben ist meine 1080er mit Morpheus auf 97°c angestiegen. WTF?

Hab nur Mafia3 in 4k angespielt.

Hab die Hosen jetzt ziemlich voll um erlich zu sein. :eek:
 
Würde sagen da sitzt der Kühler nicht richtig.

Gesendet von meinem SM-G900F mit der Hardwareluxx App
 
Ne, war was anderes: Ich regel die Lüfter normalerweise über Speedfan, dieser hatte aus irgenteinem Grund beschlossen alle Lüfter auf 0% zu stellen. :mad: Sehr komisch, passiert mir zum ersten mal und muss es wohl im Auge behalten.

Mafia 3 kann ich absolut nicht empfehlen. Habs auch direkt mal refunded... :(
 
Zuletzt bearbeitet:
Hat hier jemand eine Gigabyte Xtreme Gaming Karte und könnte für mich mal ausmessen wieviel breiter das PCB als die Slotblende ist? Please :hail:
 
Hat hier jemand eine Gigabyte Xtreme Gaming Karte und könnte für mich mal ausmessen wieviel breiter das PCB als die Slotblende ist? Please :hail:

Du meinst um wie viel cm das PCB die Slotblende überragt ? Weil der kühler ja im Endeffekt das äußerste Teil der Karte ist.


Gesendet von iPhone mit Tapatalk
 
Du meinst um wie viel cm das PCB die Slotblende überragt ? Weil der kühler ja im Endeffekt das äußerste Teil der Karte ist.


Gesendet von iPhone mit Tapatalk

Ja habe auch gerade gemerkt dass der EK Block für die G1 und nicht für die Xtreme Dings ist, vergessen wir es...
 
Ich habe jetzt den Referenzkühler abmontiert, neue WLP (Gelid Extreme) aufgetragen und den Kühler gegen den anderen von Caseking getauscht. Lüfterrattern ist verschwunden, habe mir das also nicht eingebildet. Zudem hat sich die temperatur um 5-6° gebessert auf maximal 77° bei angepasster Lüfterkurve (maximal 45%) und 0,925V @1930mhz.
Ausserdem ist mir aufgefallen, dass die Backplate scheinbar nur zu Dekozwecken und für die Stabilität da ist. Da ich noch jede Menge Phobya Wärmeleitpads übrig hatte (1,5mm), habe ich die gleichen Stellen die auf der Vorderseite gekühlt werden, quasi über die Wärmeleitpads mit dem Backplate "verbunden". Obs was bringt weiß ich nicht, aber schaden kanns auch nicht.
Auch wenn die wenigsten den FE Kühler mögen, ich mag ihn schon und wenn ich mir die Temperaturen anderer Custom Karten so ansehe, dann ist das absolut im Rahmen und mit 45%-50% ist er echt erträglich. Nervig (subjektiv) wird er erst ab 60-65%
 
Zuletzt bearbeitet:
Die G1 und ExtremeG ähneln sich doch. Aif dem G1 PCB sind nur ein paar Sachen nicht belegt und nen 2er 8Pol Strom Anschluss.
 
PCB Abmessungen oder redest du vom Kühler ?

Lustig wieso das G1 denn nicht vollausgebaut ist ^^. Was sich GB da wohl gedacht hat
 
Zuletzt bearbeitet:
Meine Inno3D iChill X3 ist gestern angekommen, bei 100% Lüftergeschw. bei mir (da lauter D15 und Gehäuselüfter) nicht rauszuhören :eek:

hab ihr jetzt ohne mV draufzuegebn, 80MHz mehr gegeben und WoW läuft damit schon rund bei ~2114MHz bei rund ~58°-63°C
 
Zuletzt bearbeitet:
Nö. Bei Pascal ist der Chip die Bremse, nicht die Kühlung. Du wirst mit der Wakü genau so weit kommen wie mit Lukü. Das ganze ist nur nicht mehr so eine Berg und Talbahnfart vom Takt her.

gleiches Spiel bei mir, takt wird unter Wasser gehalten und ist stabil und zwischen 25-50 mhz mehr, also fast gleich wie vorher
 
Wie sind denn die Erfahrungen bezüglich Spulenfiepen? Grade bei der Founders für mich Interessant ,da Wakü geplant?

Hatte mit meinem Letzten 3 Karten diesbezüglich nur Pech( GTX970- extremes Fiepen, GTX680- Fast genau so schlimm, HD7870XT - die Schlimmste von allen)
 
3DCenter Forum - Einzelnen Beitrag anzeigen - SLI - Kompatibilitätsbits - Sammelthread bitte. Ich hab mal einen anderen gefragt, und der bestätigt mal wieder was Du für Quark erzählst^^

Oh mein Gott :lol: :lol: :lol:
Du hast ein Beitrag gefunden wo steht QB läuft kein SLI dann Postest gleich wieder ein Mist wo du selber nicht Beweisen kannst.
Ich kann dir 100 solche Beiträge finden ;)
Powerplay hier im Forum hat auch QB SLI zum laufen gebracht mit WatchDogs Bits. Er hat zwei GTX TITAN X. Du kannst ihn auch Fragen, er wird dir was anderes erzählen :haha:
Bei Powerplay ruckelt es teilweise wir Wissen aber nicht von was es kommt, bei mir ruckelt es null.

Wenn ich meine zweite Karte wieder am Mittwoch habe dann mache ich ein Video. Bevor du jetzt ankommst und sagst du hast keine zweite GPU und Bla und Blub.
Kannst du den User Aki im Forum anschreiben und Fragen hat der Scharif seine zweite Karte Ausgeliehen der wird dann auch mit Jaaaaaaaaaa beantworten.

Vorab ein andere Video wo ich Beweisen kann das die beide Karten sehr gut Ausgelastet sind. genau so habe ich das gemacht und bei mir läuft das Spiel extrem flüssig.
Kann deine Schwachsinn nicht mehr Lesen über SLI. Kauf dir einfach zweite Karte und teste Selber bevor du immer wieder 5 Jahre Alte Screens Postet und mit der Leier kommst.
Ehrlich du hast in jeder Hinsicht Glaubhaftigkeit bei mir verloren weil du selber nichts belegen kannst. Mach dein eigene Test belege es dann Spreche ich mit dir in eine Augen höhe bis dahin wyne.

Deine Tolle Mafia III läuft nicht mal anständig mit einer Karte aber mit SLI soll es laufen oder, was sind das für vergleiche.
Du erwartest also das Mafia III mit SLI laufen soll???? Wenn nicht mal Single GPU auf diesem Kack Game läuft.

http://www.pcgameshardware.de/Mafia...atch-gegen-Framelock-veroeffentlicht-1209933/

Das Spiel hat nicht Umsonst Shitstorm Ausgelöst im Steam.
 
Zuletzt bearbeitet:
Wie sind denn die Erfahrungen bezüglich Spulenfiepen? Grade bei der Founders für mich Interessant ,da Wakü geplant?

Hatte mit meinem Letzten 3 Karten diesbezüglich nur Pech( GTX970- extremes Fiepen, GTX680- Fast genau so schlimm, HD7870XT - die Schlimmste von allen)

Hat sich nicht geändert. Lotterie. Ich kann mich seit Jahren an keine Graka erinnern die in irgend einer Form lautlos war. Meine 1080FE hat da keine Ausnahme gemacht.

@Sharif
Was willst Du eigentlich. Mir erzählen ich soll Dich nicht fragen, und wenn ich andere Frage, dann haben die alle keinen Plan. Dann bist Du doch das Maß aller Dinge und ich muss Dich fragen, jedenfalls lässt Du es so raushängen^^
Hauptsache Du kannst ein Fass aufmachen.
Der erzählt doch auch gar nicht das es nur Ruckelt. Der erzählt das er Grafik-Fehler hat^^

- - - Updated - - -

Beeindruckend die Leistung vom Pascal X OC!

Sind keine Ultra-Settings, also nix falsches vermuten. Ich hab meine So-Zocke-Ich-in-4K-Settings genommen für den Bildvergleich.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh