[Sammelthread] NVIDIA GeForce GTX 1070 (GP104) Sammelthread + FAQ

NVIDIA GeForce GTX 1070 (GP104) Sammelthread + FAQ


Impressionen der Karte:

geforce-gtx1070-1-840x560.jpg

geforce-gtx1070-2-840x560.jpg

geforce-gtx1070-9-840x560.jpg

geforce-gtx1070-10-840x560.jpg

geforce-gtx1070-11-840x560.jpg

geforce-gtx1070-3-840x560.jpg

geforce-gtx1070-4-840x560.jpg

geforce-gtx1070-5-840x560.jpg

Technische Daten der GeForce GTX 1070
  • Chip = GP104-300-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 7,2 Milliarden
  • Die-Größe = 314 mm²
  • Shader-Einheiten = 1.920 (1D) (15 SMM)
  • Texture Mapping Units (TMUs) = 120
  • Raster Operations (ROPs) = 64 (48)
  • Pixelfüllrate = 72,3+ GPixel/s
  • Texelfüllrate = 180,7+ GTexel/s
  • Chiptakt = 1.506 MHz Baseclock + Boost (1.683 MHz) + Max. Boost (~1.880 MHz)
  • Speichertakt = 4.007 MHz
  • Speichergröße = 8.192 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 256 Bit
  • Speicherbandbreite = 256,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 150 Watt
  • Leistungsaufnahme 2D = ~9 Watt
  • Versorgung über einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Geizhals Link:
GeForce GTX 1070 | Deutschland - Preisvergleich



Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX 1070 erreicht im Leerlauf mit 0,4 Sone genau den selben Wert der 1080. Der Radiallüfter dreht mit ~1.100 RPM bei 27% PWM-Stärke. Unter Last schwankt die Lautheit zwischen 2,5 Sone (~50%) bis zu (max) 2,9 Sone (53% PWM @~2.120 RPM), was deutlich weniger als bei der GTX 1080 ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.000 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX 1070 beträgt im Leerlauf vollkommen um die 32 °C. Unter Last (Games) kann die Temperatur auf bis zu 84 °C steigen, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Allerdings erreicht die 1070 zumindest im Freiluftbetrieb gerade so die 80-81 °C, was dazu führt, dass die Karte, anders als bei der 1080, die Taktraten nicht wegen der Temperatur, sondern durch das enge Powerlimit, senkt.

Wie hoch ist der Stromverbrauch?
Die GTX 1070 verbraucht im Leerlauf um die 9 Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX 1070, egal ob in Games oder im Furmark, maximal 150 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GTX 1070 eine sehr hohe Effizienz.

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX 1070 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 800% (1080p), bzw. 107% (4K) und ist so im Mittel aller Reviews rund 7% schneller als eine GTX 980 Ti und damit auch schneller als eine Titan X (stock). Die GTX 1080 ist im Vergleich zur 1070 rund 20% (1080p), bzw. 23% schneller (4K).
Launch-Analyse nVidia GeForce GTX 1070 | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Die 1070 verhält sich bezüglich der Taktraten sehr ähnlich wie die 1080. Laut den ersten Reviews sollte es machbar sein, dass jede GPU rund 1,95 bis 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Das man kaum höhere Taktraten erreichen konnte liegt in erster Linie daran, dass bei der GTX 1070 das Power Target stark limitiert. So kann man dieses zwar per Tool auf 112% anheben (168 Watt), aber selbst das reicht nicht aus, um konstant die maximal mögliche Taktrate zu erreichen und konstant halten zu können. Mit einer besseren Kühlung und somit kühleren GPU Temperaturen und folglich einer geringeren Verlustleistung sind noch etwas höhere Taktraten erreichbar.

Einen Interessanten Beitrag mit Praxisbezug zum Thema Undervolting hat der User BK-Morheus veröffentlicht. In dem Video sieht man, wie man eine GTX 1070/1080 mit Hilfe des "curve editors" des Afterburners undervolten kann:
https://www.youtube.com/watch?v=UGeGLU8uh9M&ab_channel=BennyLikesTech

Was einer erhöhten OC-Performance noch im Weg stehen kann, ist die Speicherbandbreite. Die 1070 besitzt zwar die Rechenleistung einer 980 Ti oder Titan X, allerdings nur rund 76% deren Speicherbandbreite. Gerade bei hohen GPU-Taktraten kann die durch das 256 Bit breite Speicherinterface und den 8 Gbps starken Speicher erreichte Bandbreite zu gering für eine deutliche Skalierung sein.

Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1070. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.
 
Zuletzt bearbeitet:
Hör auf dem Jungen die CPU madig zu machen. Mit nem schnellen i5 kann man noch sehr lange zocken. Außerdem kann er sich in zwei Wochen nen Kaby i7 drauf stecken, mit dem er dich dann niederrippt ohne Ende.
 
Zuletzt bearbeitet von einem Moderator:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zum Thema BF1. Nen i5 wirst auch nach Patch für Patch in die Tonne treten können da dieser einfach kein HT kann. Mit einem i7 bin ich jetzt in Extrem Situationen teilweise fast doppelt so schnell unterwegs nur durch die CPU im Gegensatz zu einem i5 IVY @4,5 Ghz... :d

Ich denke bei BF1 ist in niedrigeren Einstellungen ein übertakteter Sechskerner am Besten. Bei vier Kernen würde ich heute keinen Prozessor ohne HT mehr nehmen, dieser ist aber in der Neuanschaffung so teuer wie ein X99-Prozessor. Kerne lohnen immer.

Unter "2K" verstehen die meisten wie auch ich 2560 x 1440. 4K sind 3840 x 2160.
 
Hör auf dem Jungen die CPU madig zu machen. Mit nem schnellen i5 kann man noch sehr lange zocken. Außerdem kann er sich in zwei Wochen nen Kaby i7 drauf stecken, mit dem er dich dann niederrippt ohne Ende.

Bei BF1 ist das eben so. Auch in anderen Games bei mehr als 60 Hertz ist ein i5 deutlich langsamer... Einen i5 in BF1 kann man wie gesagt in die Tonne treten. Mein i7 6700K hat hier schon ordentlich zu tun und dann so eine Mumpitzbehauptung mit einer 1070 und i5 bei 105 FPS... Sorry aber das muss wirklich nicht sein... Ich hab das Game selber und weiß was Sache ist auf volllen 64er Servern auch wenn ich in 1440p zock ;)
 
Zuletzt bearbeitet:
Stell mal HT aus und benche nochmal... In 60 Hz konnte ich sogar bei meiner Sandy keinen Unterschied spüren.
 
Wer zockt eigentlich BF immer noch mit 60 Hertz?! Bäh grausam :haha: Mortz Grafikkarten im Rechner und dann mit lahmen 60 Hertz Monitor-Krücken rum eiern :confused:
 
Zuletzt bearbeitet:
Wer zockt BF1 bitte mit <UHD, echt grausam... :asthanos:

Bzgl. i5:
Hatte da mal was im Luxx BF1 Thread zu geschrieben:
So, hab mal kurz die freie Stunde in der Früh genutzt, um zu Benchen. HT on vs HT off, 2600K @ 4,8 / 32GB @ 2133
Settings @ Ultra (ohne AA) 720p (beim ersten Bench noch mit 25% resscale, brauchts aber nicht für CPU Limit und spielen kann man so auch nicht, deswegen für die letzten 3 -> resscale 100%), Benchdauer 360 Sek. :

1.Bench: HT off/Suez/64pl
2.Bench: HT off/Amiens/64pl
3.Bench: HT on/Suez/64pl
4.Bench: HT on/Amiens/64pl

Bin immer in aktive Schlachten eingestiegen, immer versucht möglichst nah bei der Action zu sein (beim 3. Bench ging es besonders Chaotisch zu: 32vs32 Baserape+Armoured Train Beschuss).

In Kurzfassung:

HT off:

2016-11-24 09:41:05 - bf1
Frames: 42596 - Time: 360000ms - Avg: 118.322 - Min: 68 - Max: 183

2016-11-24 09:53:42 - bf1
Frames: 41218 - Time: 360000ms - Avg: 114.494 - Min: 68 - Max: 190

HT on:

2016-11-24 10:21:33 - bf1
Frames: 43128 - Time: 360000ms - Avg: 119.800 - Min: 82 - Max: 189

2016-11-24 10:32:13 - bf1
Frames: 47033 - Time: 360000ms - Avg: 130.647 - Min: 98 - Max: 191

Hier die DP mit allen Benchmarks: https://www.dropbox.com/sh/hlhf7pz4l9jbb32/AAAmwd7krOpHeuUjVK83B1Kya?dl=0

Frametimes waren ohne HT auch gut (siehe Screens in der DP), wenn auch etwas unregelmäßiger. Fazit: habe mit dem 60 Hz Monitor keinen Unterschied gemerkt, wohlgemerkt @ Ultra. Die absoluten Werte spiegeln natürlich ein deutliches Plus in den min. FPS wieder.

Disclaimer: Natürlich sind die absoluten Zahlen wenig aussagekräftig, da im Multiplayer einfach keine Reproduzierbarkeit gegeben ist. Für bessere Ergebnisse müsste man die Tests mehrmals wiederholen, wegen Zeitmangel allerdings keine Option.

Natürlich sollte man die min FPS nicht für bare Münze nehmen. Viel interessanter wären die 0.1% lowest etc., das sollte ich mal nachträglich auswerten.

Meine Meinung ist dementsprechend: 2500K mit ordentlich OC und schnellem RAM ist für BF1 in 60Hz absolut zufriedenstellend. Natürlich wird er hin und wieder limitieren, wichtig ist eben, dass die FPS passen.
 
Um länger was von der Grafikkarte zu haben? :love:
 
Jup bei mir kommt es auch morgen :d

Ich freue mich schon richtig, zum ersten mal SLI anzuwenden :xmas:
 
Bin auf den Bericht gespannt ;)
Dann kann ich auch endlich meinen Benchrechner auf dem Benchtable in Betrieb nehmen. Bastel an dem Ding ständig rum, aber gestartet habe ich ihn schon ne ganze Weile nicht mehr... :fresse:
 
@Doom
Es gibt auch Leute die sich die Hardware zusammen sparen und dann dauert das halt noch ein wenig.
 
Zuletzt bearbeitet:
Der Bericht wird kommen :) Aber erwarte keine wunder mit meinen AMD unterbau ^^

@adioloco

Genau :)
 
Der Bericht wird kommen :) Aber erwarte keine wunder mit meinen AMD unterbau ^^

UHD oder höher mit DSR und dann läuft das schon ;) Wollen ja auch gefordert werden, die Kärtchen.
 
Wobei ich da nicht zu einem alten TN greifen würde ;) Der Monitor bleibt ja meist mehrere Hardwaregenerationen erhalten, da sollte man also keine Abstriche machen, soweit möglich :wink:

Bis dahin aber erstmal mit DSR testen, was so geht (und das wird ne ganze Menge sein :P )
 
60 Hertz bleiben 60 Hertz egal welche Auflösung,,,.. Die Ruckelorgie ist für mich nix... :haha: Das sieht man aber erst wenn man mal wirklich deutlich mehr als 60 Hertz erlebt hat.... :d
 
Zuletzt bearbeitet:
Naja, mit DSR wird es aber richtig teuer ^^
 
Dynamic Super Resolution? Das kostet nur GPU Power ;)
 
60 Hertz bleiben 60 Hertz egal welche Auflösung,,,.. Die Ruckelorgie ist für mich nix... :haha: Das sieht man aber erst wenn man mal wirklich deutlich mehr als 60 Hertz erlebt hat.... :d
Hatte 144Hz/1080p/TN/24" und zuletzt 144Hz/1440p/IPS/27"... Hab ich alles schon durch ;)
 
Naja, relativier das mal, dann geht das schon klar. Für mich war es definitiv die lohnenswerteste Investition im PC Bereich seit dem Umstieg von Dual auf Quadcore ;)

Aber wie gesagt. Einfach mal mit deinem jetzigen Monitor im Treiber DSR auf 4x und dann im Spiel die 3840x2160 auswählen, dann hast du einen kleinen Vorgeschmack. Die GPUs werden da auch mit dem AMD beschäftigt sein.
 
Zuletzt bearbeitet:
Glaub ich dir ja, aber ich hab halt auch noch vor von AMD's FX wegzukommen und das so schnell wie möglich.

Deshalb ist ja schon die Intel Plattform als alternative drin.

Beim Monitor mit DSR kommt gerade mal der hier in Frage:

27'' (68,58cm) Asus ROG Swift PG27AQ schwarz

Für das Geld hätte ich ne neue geile Plattform :d

Aber wie gesagt. Einfach mal mit deinem jetzigen Monitor im Treiber DSR auf 4x und dann im Spiel die 3840x2160 auswählen, dann hast du einen kleinen Vorgeschmack. Die GPUs werden da auch mit dem AMD beschäftigt sein.

Ach das meinst du, das ist aber kein wirkliches 4k und hatte ich schon getestet und war richtig schwammig. Aber kann ich mit SLI ja noch mal versuchen kann ja sein das auch Grafikkarte schon da überfordert alleine war.
 
Zuletzt bearbeitet:
Tja, so kanns eben gehen... ;)
Hat eben jeder seine Prioritäten. Mein Rechner ist eben nur zu einem Bruchteil zum Vergnügen gedacht und auch hier bin ich längst nicht mehr auf dem "competetiven" Niveau, wie damals.

Aber die Diskussion brauchts hier nun wirklich nicht.... :wink:

PS: War sogar einer der ersten mit 1440p/IPS/144Hz. Ist bei mir damals sofort in der Vorbestellung gelandet.
 
Zuletzt bearbeitet:
Ach das meinst du, das ist aber kein wirkliches 4k und hatte ich schon getestet und war richtig schwammig. Aber kann ich mit SLI ja noch mal versuchen kann ja sein das auch Grafikkarte schon da überfordert alleine war.

Genau. Ja, da musst du etwas mit dem Glättungsfaktor rum experimentieren. Schrift etc. wird dabei im Spiel natürlich etwas unscharf, wenn es nicht nativ ist. In einigen Spielen gibt es aber eine Auflösungsskalierung, da wird dann auch nur der 3D Inhalt skaliert (bspw. in BF1 auf 200% entspricht UHD bei FHD nativ).
 
Ich bleib bei meiner Meinung! :) 144 Hertz oder nur 60 Hertz erkennt man sofort... UHD würde ich vernachlässigen und 144 Hertz jederzeit vorziehen vor allem bei schnellen Shootern.... :d
(bspw. in BF1 auf 200% entspricht UHD bei FHD nativ).
Kommt ganz auf die Auflösung an. Bei mir wären das weit über UHD :haha:
 
Zuletzt bearbeitet:
Ich bleib bei meiner Meinung! :) 144 Hertz oder nur 60 Hertz erkennt man sofort... UHD jederzeit vorzuziehen vor allem bei schnellen Shootern.... :d

Ich habe auch absolut kein Problem damit, aber mir brauchst du zu dem Thema auch nichts mehr erzählen ;) wie gesagt, hab ich alles durch.

PS: ich persönlich würde definitiv nicht das eine oder das andere immer bevorzugen. Aber in einen sauren Apfel muss man eben beißen (nach heutigem Stand) :wink:
 
Zuletzt bearbeitet:
Also für mich ist das 2560x Auflösung.. Full HD ist 1080P

Das wäre 2.5k.

2k beschreibt eine Auflösung von 2048x1080. Klassisches Full-HD ist da also definitiv näher dran als 1440p.

- - - Updated - - -

Unter "2K" verstehen die meisten wie auch ich 2560 x 1440. 4K sind 3840 x 2160.

Auch das ist falsch. 4k wird streng genommen falsch benutzt, weil es eine Auflösung von 4096 impliziert. 3840x2160 ist schlichtweg UltraHD.

Die Bezeichnung 4k/2k ist eigentlich unsinnig im PC-Bereich, da es klassische Filmformate sind, die so nicht/nie üblich waren am PC.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh