[Sammelthread] NVIDIA GeForce GTX 1070 (GP104) Sammelthread + FAQ

NVIDIA GeForce GTX 1070 (GP104) Sammelthread + FAQ


Impressionen der Karte:

geforce-gtx1070-1-840x560.jpg

geforce-gtx1070-2-840x560.jpg

geforce-gtx1070-9-840x560.jpg

geforce-gtx1070-10-840x560.jpg

geforce-gtx1070-11-840x560.jpg

geforce-gtx1070-3-840x560.jpg

geforce-gtx1070-4-840x560.jpg

geforce-gtx1070-5-840x560.jpg

Technische Daten der GeForce GTX 1070
  • Chip = GP104-300-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 7,2 Milliarden
  • Die-Größe = 314 mm²
  • Shader-Einheiten = 1.920 (1D) (15 SMM)
  • Texture Mapping Units (TMUs) = 120
  • Raster Operations (ROPs) = 64 (48)
  • Pixelfüllrate = 72,3+ GPixel/s
  • Texelfüllrate = 180,7+ GTexel/s
  • Chiptakt = 1.506 MHz Baseclock + Boost (1.683 MHz) + Max. Boost (~1.880 MHz)
  • Speichertakt = 4.007 MHz
  • Speichergröße = 8.192 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 256 Bit
  • Speicherbandbreite = 256,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 150 Watt
  • Leistungsaufnahme 2D = ~9 Watt
  • Versorgung über einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Geizhals Link:
GeForce GTX 1070 | Deutschland - Preisvergleich



Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX 1070 erreicht im Leerlauf mit 0,4 Sone genau den selben Wert der 1080. Der Radiallüfter dreht mit ~1.100 RPM bei 27% PWM-Stärke. Unter Last schwankt die Lautheit zwischen 2,5 Sone (~50%) bis zu (max) 2,9 Sone (53% PWM @~2.120 RPM), was deutlich weniger als bei der GTX 1080 ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.000 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX 1070 beträgt im Leerlauf vollkommen um die 32 °C. Unter Last (Games) kann die Temperatur auf bis zu 84 °C steigen, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Allerdings erreicht die 1070 zumindest im Freiluftbetrieb gerade so die 80-81 °C, was dazu führt, dass die Karte, anders als bei der 1080, die Taktraten nicht wegen der Temperatur, sondern durch das enge Powerlimit, senkt.

Wie hoch ist der Stromverbrauch?
Die GTX 1070 verbraucht im Leerlauf um die 9 Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX 1070, egal ob in Games oder im Furmark, maximal 150 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GTX 1070 eine sehr hohe Effizienz.

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX 1070 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 800% (1080p), bzw. 107% (4K) und ist so im Mittel aller Reviews rund 7% schneller als eine GTX 980 Ti und damit auch schneller als eine Titan X (stock). Die GTX 1080 ist im Vergleich zur 1070 rund 20% (1080p), bzw. 23% schneller (4K).
Launch-Analyse nVidia GeForce GTX 1070 | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Die 1070 verhält sich bezüglich der Taktraten sehr ähnlich wie die 1080. Laut den ersten Reviews sollte es machbar sein, dass jede GPU rund 1,95 bis 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Das man kaum höhere Taktraten erreichen konnte liegt in erster Linie daran, dass bei der GTX 1070 das Power Target stark limitiert. So kann man dieses zwar per Tool auf 112% anheben (168 Watt), aber selbst das reicht nicht aus, um konstant die maximal mögliche Taktrate zu erreichen und konstant halten zu können. Mit einer besseren Kühlung und somit kühleren GPU Temperaturen und folglich einer geringeren Verlustleistung sind noch etwas höhere Taktraten erreichbar.

Einen Interessanten Beitrag mit Praxisbezug zum Thema Undervolting hat der User BK-Morheus veröffentlicht. In dem Video sieht man, wie man eine GTX 1070/1080 mit Hilfe des "curve editors" des Afterburners undervolten kann:
https://www.youtube.com/watch?v=UGeGLU8uh9M&ab_channel=BennyLikesTech

Was einer erhöhten OC-Performance noch im Weg stehen kann, ist die Speicherbandbreite. Die 1070 besitzt zwar die Rechenleistung einer 980 Ti oder Titan X, allerdings nur rund 76% deren Speicherbandbreite. Gerade bei hohen GPU-Taktraten kann die durch das 256 Bit breite Speicherinterface und den 8 Gbps starken Speicher erreichte Bandbreite zu gering für eine deutliche Skalierung sein.

Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1070. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.
 
Zuletzt bearbeitet:
:fresse: - in 95% macht die 0 Unterschied... habe ich erst wieder festgestellt als ich die SM961 verbaut habe. :wink:

Edit: Btw fand ich die Ultra II z.b. wesentlich besser als die 850 Evo, eventuell ist das durch Firmwareupdates besser geworden - ich muss mal gucken ob ich irgendwo die Vergleiche noch habe - die 850 Evo arbeitet nämlich im Laptop (hatte dort eine 2011er Kinston HyperX abgelöst).
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Solange da VRM-Kühlplättchen drauf sind... Ohne würde ich das nicht machen. Liegt aber auch an meiner eigenen Erfahrung mit sowas. Wenn einem 500 € oder 1000 € nicht weh tun ist es ja egal. Ich weiß auch nicht wie es bei Kühlerwechsel und Zotac aussieht, aber bestimmt besser als bei Gainward.

Zotac lässt den Kühlerwechsel zu solange man nichts beschädigt und im Falle einer RMA eine Karte im Zustand der Normalbestückung abliefert. Also alles kein Problem.

WLP hab ich schon gegen Kryonaut getauscht - hat die Lüfterdrehzahl von 2400+ rpm unter max. Last auf 1560 rpm unter max. Last gesenkt. Temperatur bleibt fast identisch - 1-2K kühler als vorher. Da war ne sehr trockene Pampe sehr dick drauf.

Ich würde mal sagen, dass die VRM mit den Stock-VRM Kühler gut dastehen und ein NF12 schon reichlich Druck aufbaut bei 800rpm. Ich teste das, wenn der Kühler da ist. :)

Er ist nicht offiziell für die Karte geeignet ( erst der Twin Turbo II und III ) aber mal ehrlich -> 200W für den Mono und eine 1070 liefert weniger.
 
960Gb Ultra II ... kostet nicht [mehr] die Welt und geht gut. Meine wird bald 2 Jahre alt... :fresse:

Unter Umständen nutzt die Micron-Speicher. Ich habe da leider nicht so den Überblick. Die EVO ist auf jeden Fall gehobene Klasse, ich glaube 150 oder 300 TBW und fünf Jahre Garantie.

:fresse: - in 95% macht die 0 Unterschied... habe ich erst wieder festgestellt als ich die SM961 verbaut habe. :wink:

Edit: Btw fand ich die Ultra II z.b. wesentlich besser als die 850 Evo, eventuell ist das durch Firmwareupdates besser geworden - ich muss mal gucken ob ich irgendwo die Vergleiche noch habe - die 850 Evo arbeitet nämlich im Laptop (hatte dort eine 2011er Kinston HyperX abgelöst).

Handelt es sich dabei um eine mit 120 GB? Die sind immer schlechter. Bei allen anderen gibt es keine Geschwindigkeitsunterschiede.
 
500er 850 Evo - Ende 2014/Anfang 2015 gekauft - war ja das erste Modell was Verfügbar war.

Die Ultra II 960 verwendet TLC Toggle (19nm, Toshiba)
 
@ HW-Mann

auf der GTX 970 hatte ich auch den Mono ! ging allererste Sahne.

ich würde auch mal schauen welche Temps deine GPU macht, wenn du "nur" nen anderen Lüfter draufsetzt.
die direkte Verbindung der VRMs zum Kühler ist schon ne feine Sache.

zum SSD Offtopic:
Bisher laufen nur Crucials bei mit daheim.
alle ohne Fehler.

Samsung oder selbst SanDisk würde ich aber auch nehmen ;)

mal schauen.
 
Ich pers. mag die Marvell Controller sehr - die meisten meiner SSDs hatten Marvellcontroller, keinerlei Ausfälle. :bigok:

Bzgl. Accelero Mono @GTX1070: ist kein Problem - der Kühler hat mehr Dampf als die von den Mini-Varianten. :)
 
Hier mal der Original-Zotac Mini Kühler.

Man sieht hier folgendes:
- 2 8er und 1 6er Heatpipe
- die Alu-Lamellen sind aber nicht durchgehend sondern in 3-4 "Blöcken", die auch nur solala verbunden sind
-> 1 Block rechts der Mitte ist somit garnicht von einer Heatpipe angebunden, sondern nur solala von der ganz rechten Seite - ob das nicht paar Grad kostet ?
- durch die inkonsistente Machart des Kühlers geht auch viel Fläche verloren

-> Die VRM haben einen eigenen kleinen Kühler drauf, da ist nicht mit dem Komplettkühler da verbunden!

p3110268iouk7.jpg
 
oha !! ist das ne 1070er ?

hab Bilder von der 1080 gesehen da waren die VRMs mit dem Kühler verbunden.

dann spricht ja mal garnix mehr gegen den anderen Kühler
 
:fresse: - in 95% macht die 0 Unterschied... habe ich erst wieder festgestellt als ich die SM961 verbaut habe. :wink:

Edit: Btw fand ich die Ultra II z.b. wesentlich besser als die 850 Evo, eventuell ist das durch Firmwareupdates besser geworden - ich muss mal gucken ob ich irgendwo die Vergleiche noch habe - die 850 Evo arbeitet nämlich im Laptop (hatte dort eine 2011er Kinston HyperX abgelöst).

Naja wirklich JEDER der dutzenden Tests sagt was anderes, meine 3 850 Evos laufen taddellos und bringen auch die Werte wiese sollen. Hab nie ein Firmware Update gemacht, das war nur mal bei der 840 Evo n problem.

- - - Updated - - -

Unter Umständen nutzt die Micron-Speicher. Ich habe da leider nicht so den Überblick. Die EVO ist auf jeden Fall gehobene Klasse, ich glaube 150 oder 300 TBW und fünf Jahre Garantie.



Handelt es sich dabei um eine mit 120 GB? Die sind immer schlechter. Bei allen anderen gibt es keine Geschwindigkeitsunterschiede.

die 250er sind auch langsamer, aber netmehr so extrem.
 
Tests und Nutzerverhalten/Alltagsnutzung ist was anderes...

Die Frage ist halt: Merkt man denn den Unterschied? Ich sage 0, absolut überhaupt nicht. :wink: (Außer natürlich wenn man permanent Benchmarks flimmern lässt) - Die Ultra II 960 ist seit jeher die "GamingSSD" und dort sind die größten Schreibraten wenn mal nen Game gezogen wird oder nen Backup aufgespielt...

Die System SSD ist da schon nen etwas anderes Kaliber. ;)
 
Dito :wink:


gesendet von unterwegs
 
Samsung oder selbst SanDisk würde ich aber auch nehmen ;)

Samsung ist so ziemlich das Beste am Markt. Intel auch, die verwenden aber meines Wissens auch Micron (Crucial). Bei den anderen bin ich mir nicht sicher. Crucial ist wenn es ums Budget geht definitiv die beste Wahl.

Naja wirklich JEDER der dutzenden Tests sagt was anderes, meine 3 850 Evos laufen taddellos und bringen auch die Werte wiese sollen. Hab nie ein Firmware Update gemacht, das war nur mal bei der 840 Evo n problem.

die 250er sind auch langsamer, aber netmehr so extrem.

Ich habe eine 850 Pro, EVO, 840 Basic und 840 Pro. Die laufen alle noch wie am ersten Tag. Die 840 hat fast 20 TBW.

Von den Random-Writes dürften die sich nicht unterscheiden, nur minimal mehr sequenzielle Geschwindigkeit.

Tests und Nutzerverhalten/Alltagsnutzung ist was anderes...

Die Frage ist halt: Merkt man denn den Unterschied? Ich sage 0, absolut überhaupt nicht. :wink: (Außer natürlich wenn man permanent Benchmarks flimmern lässt) - Die Ultra II 960 ist seit jeher die "GamingSSD" und dort sind die größten Schreibraten wenn mal nen Game gezogen wird oder nen Backup aufgespielt...

Die System SSD ist da schon nen etwas anderes Kaliber. ;)

Ja, darum kauft man SSDs auch eher nach Qualität. Die Samsungs sind qualitativ High-End. Die Benchmarks kommen sowieso alle auf das Gleiche heraus.

Als System-SSD hätte ich gerne eine mit NVME, werde aber keine kaufen bis mal welche mit 2 TB unter 500 € verfügbar werden (960 Evo / Pro). So viel Unterschied wird das am Ende auch nicht machen, zumal die sequenziellen Schreibraten nichts nützen wenn man von einer HDD mit 40 MB/s kopiert. Das merke ich des Öfteren, diese externe HDD per USB 3.0 ist arschlangsam. USB 3.1 würde da wohl auch nichts bringen (Gibt es ja auch nicht), einzig eine externe SSD, wofür ich derzeit aber kein Budget habe zumal ich darauf nur Filme speichere.

Vielleicht meldet sich ja ein Fachmann zu Wort und sagt uns welchen Speicher die von Sandisk benutzen.
 
Irgendwie ists hier allmählich zu sehr Offtoppic

Gesendet von meinem SM-G920F mit Tapatalk
 
Naja, der Unterschied liegt bei maximal 2-3%. Ist also eher zu vernachlässigen. Es gibt verschiedene Tests die das zeigen.

Gesendet von meinem Xperia XZ

Völliger Schmarn ;) Je nach Skalierung von Multi-GPU kann es gut mal 20-30% sein.
 
@ HW-Mann

kannst du mal ein Bild von der Graka machen/zeigen - das man auch mal den Kühler für die vrms sieht ? :)
 
Zuletzt bearbeitet:
Hier noch das Bild von der Karte naggsch :P

p3110269u1u6p.jpg


Mit frischer Luft reicht das locker aus. Denke ich.

Beim Originalkühler kommt ja nur extrem heiße Luft durch und davon nicht viel wegen der engen Lamellen.

Könnte man ein nettes Review draus machen, ob der Mono Plus immer noch aktuell und brauchbar ist - auch für eine 400€ Karte.
 
Meine Einschätzung ist ja ;)
(finde den immer noch spitze für lukü)
 
Wenn ich das Bild so sehe kommt es mir so vor als wäre von der Karte ein Teil abgeschnitten worden... :d
 
die 1080 hat zumindest direkte VRM Anbindung am Kühler.

Danke für das Bild - ich sehe da auch quasi ne GTX 670 oder GTX 970.

Der Kühler der VRMs ist sehr einfach - der Mono könnte "daneben" passen und ich würde mir bei Ebay ein größeres Stück Kühler holen und zurecht machen ;)
 
Bisher hats immer gepasst. Man kann die Lamellen ja behutsam dazwischen schieben und dann passts ohne große Spannung. Hab ich anderen Karten immer so gemacht.

Bissel Hirn benutzt tut nicht weg. ;)
 
tut nicht weh .. ich weiß ;)

Ich meine nur das du evtl. dort genug Platz hast wie hier:
 

Anhänge

  • ACV44162.jpg
    ACV44162.jpg
    97,2 KB · Aufrufe: 60
Wenn der Kühler erst mal unten ist - geht der Basteltrieb los *G*

so würde ich wohl tun .. auch wenn es eine scheiß Arbeit ist - die Alufinnen nicht zu verbiegen beim Abtrennen ;)


fesdgh.jpg
 
Zuletzt bearbeitet:
Definitiv nichts, wieso sollte ich gerade bei den VRM nen Stockkühler ersetzen ?! Gibts doch absolut 0 Benefit dabei. Läuft doch.
 
Wäre nur mein Vorhaben :)

gut, ich hatte damals die GTX 970 nach dem VRM Kühler ausgesucht - der war halt einfach schon BIG ;)

gerade wenn der Sensor fehlt - nennt es krank - aber da schalte ich auf - BIGGER IS BETTER
 
Erster Test eben - erstmal ohne Ramkühler und dem stock VRM Kühler.

Arctic hat nicht allen Ernstes da Wärmeleit-KLEBER beigelegt. -_- Also wirklich.

Also ja, es rennt gut, sehr gut sogar. Aber irgendwie kommt weder vom Orignallüfter, noch beim Noctua viel Luft aufs PCB. Verstehe das wer will.

Hier mal ein 2-facher Vallymark:



Geht von den Temperaturen absolut klar, leider passt dann beim einziger intake-Lüfter unten mit 120mm nicht mehr ins Case. Schade!
 
Nice, für die Größe richtig ordentlich. War das ein offener Test? Vor allem die Lautstärke wird deutlich besser als mit dem Originalkühler sein, oder?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh