[Sammelthread] NVIDIA GeForce GTX 1070 (GP104) Sammelthread + FAQ

NVIDIA GeForce GTX 1070 (GP104) Sammelthread + FAQ


Impressionen der Karte:

geforce-gtx1070-1-840x560.jpg

geforce-gtx1070-2-840x560.jpg

geforce-gtx1070-9-840x560.jpg

geforce-gtx1070-10-840x560.jpg

geforce-gtx1070-11-840x560.jpg

geforce-gtx1070-3-840x560.jpg

geforce-gtx1070-4-840x560.jpg

geforce-gtx1070-5-840x560.jpg

Technische Daten der GeForce GTX 1070
  • Chip = GP104-300-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 7,2 Milliarden
  • Die-Größe = 314 mm²
  • Shader-Einheiten = 1.920 (1D) (15 SMM)
  • Texture Mapping Units (TMUs) = 120
  • Raster Operations (ROPs) = 64 (48)
  • Pixelfüllrate = 72,3+ GPixel/s
  • Texelfüllrate = 180,7+ GTexel/s
  • Chiptakt = 1.506 MHz Baseclock + Boost (1.683 MHz) + Max. Boost (~1.880 MHz)
  • Speichertakt = 4.007 MHz
  • Speichergröße = 8.192 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 256 Bit
  • Speicherbandbreite = 256,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 150 Watt
  • Leistungsaufnahme 2D = ~9 Watt
  • Versorgung über einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Geizhals Link:
GeForce GTX 1070 | Deutschland - Preisvergleich



Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX 1070 erreicht im Leerlauf mit 0,4 Sone genau den selben Wert der 1080. Der Radiallüfter dreht mit ~1.100 RPM bei 27% PWM-Stärke. Unter Last schwankt die Lautheit zwischen 2,5 Sone (~50%) bis zu (max) 2,9 Sone (53% PWM @~2.120 RPM), was deutlich weniger als bei der GTX 1080 ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.000 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX 1070 beträgt im Leerlauf vollkommen um die 32 °C. Unter Last (Games) kann die Temperatur auf bis zu 84 °C steigen, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Allerdings erreicht die 1070 zumindest im Freiluftbetrieb gerade so die 80-81 °C, was dazu führt, dass die Karte, anders als bei der 1080, die Taktraten nicht wegen der Temperatur, sondern durch das enge Powerlimit, senkt.

Wie hoch ist der Stromverbrauch?
Die GTX 1070 verbraucht im Leerlauf um die 9 Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX 1070, egal ob in Games oder im Furmark, maximal 150 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GTX 1070 eine sehr hohe Effizienz.

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX 1070 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 800% (1080p), bzw. 107% (4K) und ist so im Mittel aller Reviews rund 7% schneller als eine GTX 980 Ti und damit auch schneller als eine Titan X (stock). Die GTX 1080 ist im Vergleich zur 1070 rund 20% (1080p), bzw. 23% schneller (4K).
Launch-Analyse nVidia GeForce GTX 1070 | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Die 1070 verhält sich bezüglich der Taktraten sehr ähnlich wie die 1080. Laut den ersten Reviews sollte es machbar sein, dass jede GPU rund 1,95 bis 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Das man kaum höhere Taktraten erreichen konnte liegt in erster Linie daran, dass bei der GTX 1070 das Power Target stark limitiert. So kann man dieses zwar per Tool auf 112% anheben (168 Watt), aber selbst das reicht nicht aus, um konstant die maximal mögliche Taktrate zu erreichen und konstant halten zu können. Mit einer besseren Kühlung und somit kühleren GPU Temperaturen und folglich einer geringeren Verlustleistung sind noch etwas höhere Taktraten erreichbar.

Einen Interessanten Beitrag mit Praxisbezug zum Thema Undervolting hat der User BK-Morheus veröffentlicht. In dem Video sieht man, wie man eine GTX 1070/1080 mit Hilfe des "curve editors" des Afterburners undervolten kann:
https://www.youtube.com/watch?v=UGeGLU8uh9M&ab_channel=BennyLikesTech

Was einer erhöhten OC-Performance noch im Weg stehen kann, ist die Speicherbandbreite. Die 1070 besitzt zwar die Rechenleistung einer 980 Ti oder Titan X, allerdings nur rund 76% deren Speicherbandbreite. Gerade bei hohen GPU-Taktraten kann die durch das 256 Bit breite Speicherinterface und den 8 Gbps starken Speicher erreichte Bandbreite zu gering für eine deutliche Skalierung sein.

Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1070. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.
 
Zuletzt bearbeitet:
Als Ocer würde ich dann eher auch das Board verkaufen, den bei Ryzen lohnt sich kein Übertakten außer vll die ohne X. 4.0 Ghz kann man ebenfalls vergessen da man schon sehr viel Spannung jenseits 1.4V benötigt.

Meiner bräuchte dafür wahrscheinlich 1.5V was ich nicht mehr als schön empfinde. Bin jedenfalls gespannt ob Zen2 nächstes Jahr noch einen drauflegt.

Also bei mir steht fest das, diese CPU nur als Übergang bis RyZen 2 erscheint drinnen bleibt.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja mit AMD's Boost, aber nicht auf alle Kerne. Übertaktet schafft der nur 3.9 Ghz.

Gesendet von meinem SM-G935F mit Tapatalk
 
gut zu wissen ...

sorry für Offtopic

werde wohl Board verkaufen und bei Intel bleiben .. hat sich sowieso nicht wirklich was ergeben *G*
 
Gute Entscheidung.

Für Overclocker bleibt Intel noch erste Wahl.

Gesendet von meinem SM-G935F mit Tapatalk
 
Aufgrund der Wahnsinns Wertsteigerung wg. mining von 8GB RX480/580 welche bei ebay teils > 400E weggehen, verkaufen logischerweise viele ihre Karten und steigen auf die 1070 um! Diese wird die jetzt auch knapp ...

Scheint wohl der Grund zu sein wieso die 1070er auf einmal teuer werden.
Beobachte seit einer Weile Gainward Phoenix und Pali Jetstream, beide um rund 50€ gestiegen.
 
Zuletzt bearbeitet:
Selbst die 1070 und 1080 werden zum Mining gekauft, weil eben die AMD Karten knapp sind.

Das ist nicht der pure Umstieg der RX -> 1070 Wechsler, sondern die Not aller Miner, die noch nicht genug Karten haben.

Bedenkt doch mal, dass 90% der RX User keine Ahnung und null Kontakt zu solchen Themen haben - Casual Gamer eben mit einfachen Systemen. Die bemerken doch nichts vom Mining-Boom und behalten ihre Karten.

Gab letztens sogar ne News bei Gamestar oder so, aber auch bei Techsport oder Gamespot dazu.
 
die sind leider auch super langsam ;)

am besten sind glaube die RX 480 - die brauch von sich aus schon "nur" 120W - die kann man eben entsprechend "pimpen"

RX 570 mit 4GB sind halt zur Zeit die preislich attraktivsten Karten.

Nur muss man da eben Geduld mitbringen.
 
Thrawn ich glaube wir sollten das lassen, sonst bekommen wir bald Ärger. :d
 
Jop..

die sind leider auch super langsam ;)

am besten sind glaube die RX 480 - die brauch von sich aus schon "nur" 120W - die kann man eben entsprechend "pimpen"

RX 570 mit 4GB sind halt zur Zeit die preislich attraktivsten Karten.

Nur muss man da eben Geduld mitbringen.

Ich sehe keine Karte mit weniger als 6GB Vram als noch attraktiv und empfehlenswert zu kaufen an im Juni 2017.
 
Kommt immer drauf an, was gebraucht wird. In meinem Zweitrechner mit Xeon W3550 steckt ne 1050ti, da der Monitor nur 1280*1024 hat und kann und da wird nichts neues kommen, nicht in absehbarer Zukunft. Dafür reicht sowas dann vollkommen aus, da der Speicher eh nie voll sein wird, vorher ist irgenwas anderes zu langsam.
 
ja - für das richtige Gaming lohnt sich keine 4GB Karte mehr ...

im Rechner meiner Frau wäre eine 4GB Karte ala RX 570 eine massive Leistungssteigerung.

hängt auch nur FullHD dran

und für mining sowieso egal ;) - da kann man dann noch einiges in der Anschaffung sparen ;)
 
Selbst die 1070 und 1080 werden zum Mining gekauft, weil eben die AMD Karten knapp sind.
Die GTX 1070 ist auf Dauer effizienter als die AMD-Alternativen. Nur der Anschaffungspreis wirkt hier abschreckend. Jetzt wo die AMD-Karten kaum mehr günstig zu haben sind, ist die GTX eine gute Wahl zum Minen.
 
also ich bin "käuflich"

wenn ein guter Preis geboten wird - verkauf ich meine Karte :haha:
 
Die GTX 1070 ist auf Dauer effizienter als die AMD-Alternativen. Nur der Anschaffungspreis wirkt hier abschreckend. Jetzt wo die AMD-Karten kaum mehr günstig zu haben sind, ist die GTX eine gute Wahl zum Minen.

Genau das! :d

Aber mal ehrlich, falls die 1070er Preise auch so anziehen WÜRDEN, wäre ich nicht ungewillt meine abzustossen und zur 1080 ti zu greifen. :d
 
Ich setzte heute oder morgen Abend auch mal das Mining bei mir auf.. bin für 14 Tage im Urlaub und muss sowieso auf der CPU noch ne Berechnung laufen lassen, da kann sich auch noch die GPU ein bisschen quälen xD

Die einzige Frage die ich mir im Moment stelle -> OC oder UV .. interessant wäre wo der Rechenleistungs/Stromverbrauchswert am höchsten ist und das bei akzeptabler Leistung (die wird wahrscheinlich am schwersten festzulegen sein..)
 
Ja mit AMD's Boost, aber nicht auf alle Kerne. Übertaktet schafft der nur 3.9 Ghz.

Mein 5820K schafft auch nicht viel, ich bekomme zwar 4,4 GHz, aber dann auch nur mit fast 1,4 Volt... 4,2 Ghz benötigen 1,22 V. Bestimmt zehn Grad Temperaturunterschied... So bleibt er immer unter 60°.

Der ganze Mining Käse ist doch pure Energievernichtung Deluxe..

Ich habe mal auf 4chan einen gesehen der sich als "Techniker" ausgab und ein "Klimagerät" im Starbucks deponiert hat und regelmäßig nachgeschaut hat, acht R9 290, das war bestimmt schön warm da im Winter. Für Heimanwender oder Leute die ihren Strom selbst zahlen lohnt das vermutlich nicht. In anderen Ländern kostet dafür der Strom wiederum nichts.

Jop..

Ich sehe keine Karte mit weniger als 6GB Vram als noch attraktiv und empfehlenswert zu kaufen an im Juni 2017.

Ich denke er meinte zum minen. Eine mit 4 GB würde ich nur kaufen wenn es wirklich um jeden Cent geht.
 
Ich setzte heute oder morgen Abend auch mal das Mining bei mir auf.. bin für 14 Tage im Urlaub und muss sowieso auf der CPU noch ne Berechnung laufen lassen, da kann sich auch noch die GPU ein bisschen quälen xD

Die einzige Frage die ich mir im Moment stelle -> OC oder UV .. interessant wäre wo der Rechenleistungs/Stromverbrauchswert am höchsten ist und das bei akzeptabler Leistung (die wird wahrscheinlich am schwersten festzulegen sein..)

OC rechnet sich effizienzmässig NIE bei Leistung pro Watt
 
croni-x

auf jeden Fall UV !!

Nur den Speichertakt oben halten - GPU muss nix leisten !

alle Festplatten die du nicht brauchst abstecken.

Wenn du kein DualMining machst - solltest du so bei etwa 130-140 Watt liegen für das komplette System ;)
 
Okay, der RAM geht eh auf schöne 4850MHz hoch :d die Frage ist nur, wie viel ich bei der GPU runter gehe vom Takt, so das es keine großen Einbußen gibt ? Wenn man sozusagan ins Absurde geht könnte ich meine Karte wie Webmi fahren :haha::banana:

Abstecken tu ich erstmal nix.. das ist einfach mal ein Test was so geht, da ich eh ne andere Berechnung auf der CPU betreibe ;) Habe aber noch 1-2 Rechner rumstehen, wo ich je nach Ergebnis ernsthaft überlege Mining zu betreiben ;)
 
ja schon wie iWebi !

macht am meisten Sinn - RAM hab ich zum Test auf 4550 MHz laufen.

GPU läuft bei 1670 MHz @ 0,793V

läuft selbst bei dem Wetter bei gemütlichen 55-57°C
 
OC rechnet sich effizienzmässig NIE bei Leistung pro Watt
Das stimmt nicht. Du vergisst, dass der Rest des Systems Strom verbraucht, ohne zum Mining beizutragen.

Sagen wir das System verbraucht ohne GPU 50W. Die GPU selber verbraucht 150W. Macht 200W.
Wenn du die Grafikkarte übertaktest und diese dann z.B. 10% mehr Leistung bringt und 12% mehr verbraucht. Dann hast du bei 10% mehr Leistung bei 218W bzw. 9% mehr Verbrauch. Hier hat sich die Effizienz durch OC erhöht.

Gleichzeitig vergisst du, dass VRAM OC einen minimalen Anteil am Gesamtverbrauch ausmacht. Bei Eth-Mining steigt die Effizienz mit dem VRAM-Takt.
Okay, der RAM geht eh auf schöne 4850MHz hoch :d die Frage ist nur, wie viel ich bei der GPU runter gehe vom Takt, so das es keine großen Einbußen gibt ?
Hier sind meine optimalen Settings für's Etherium-Mining:
Imgur: The most awesome images on the Internet

RAM am Anschlag, gleichzeitig minimale Spannung (Takt ist gelockt). Die Werte habe ich lediglich für's schnelle Benchen durchgetestet, da ich ehrliche Zweifel habe, ob der RAM das auf Dauer aushält. Meine GTX 1070 will ich irgendwann mit gutem Gewissen weiterverkaufen, weshalb ich lieber Zcash mine, wo es auf den RAM nicht so sehr ankommt.
 
Zuletzt bearbeitet:
Du vergisst das der Verbrauch weit stärker steigt als die Leistung die du mehr hast durch OC beim GPU OC.

Das Mining ist doch Schimmelkäse bei unseren Strompreisen, und wenn die Blasen platzen fresute dich meindestens ein Jahr über nen sau hohen Stromabschlag und die Nachzahlung...
 
Man, hätte ich mal damals gemined als ich noch zu Hause wohnte... Keine Stromkosten. Obwohl vermutlich mit der HD 2400 2010 schon kaum was zu machen gewesen wäre.

Falls es wen interessiert:



Ich werde gleich selbiges mit der Ti machen und dann als Vergleich hinzufügen. Bis übermorgen sollte das hochgeladen sein.
 
Zuletzt bearbeitet:
Das Mining ist doch Schimmelkäse bei unseren Strompreisen
Rechne es doch einfach nach. Bei meiner Config bekomme ich aktuell für jeden Euro Strom drei Euro Gewinn wieder heraus. Und da die Karte zum Zocken gekauft wurde, habe ich auch keine Investitionskosten, die ich wieder reinholen müsste.
 
bin mal gespannt, wann die 1070er wieder verfügbar sind ;)

wird zeit wieder ne grafikkarte zu haben

igp rockt auf dauer irgendwie nicht so
 
Rechne es doch einfach nach. Bei meiner Config bekomme ich aktuell für jeden Euro Strom drei Euro Gewinn wieder heraus. Und da die Karte zum Zocken gekauft wurde, habe ich auch keine Investitionskosten, die ich wieder reinholen müsste.

Mir macht nicht das Rechnen sorgen sondern der tag an dem Ein Euro Strom ein euro Strom bleibt und die Cryptowährungen 0,0 Euro Wert sind..
Sollte doch jedem Klar sein das das irgendwann platzt, genau wie der neue Markt damals.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh