[Sammelthread] NVIDIA GeForce GTX 1070 (GP104) Sammelthread + FAQ

NVIDIA GeForce GTX 1070 (GP104) Sammelthread + FAQ


Impressionen der Karte:

geforce-gtx1070-1-840x560.jpg

geforce-gtx1070-2-840x560.jpg

geforce-gtx1070-9-840x560.jpg

geforce-gtx1070-10-840x560.jpg

geforce-gtx1070-11-840x560.jpg

geforce-gtx1070-3-840x560.jpg

geforce-gtx1070-4-840x560.jpg

geforce-gtx1070-5-840x560.jpg

Technische Daten der GeForce GTX 1070
  • Chip = GP104-300-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 7,2 Milliarden
  • Die-Größe = 314 mm²
  • Shader-Einheiten = 1.920 (1D) (15 SMM)
  • Texture Mapping Units (TMUs) = 120
  • Raster Operations (ROPs) = 64 (48)
  • Pixelfüllrate = 72,3+ GPixel/s
  • Texelfüllrate = 180,7+ GTexel/s
  • Chiptakt = 1.506 MHz Baseclock + Boost (1.683 MHz) + Max. Boost (~1.880 MHz)
  • Speichertakt = 4.007 MHz
  • Speichergröße = 8.192 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 256 Bit
  • Speicherbandbreite = 256,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 150 Watt
  • Leistungsaufnahme 2D = ~9 Watt
  • Versorgung über einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Geizhals Link:
GeForce GTX 1070 | Deutschland - Preisvergleich



Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX 1070 erreicht im Leerlauf mit 0,4 Sone genau den selben Wert der 1080. Der Radiallüfter dreht mit ~1.100 RPM bei 27% PWM-Stärke. Unter Last schwankt die Lautheit zwischen 2,5 Sone (~50%) bis zu (max) 2,9 Sone (53% PWM @~2.120 RPM), was deutlich weniger als bei der GTX 1080 ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.000 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX 1070 beträgt im Leerlauf vollkommen um die 32 °C. Unter Last (Games) kann die Temperatur auf bis zu 84 °C steigen, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Allerdings erreicht die 1070 zumindest im Freiluftbetrieb gerade so die 80-81 °C, was dazu führt, dass die Karte, anders als bei der 1080, die Taktraten nicht wegen der Temperatur, sondern durch das enge Powerlimit, senkt.

Wie hoch ist der Stromverbrauch?
Die GTX 1070 verbraucht im Leerlauf um die 9 Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX 1070, egal ob in Games oder im Furmark, maximal 150 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GTX 1070 eine sehr hohe Effizienz.

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX 1070 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 800% (1080p), bzw. 107% (4K) und ist so im Mittel aller Reviews rund 7% schneller als eine GTX 980 Ti und damit auch schneller als eine Titan X (stock). Die GTX 1080 ist im Vergleich zur 1070 rund 20% (1080p), bzw. 23% schneller (4K).
Launch-Analyse nVidia GeForce GTX 1070 | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Die 1070 verhält sich bezüglich der Taktraten sehr ähnlich wie die 1080. Laut den ersten Reviews sollte es machbar sein, dass jede GPU rund 1,95 bis 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Das man kaum höhere Taktraten erreichen konnte liegt in erster Linie daran, dass bei der GTX 1070 das Power Target stark limitiert. So kann man dieses zwar per Tool auf 112% anheben (168 Watt), aber selbst das reicht nicht aus, um konstant die maximal mögliche Taktrate zu erreichen und konstant halten zu können. Mit einer besseren Kühlung und somit kühleren GPU Temperaturen und folglich einer geringeren Verlustleistung sind noch etwas höhere Taktraten erreichbar.

Einen Interessanten Beitrag mit Praxisbezug zum Thema Undervolting hat der User BK-Morheus veröffentlicht. In dem Video sieht man, wie man eine GTX 1070/1080 mit Hilfe des "curve editors" des Afterburners undervolten kann:
https://www.youtube.com/watch?v=UGeGLU8uh9M&ab_channel=BennyLikesTech

Was einer erhöhten OC-Performance noch im Weg stehen kann, ist die Speicherbandbreite. Die 1070 besitzt zwar die Rechenleistung einer 980 Ti oder Titan X, allerdings nur rund 76% deren Speicherbandbreite. Gerade bei hohen GPU-Taktraten kann die durch das 256 Bit breite Speicherinterface und den 8 Gbps starken Speicher erreichte Bandbreite zu gering für eine deutliche Skalierung sein.

Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1070. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.
 
Zuletzt bearbeitet:
Also meine G. Skill laufen super wieso sollen mit XMP auch auf 3333 Mhz. Hast du 4 Riegel ? Aktuellste Mobo Bios ?
Glaube die 7700K haben nen besseren Speichercontroler
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Thrawn: Die Signatur dient für mich primär als Leithinweis, falls man Probleme damit hat (Weswegen ich mich hier 2015 ursprünglich mal anmeldete) muss man nicht jedes Mal alles neu posten.

"Schwer" ist dass ich es nicht wirklich brauche und dann nur auf Dual-Channel liefe. Wenn ich mal wechsele dann auf maximale Geschwindigkeit aber keine Vollbestückung, 8 x 4 GB würden nämlich vermutlich nicht laufen. 2666 MHz ist im Quadchannel bereits schneller als jeder Dualchannel. Nur leuchten meine Riegel nicht so schön, ich hätte sie damals gern gekauft, aber da waren die mit LED noch nicht erhältlich.
 
Ich habe Sie auch deswegen da stehen, also werf mir dann bitte nicht niedere Motive damit vor.

Du hastja X99, klar macht da quadchannel sinn :) und Vollbestückung ist immer unglücklich, deswegen habe ich ja meine 4x8GB verkauft und mir 2x 16GB geholt und die laufen sehr gut und leuchten mit dem Rainbow effekt sau geil.
 
Für 16 GB komplett? Ich suche seit Wochen ein 8 GB Modul 1333, will dafür aber keine 50 € ausgeben. Ich habe schon ein Modul gekauft und dann festgestellt dass es bei mir nicht läuft (High-Density), echt kacke.

Ist zwar etwas off Topic, aber hier ist der Link: GeIL Dragon RAM 8GB DDR3-1333 PC3 CL9-9-9-24 (Kit nach Wahl 8GB, 16GB, 32GB) | eBay

Ein 8GB Riegel für 31,45€ und 16GB (2x8) für 57,90€. Ich fand den Preis ordentlich und hab deshalb zugeschlagen. Selbst 32GB (4x8) sind mit 109,60€ noch völlig im Rahmen.

Back to Topic: Den Speicher meiner Karte hab ich nicht übertaktet, da ich die Leistung einfach nicht brauche. Die GPU nur auf das maximal Mögliche per Offset. Das sind eben 2075 MHz. Der Speicher geht auf maximal 4500 MHz hoch, bei 4600 gibt es Bildfehler.

Meine Signatur ist übrigens immer aktuell. Maximal 1-2 Tage im Rückstand.
 
Ist zwar etwas off Topic, aber hier ist der Link: GeIL Dragon RAM 8GB DDR3-1333 PC3 CL9-9-9-24 (Kit nach Wahl 8GB, 16GB, 32GB) | eBay

Ein 8GB Riegel für 31,45€ und 16GB (2x8) für 57,90€. Ich fand den Preis ordentlich und hab deshalb zugeschlagen. Selbst 32GB (4x8) sind mit 109,60€ noch völlig im Rahmen.

Back to Topic: Den Speicher meiner Karte hab ich nicht übertaktet, da ich die Leistung einfach nicht brauche. Die GPU nur auf das maximal Mögliche per Offset. Das sind eben 2075 MHz. Der Speicher geht auf maximal 4500 MHz hoch, bei 4600 gibt es Bildfehler.

Meine Signatur ist übrigens immer aktuell. Maximal 1-2 Tage im Rückstand.

Danke für den Link, ich hatte 25 € angepeilt, 30 gehen ja auch noch in Ordnung. 12 GB sind zwar etwas overkill für den HTPC, aber besser zu viel als zu wenig.

Es wunderte mich nur weil du den Kerntakt ja auch erhöht hast. Das brachte bei mir kaum etwas, da die FTW ab Werk schon 2025 MHz macht. Zumindest meine. Es ist komisch, da in manchen Spielen mehr und in manchen weniger gehalten wird. Das ist auch bei der Ti so, bei GTA V im Video hält sie fast 2000 MHz, in anderen Spielen rutscht sie auf 1889 MHz ab, ohne Grund, bei gleicher Temperatur!
 
Der Grund ist das verschiedene Games verschieden das Powertarget strapazieren und auch teil die GPU stärker auslasten was dann mehr Hitze verursacht. So zieht vor allem das Powertarget den Takt runter. Gib mal mehr Powertarget frei ;)
GPU Boost 3.0 müsste doch langsam mal sitzen wie der funzt :p
 
Am leichtesten kann man das übrigens mit DSR simulieren. Wenn man nen Faktor von 2 hat, purzelt der Takt schnell in den Keller.
 
Danke für den Link, ich hatte 25 € angepeilt, 30 gehen ja auch noch in Ordnung. 12 GB sind zwar etwas overkill für den HTPC, aber besser zu viel als zu wenig.

Es wunderte mich nur weil du den Kerntakt ja auch erhöht hast. Das brachte bei mir kaum etwas, da die FTW ab Werk schon 2025 MHz macht. Zumindest meine. Es ist komisch, da in manchen Spielen mehr und in manchen weniger gehalten wird. Das ist auch bei der Ti so, bei GTA V im Video hält sie fast 2000 MHz, in anderen Spielen rutscht sie auf 1889 MHz ab, ohne Grund, bei gleicher Temperatur!

Die Pascal GPUs haben Temperaturstufen, ab denen wird der Takt reduziert. Die erste ist, meine ich, bei 50°. Mit Wakü hab ich das Problem nicht, da die Temperatur immer deutlich unter 50° bleibt, bei Lukü kommt man aber schnell über diese Grenzen drüber. Durch die höhere Temperatur steigt auch die Leistungsaufnahme (Leckströme). Da hast du dann gleich den nächsten Grund, warum der Takt sich senkt.

Beim Speicher bin ich immer etwas vorsichtig mit OC, da ich schon Berichte gelesen habe, dass das OC den Speicher gekillt hat... Ich weiß was er kann und kann die Leistung bei Bedarf abrufen, das reicht für mich fürs Erste :d
 
Ich denke nicht dass Speicher-OC Schaden anrichtet, die Speicherspannung bleibt ja gleich. Zumindest im moderaten Rahmen. Genauso Core-OC, bei gleicher Spannung macht das so gut wie nichts, es wird nur heißer. Die fetten OC-Karten sind darauf ausgelegt solche Taktraten zu halten und haben massig Reserven.

Hier das angekündigte GTA-Video:



Ohne MSAA ging leider nicht da er wieder ganz von vorne angefangen hat. man sieht aber, fast durchgehend 50+ FPS mit 2 x MSAA, TXAA, 2 x Reflection MSAA, 2160p! Einfach nur krank. Die Titan X machte bereits bei "Sehr Hoch" schlapp wenn man zusätzlich 2 x MSAA oder Ähnliches anmachte, ohne erweiterte Darstellungsdistanzen. Die Ti frisst die einfach nur, lediglich das Gras habe ich eine Stufe reduziert, weil es nichts bringt und nur unnötig Leistung nimmt.

GTA steht auch meiner To-Play-Liste, genauso wie Witcher 3 noch einmal. Aber erstmal muss meine Kiste dafür wieder laufen. GTA V braucht zudem immer eine Woche an Downloadzeit. Falls mir jemand bei der BIOS-Sache helfen kann wäre ich sehr dankbar, im entsprecheden Thread.
 
Hab deine Settings mal übernommen und kam auf die selben FPS, aber Spielbar sehe ich das nicht an. Ohne 2x MSAA kam ich wieder bei meinen Spielbaren 70-80 FPS raus.

Mit was nimmst du auf? Wenn ich über Nvidia Tool aufnehme zeigt es bis 130 FPS an und fühlt sich wie 20 FPS an. Mein beim Video schauen, zeigt also nicht die realen Werte.

Finde auch den Fehler nicht. So brauch ich es jedenfalls nicht hochladen.

Gesendet von meinem SM-G935F mit Tapatalk
 
Zuletzt bearbeitet:
Hab deine Settings mal übernommen und kam auf die selben FPS, aber Spielbar sehe ich das nicht an. Ohne 2x MSAA kam ich wieder bei meinen Spielbaren 70-80 FPS raus.

Mit was nimmst du auf? Wenn ich über Nvidia Tool aufnehme zeigt es bis 130 FPS an und fühlt sich wie 20 FPS an.

Finde auch den Fehler nicht. So brauch ich es jedenfalls nicht hochladen.

Das ist echt komisch, da es glaube ich nur 7 % mehr Shader sind und es niemals zu 100 % skaliert. 120 FPS, mit den Einstellungen, wirst du niemals erreichen, außer du schaust in den Himmel. 60 FPS in 2160p mit den Einstellungen sind bereits monströs. Mit der einen 1070 erreichte ich dort etwa 30, ich habe das getestet. In Witcher waren es 30 - 40.
 
Nein, das war fürs Video, das zeigt nicht das an was im Spiel anliegt.

Im Spiel kam ich mit deinen Einstellung auch auf 50 FPS ca. Ohne MSAA 70-80 FPS was sich flüssiger anfühlt.

Gesendet von meinem SM-G935F mit Tapatalk
 
Ich denke ich lasse MSAA auch weg, wenn denn diese Scheiße hier endlich mal funktionieren würde... Vielleicht kann man auch SMAA nachträglich einfügen, das ist sowieso besser.

Witcher 3 läuft auf Anschlag problemlos.
 
Aufnehmen bringt bei mir nichts. Das SLI funktioniert anscheinen nicht beim Aufnehmen korrekt.

Im Video werden über 100 Frames gezeigt und ruckelt nur vor sich hin. Das spiegelt also nicht das korrekte Ergebnis wieder.

Aber egal, weiß nun das mein SLI problemlos mit ne Ti mithalten kann.
 
Zuletzt bearbeitet:
@ Thrawn

Nee - keine 4 Riegel - nur 2x 8192 MB G.Skill RipJaws V (F4-3200C16D-16GVKB)

kennt jemand halbwegs aktuelle Ingame Benchmarks ? .. Tomb Raider ist bisher der einzige der mir so einfällt ;)
 
division hat einen an board, find den aber ziemlich sinnfrei, da die fps im realen spiel deutlich niedriger sind
 
division hat einen an board, find den aber ziemlich sinnfrei, da die fps im realen spiel deutlich niedriger sind

GTA hat doch auch einen integrierten Benchmark? Den könnte man glatt auch benutzen, ich sehe so welche aber eher als Testdurchlauf an.

Ich kriege einen richtigen Drang auf Ryzen zu wechseln, ob da 960 EVO drauf laufen?
 
die SSDs ?! .... why not ?
 
und ich krieg nen richtigen Hass Ryzen wegzuschmeißen.

Der Speicher Controller scheint einen weg zu haben.

https://abload.de/img/unbenanntkqukc.png

Erst ist das erste Mainboard ein Montagsmodell und jetzt noch die CPU hinterher. Das kann doch nicht wahr sein.

Bin offen dran mein Geld bei MF wiederzuholen. Zwei fails ist mir nicht mal bei FX hintereinander passiert.
 
Zuletzt bearbeitet:
Wieso scheint der einen Weg zuhaben? Irgendein Spiel oder Anwendung hat dir den Arbeitsspeicher voll geknallt, da lagert Windows natürlich aus.
 
Nicht spiel sondern beim Stresstest über AIDA64 läuft der über. Das darf nicht richtig sein also gehe ich schon von einen Defekt aus.
 
Häh? Du lässt AIDA RAM und CPU bis zum Maximum ausreizen und wunderst dich über die Auslastung? :fresse:
 
Nein nur RAM.
 
Und warum bist du dann bitte verwundert über die Auslastung bzw. leitest daraus sogar einen "Defekt" ab? :fresse:
 
Da es nicht richtig sein kann, oder siehst du rote stellen als gut an?
 
Als absolut normal, ja.

Du bist echt ein Spaßvogel, haust nen derben Mem-Test rein und wunderst dich über volle Auslastung aller Speicherressourcen :fresse:
Unbenannt.png
 
Zuletzt bearbeitet:
Du kannst mich gern Unwissend nennen aber ein Spaßvogel bestimmt nicht.

Also muss ich mir bei sowas keine sorgen machen? Angst hat mir ja wie gesagt mein Bruder gemacht da er das als erstes gesehen hat. Ich kenne mich mit manchen Sachen halt nicht aus.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh