[Sammelthread] NVIDIA GeForce GTX 1070 (GP104) Sammelthread + FAQ

NVIDIA GeForce GTX 1070 (GP104) Sammelthread + FAQ


Impressionen der Karte:

geforce-gtx1070-1-840x560.jpg

geforce-gtx1070-2-840x560.jpg

geforce-gtx1070-9-840x560.jpg

geforce-gtx1070-10-840x560.jpg

geforce-gtx1070-11-840x560.jpg

geforce-gtx1070-3-840x560.jpg

geforce-gtx1070-4-840x560.jpg

geforce-gtx1070-5-840x560.jpg

Technische Daten der GeForce GTX 1070
  • Chip = GP104-300-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 7,2 Milliarden
  • Die-Größe = 314 mm²
  • Shader-Einheiten = 1.920 (1D) (15 SMM)
  • Texture Mapping Units (TMUs) = 120
  • Raster Operations (ROPs) = 64 (48)
  • Pixelfüllrate = 72,3+ GPixel/s
  • Texelfüllrate = 180,7+ GTexel/s
  • Chiptakt = 1.506 MHz Baseclock + Boost (1.683 MHz) + Max. Boost (~1.880 MHz)
  • Speichertakt = 4.007 MHz
  • Speichergröße = 8.192 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 256 Bit
  • Speicherbandbreite = 256,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 150 Watt
  • Leistungsaufnahme 2D = ~9 Watt
  • Versorgung über einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Geizhals Link:
GeForce GTX 1070 | Deutschland - Preisvergleich



Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX 1070 erreicht im Leerlauf mit 0,4 Sone genau den selben Wert der 1080. Der Radiallüfter dreht mit ~1.100 RPM bei 27% PWM-Stärke. Unter Last schwankt die Lautheit zwischen 2,5 Sone (~50%) bis zu (max) 2,9 Sone (53% PWM @~2.120 RPM), was deutlich weniger als bei der GTX 1080 ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.000 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX 1070 beträgt im Leerlauf vollkommen um die 32 °C. Unter Last (Games) kann die Temperatur auf bis zu 84 °C steigen, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Allerdings erreicht die 1070 zumindest im Freiluftbetrieb gerade so die 80-81 °C, was dazu führt, dass die Karte, anders als bei der 1080, die Taktraten nicht wegen der Temperatur, sondern durch das enge Powerlimit, senkt.

Wie hoch ist der Stromverbrauch?
Die GTX 1070 verbraucht im Leerlauf um die 9 Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX 1070, egal ob in Games oder im Furmark, maximal 150 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GTX 1070 eine sehr hohe Effizienz.

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX 1070 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 800% (1080p), bzw. 107% (4K) und ist so im Mittel aller Reviews rund 7% schneller als eine GTX 980 Ti und damit auch schneller als eine Titan X (stock). Die GTX 1080 ist im Vergleich zur 1070 rund 20% (1080p), bzw. 23% schneller (4K).
Launch-Analyse nVidia GeForce GTX 1070 | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Die 1070 verhält sich bezüglich der Taktraten sehr ähnlich wie die 1080. Laut den ersten Reviews sollte es machbar sein, dass jede GPU rund 1,95 bis 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Das man kaum höhere Taktraten erreichen konnte liegt in erster Linie daran, dass bei der GTX 1070 das Power Target stark limitiert. So kann man dieses zwar per Tool auf 112% anheben (168 Watt), aber selbst das reicht nicht aus, um konstant die maximal mögliche Taktrate zu erreichen und konstant halten zu können. Mit einer besseren Kühlung und somit kühleren GPU Temperaturen und folglich einer geringeren Verlustleistung sind noch etwas höhere Taktraten erreichbar.

Einen Interessanten Beitrag mit Praxisbezug zum Thema Undervolting hat der User BK-Morheus veröffentlicht. In dem Video sieht man, wie man eine GTX 1070/1080 mit Hilfe des "curve editors" des Afterburners undervolten kann:
https://www.youtube.com/watch?v=UGeGLU8uh9M&ab_channel=BennyLikesTech

Was einer erhöhten OC-Performance noch im Weg stehen kann, ist die Speicherbandbreite. Die 1070 besitzt zwar die Rechenleistung einer 980 Ti oder Titan X, allerdings nur rund 76% deren Speicherbandbreite. Gerade bei hohen GPU-Taktraten kann die durch das 256 Bit breite Speicherinterface und den 8 Gbps starken Speicher erreichte Bandbreite zu gering für eine deutliche Skalierung sein.

Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1070. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.
 
Zuletzt bearbeitet:
Das soll einer verstehen. 2d Surround funktioniert nicht, aber egal. Es wird aber nicht in Surround gespielt, weil es über SLI nicht funktioniert. Aha. Dann ist SLI vielleicht doch keine gute Idee.:shot:

SLI ist nicht das Problem sondern der Treiber. Ende des Monats kommt eine Evo 960 500GB ins Haus, dann wird die Karre formatiert. Mal sehen was dann passiert. Vielleicht ist der Fehler dann behoben.



[…]

Wenn er aber ernsthaft zwei 1080 und 1070 herumliegen hat würde ich mir ein ultimatives System mit einem 1080 Ti SLI bauen. Hätte ich noch überschüssiges Geld würde ich das auch machen. Ich bereue bis heute nicht mir 2015 nicht zwei 980 Ti geholt zu haben, die jetzt noch fette Leistung bringen, mit zwei 1080 Ti sollte 4K kompromisslos bis nahe 2020 drin sein.

Ich will für die GPUs bei am besten unter 1000€ bleiben, vielleicht klappt es da sogar mit den Ti´s?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
SLI mit Mittelklasse Grafikkarten, wie die 1070 eine ist, halte ich für sinnfrei. Die 1080 TI ist die deutlich bessere Lösung und bietet Leistung immer gleich auf Anhieb.

Ich denke über ein Upgrade auf eine 1080 FTW nach. So könnte ich den Wakü Kühler meiner 1070 wieder verwenden. Ist nur recht sinnfrei denn es ist Sommer und gezockt wird kaum.
Das sehe ich etwas anders. Die 1070 mag zwar eine Mittelklasse Karte sein, aber für SLI ist sie definitiv zu gebrauchen. Sie hat genug Speicher und ist schnell genug. Eine 980 non ti war deutlich sinnfreier, obwohl sie erst High End war.

Gesendet von meinem Xperia XZ
 
Das sehe ich etwas anders. Die 1070 mag zwar eine Mittelklasse Karte sein, aber für SLI ist sie definitiv zu gebrauchen. Sie hat genug Speicher und ist schnell genug. Eine 980 non ti war deutlich sinnfreier, obwohl sie erst High End war.

Gesendet von meinem Xperia XZ

für 2 x 1070er gibt es halt eine 1080ti - das bedeutet annähernd gleiche Leistung und zwar nicht nur in Spielen die SLI unterstützen, und man hat 11Gb VRAM. Ich bleib dabei SLI ist für Enthusiasten und dann mit den gerade aktuellen Topkarten, alles andere macht schon rein rechnerisch keinen Sinn.
 
für 2 x 1070er gibt es halt eine 1080ti - das bedeutet annähernd gleiche Leistung und zwar nicht nur in Spielen die SLI unterstützen, und man hat 11Gb VRAM. Ich bleib dabei SLI ist für Enthusiasten und dann mit den gerade aktuellen Topkarten, alles andere macht schon rein rechnerisch keinen Sinn.
Das mag jetzt stimmen, aber wann kauft man sich in der Regel ein SLI System? Richtig, direkt nach oder kurz nach Release. Jetzt neu ein 1070 SLI zu kaufen ist sinnfrei. Ich werde mir auch keine zweite 1070 mehr kaufen, außer ich bekomme sie zu einem echten Schnäppchen. Da ich dann aber noch den GPU Block haben muss, lohnt sich das wahrscheinlich wieder nicht.

Gesendet von meinem Xperia XZ
 
ich hatte damals übergangsweise zwei 1070 @SLi in einem der rechner (bis die erste TXP hier eintrudelte).

es fällt mir schwer nachzuvollziehen, wie man auf sowas bock haben kann. im SLi gab es keinen fast-sync.. kein mfaa.. mieses scaling bei UHD-auflösung (doom etwa erzeugte weniger fps im SLi als im sGPU modus).. abartig hoher verbrauch.. weniger max-OC pro karte.. massive zeitverschwendung mit sli-bit-frickelei im NVI.. ein total aufgeheiztes case.. und vergleichbar mit einer anständigen SGPU-lösung nur da, wo man entweder die frames per limiter/vsync limitiert oder wo man nur auf ein messergebnis guckt ohne selbst gespielt zu haben. letzteres ist überhaupt das totschlagargument gegen zwei GPUs. sind die fps nicht abartig hoch, fühlt sich AFR immer klar beschissener an als sGPU.

alle jahre wieder das gleiche -> gibt es die selbe leistung aus einer karte, verzichte auf zwei kleine gurken.


(..)

mfg
tobi
 
Was ich dann noch weniger verstehen kann ist wenn man SLI hat und die 2x1070er wie iwebi künstlich auf 1060 Speed einbremst um Strom zu sparen.. :hmm:
 
Zuletzt bearbeitet:
Also ernsthaft, du drosselst so extrem den Takt beider Karten sodass du mit SLI ca 1080 Leistung erreichst ? Sry aber was Sinnfreieres habe ich selten erlebt..
Da hätten ja 2x FE mehr Sinn gemacht, die heizen sich kaum gegenseitig auf und haben ca 200 Mhz mehr anliegen..

Er hat doch eine ausreichende Gehäusebelüftung? Strom sparen bei Grafikkarten finde ich immer etwas sinnfrei, da es nur ein paar Watt sind und die sich erst auf zehn Jahre rechnen. Dabei verbrauchen die Karten erst etwas wenn man damit auch zockt, die wenigsten zocken 12 Stunden und mehr am Tag, nicht einmal ich selbst wenn ich Zeit habe. Sinn macht eher Undervolt und Betrieb bei maximalem Takt etwa auf 0,95 V, das spart Heizung, vor allem die obere Karte freut sich. Wichtiger ist die FPS zu limitieren, falls man kein Gsync hat, muss man das selbst machen, das spart Strom und Beheizung - Meine 1070 rendert dann zum Beispiel ME3 in 4K im Passivmodus um die 50°. Bei CoD4 habe ich ohne Limitierung etwa 400 FPS. Das ist Verschwendung, auch wenn es Leute gibt die anderes behaupten, bei solchen Aufgaben lasse ich meine Karte in Frieden. Bei 4K muss sie schon genug heizen.

Ich mach es weil ich die kleinste Spannungstufe fahren kann.

Und weil ich es kann ^^

Auf 4K kannst du es nicht wirklich, außer du spielst mit reduzierten Details. Für mich unvorstellbar, bei fast 1000 € GPUs auf HBAO+ zu verzichten.

SLI mit Mittelklasse Grafikkarten, wie die 1070 eine ist, halte ich für sinnfrei. Die 1080 TI ist die deutlich bessere Lösung und bietet Leistung immer gleich auf Anhieb.

Ich denke über ein Upgrade auf eine 1080 FTW nach. So könnte ich den Wakü Kühler meiner 1070 wieder verwenden. Ist nur recht sinnfrei denn es ist Sommer und gezockt wird kaum.

Welche Auflösung möchtest du denn bedienen? 1080 gehen teils schon ziemlich billig weg, aber solltest du dir bei einer normalen 1080 nicht zu viel erhoffen. Gerade bei 4K wirst du nichts merken. Da muss es eine Ti oder eben zwei 1070 sein. Der Sinn des SLI ist ganz einfach, für die Leute die nicht karrenweise Geld herumliegen und bereits eine 1070 haben, sie kaufen gebraucht günstig eine zweite und sparen 250 € gegenüber der Ti...

SLI ist nicht das Problem sondern der Treiber. Ende des Monats kommt eine Evo 960 500GB ins Haus, dann wird die Karre formatiert. Mal sehen was dann passiert. Vielleicht ist der Fehler dann behoben.

Ich will für die GPUs bei am besten unter 1000€ bleiben, vielleicht klappt es da sogar mit den Ti´s?

Die will ich auch, unschlüssig bin ich noch ob 250 oder 500 GB. Vielleicht entscheidet Alternate das, denn in meinem Paket soll ein Gutschein sein. Ich habe einfach nochmal Lust alles neu zu installieren mit dem jetzt perfekt werdenden Setup, auch wenn es einen Monat dauern wird, ich habe mir gesagt wenn ich die Kiste neu aufsetze dann nur auf eine NVME-SSD.

Ich habe eine FE auf Kleinanzeigen für 550 € gesehen, rechne aber mal mit 600 € pro Karte wenn du gebraucht kaufst.

ich hatte damals übergangsweise zwei 1070 @SLi in einem der rechner (bis die erste TXP hier eintrudelte).

es fällt mir schwer nachzuvollziehen, wie man auf sowas bock haben kann. im SLi gab es keinen fast-sync.. kein mfaa.. mieses scaling bei UHD-auflösung (doom etwa erzeugte weniger fps im SLi als im sGPU modus).. abartig hoher verbrauch.. weniger max-OC pro karte.. massive zeitverschwendung mit sli-bit-frickelei im NVI.. ein total aufgeheiztes case.. und vergleichbar mit einer anständigen SGPU-lösung nur da, wo man entweder die frames per limiter/vsync limitiert oder wo man nur auf ein messergebnis guckt ohne selbst gespielt zu haben. letzteres ist überhaupt das totschlagargument gegen zwei GPUs. sind die fps nicht abartig hoch, fühlt sich AFR immer klar beschissener an als sGPU.

alle jahre wieder das gleiche -> gibt es die selbe leistung aus einer karte, verzichte auf zwei kleine gurken.


(..)

Gsync funktioniert doch, meines Wissens? Abartig hoher Verbrauch... Der einer 1080 Ti ebenbürtig ist, die ja, zumindest bei mir locker mal 350 W ziehen wird. Eine Heizung wird das aber dafür habe ich noch Lüfter bestellt und werde im 750D auf Maximalbelegung gehen. SLI ist nur für AAA-Titel geeignet, um die es mir persönlich dabei aber auch ginge. Wie ich oben schrieb läuft CoD4 auf 400 FPS maxed out in 4K, andere Spiele dieser Ära auch, FPS-Probleme habe ich nur in neuen Titeln. Selbst Crysis 1 läuft auf der 1070 mit Einsparungen am MSAA (Wer braucht bei 4K bitte 8x?) super.

Ich habe einige Videos von MEA auf Maximum auf der 1070 gemacht, jetzt muss nur noch die neue Karte kommen... Es geht in manchen Sequenzen auf einstellige FPS herunter, obwohl es größtenteils 'spielbar' ist, das heißt natürlich Konsolen-FPS nahe der 30-FPS-Marke. 60 FPS, bekomme ich mit meiner 1070 nicht, egal was ich mache, auf nativer Auflösung. Und alles andere ist für mich sinnfrei, ich kaufe mir ja keine 3840 Pixel um sie dann nicht auch zu benutzen.
 
Welche Auflösung möchtest du denn bedienen? 1080 gehen teils schon ziemlich billig weg, aber solltest du dir bei einer normalen 1080 nicht zu viel erhoffen. Gerade bei 4K wirst du nichts merken. Da muss es eine Ti oder eben zwei 1070 sein. Der Sinn des SLI ist ganz einfach, für die Leute die nicht karrenweise Geld herumliegen und bereits eine 1070 haben, sie kaufen gebraucht günstig eine zweite und sparen 250 € gegenüber der Ti...

Wahrscheinlich 1440p @ 16:9 die nächste Jahre.

Deine Rechnung mit den 250 € hinkt aber denn erstens hat man mit SLI kein so einfach kompatibles/leistungsstabiles System und zweitens wird der Wiederverkaufswert in 3 Jahren einer 1080 TI höher sein als der zweier 1070er Karten.
 
Da würde ich mittlerweile die Ti nehmen, die 1070 ist schon fast zu schwach dafür.

Das kann man sich alles schönrechnen, für mich relevant war der Gebrauchtpreis meiner 1070 in Relation zum Zuschlag für eine Ti (FTW3) und einer zweiten 1070 FTW mit Bridge. Diese hätte ich gebraucht gekauft, gebraucht die Ti zu bekommen mit signifikanter Preisminderung halte ich für ausgeschlossen - Zumindest nicht die meiner Wahl. Die Zotac AMP! Extreme stand noch zur Auswahl, da hat man bei Gebrauchtkauf dann zusätzlich wieder den 'Spaß' mit der Rechnung, denn auf Kleinanzeigen ist bekanntermaßen alles "gewonnen". Ich kaufe aber bestimmt keine solche Grafikkarte ohne Garantie.
 
2x 80-90 Watt Unterschied find ich schon viel und das rentiert sich bei 6-8 Std schon. Hab ja nicht gesagt das ich auf sachen verzichte die das Spiel schlechter aussehen lassen.

Ich passe die Werte zum Spiel entsprechend an.

Dafür kann ich die Spannung bei 0,800V belassen und hab es Kühler.

Gesendet von meinem SM-G935F mit Tapatalk
 
Zuletzt bearbeitet:
da verliert man die lust von der rx480 umzusteigen :d

Nein, rx480 für 340 euro verkaufen und dann für ein paar Euro mehr eine 1070 holen. Ich warte noch auf das nächste gute angebot, die Msi gab es ja schon mit cashback für effektiv 360 Euro. Ich hoffe nur, man merkt in 1080p überhaupt einen Unterschied...

Gesendet von meinem XT1650 mit Tapatalk
 
2x 80-90 Watt Unterschied find ich schon viel und das rentiert sich bei 6-8 Std schon. Hab ja nicht gesagt das ich auf sachen verzichte die das Spiel schlechter aussehen lassen.

Ich passe die Werte zum Spiel entsprechend an.

Dafür kann ich die Spannung bei 0,800V belassen und hab es Kühler.

Gesendet von meinem SM-G935F mit Tapatalk

Das macht an sich auch Sinn aber im SLI dennoch etwas komisch/fraglich:). Zu meiner WoW Zeit habe ich die Graka nur auf 80% laufen lassen was mehr als genug Leistung war. Das Spiel lief aber auch jeden Tag min 4-5 Stunden.
 
Nein, rx480 für 340 euro verkaufen und dann für ein paar Euro mehr eine 1070 holen. Ich warte noch auf das nächste gute angebot, die Msi gab es ja schon mit cashback für effektiv 360 Euro. Ich hoffe nur, man merkt in 1080p überhaupt einen Unterschied...

Gesendet von meinem XT1650 mit Tapatalk
Hab die 480 schon für 360€ verkauft.
Ich warte auch auf ein schönes Angebot, zur not halt vor 30.6. einfach für aktuell 370€ die Msi gaming

Meine Iris Pro reicht für den Übergang erstmal. Spiel eh fast nur Rocket league oder grim Dawn Grad. Das läuft auf High mit 60fps

Gesendet von meinem Redmi 4 mit Tapatalk
 
2x 80-90 Watt Unterschied find ich schon viel und das rentiert sich bei 6-8 Std schon. Hab ja nicht gesagt das ich auf sachen verzichte die das Spiel schlechter aussehen lassen.

Ich passe die Werte zum Spiel entsprechend an.

Dafür kann ich die Spannung bei 0,800V belassen und hab es Kühler.

Gesendet von meinem SM-G935F mit Tapatalk

Mit einer 250W Ti sparst du auch 170 Watt (2x 1070 FTW mit 210 Watt = 420 Watt) undzwar OHNE dafür 2x 450 Euro Karten auf die Leistung von 2x 300 Euro Karten (GTX 1060) runtertakten zu müssen..

Denk mal drüber nach ohne gleich nein zu rufen ;)

- - - Updated - - -

Das macht an sich auch Sinn aber im SLI dennoch etwas komisch/fraglich:). Zu meiner WoW Zeit habe ich die Graka nur auf 80% laufen lassen was mehr als genug Leistung war. Das Spiel lief aber auch jeden Tag min 4-5 Stunden.

Sinn machts nicht, er treibts ja so extrem das er eigentlich auch hätte bei einer 1070, im Extremfall einer 1080 hätte bleiben können und dieselbe Leistung wie mit dem extrem gedrosselten SLI hätte..
 
Die kommt auf maximal 180 Watt, macht zusammen nur 360W. Abzüglich 2x 80-90W sind 190 Watt.

Und nein, das SLI ist dennoch besser als eine 1060 allein.

Gesendet von meinem SM-G935F mit Tapatalk
 
Macht keinen Sinn, du legst dir ja alles so das du im Recht bist, schade das du so beratungsresistent bist..
 
Beratungsresistent? Ich hab nach gar keiner gefragt ^^ Ich weiß am besten was gut oder schlecht ist.

Jeder wie er halt mag oder kann.

Gesendet von meinem SM-G935F mit Tapatalk
 
Ei lass iWeb doch sein Ding machen, er hat halt seinen Spaß dran, mit der angezogenen Handbremse.

Und... wenn er dann die Leistung braucht, ist es doch ein schönes Gefühl die Spannung und den Takt dann anzupassen.
 
Und... wenn er dann die Leistung braucht, ist es doch ein schönes Gefühl die Spannung und den Takt dann anzupassen.

So siehts aus. Werde mir doch nichts einreden lassen wenn ich selbst die Erfahrung hab.
 
Ich würde wenn auf die 1080 FTW wechseln wollen. Die 1070 FTW habe ich bereits;)

Mir wäre das nicht genug Leistungsunterschied. Maximal 30 %... Selbst jetzt wo ich vielleicht für 60 € wechseln hätte können, eine einzelne 1080 würde für meine Ansprüche nicht reichen.

Hab die 480 schon für 360€ verkauft.
Ich warte auch auf ein schönes Angebot, zur not halt vor 30.6. einfach für aktuell 370€ die Msi gaming

Meine Iris Pro reicht für den Übergang erstmal. Spiel eh fast nur Rocket league oder grim Dawn Grad. Das läuft auf High mit 60fps

Das ist mal echt heftig und ich dachte 395 € für meine FTW wären ein guter Preis.

Mit einer 250W Ti sparst du auch 170 Watt (2x 1070 FTW mit 210 Watt = 420 Watt) undzwar OHNE dafür 2x 450 Euro Karten auf die Leistung von 2x 300 Euro Karten (GTX 1060) runtertakten zu müssen..

Denk mal drüber nach ohne gleich nein zu rufen ;)

- - - Updated - - -

Sinn machts nicht, er treibts ja so extrem das er eigentlich auch hätte bei einer 1070, im Extremfall einer 1080 hätte bleiben können und dieselbe Leistung wie mit dem extrem gedrosselten SLI hätte..

Die einzelne Ti ist etwas effizienter, weil sie nur einen Satz Spannungswandler und Speicherchips braucht. Allerdings verbraucht die keine 250 W, sondern eher 300+. Bei so einer High-End-Karte denke ich aber nicht ans Strom sparen. Dafür habe ich meinen Zweit-PC, dieser hier ist auf maximale, kompromisslose Performance ausgelegt und läuft entsprechend nur wenn ich die brauche.

Ei lass iWeb doch sein Ding machen, er hat halt seinen Spaß dran, mit der angezogenen Handbremse.

Und... wenn er dann die Leistung braucht, ist es doch ein schönes Gefühl die Spannung und den Takt dann anzupassen.

Er hat immerhin die Option, fraglich ist auch was er damit macht. In MEA würden mir zwei voll getaktete 1070 gerade so reichen.

Wo man gerade beim Thema ist, es duftet nach Erwärmung angenehm nach Frischhaltefolie, ich habe nun eine 1080 Ti! Mich würde sehr interessieren wie sich in 4K die FPS gegenüber den 1070 schlagen. Es ist hart an der Grenze... Ich habe aber auch wirklich alles aufgedreht, inklusive 8 x Hairworks MSAA in Witcher 3. Absolut krank!
 
Für mich war das weit weg von gut :d

Gesendet von meinem Redmi 4 mit Tapatalk
 
Die einzelne Ti ist etwas effizienter, weil sie nur einen Satz Spannungswandler und Speicherchips braucht. Allerdings verbraucht die keine 250 W, sondern eher 300+. Bei so einer High-End-Karte denke ich aber nicht ans Strom sparen. Dafür habe ich meinen Zweit-PC, dieser hier ist auf maximale, kompromisslose Performance ausgelegt und läuft entsprechend nur wenn ich die brauche.

Es gibt ja auch Ti Custom Karten die "nur" 250 Watt TDP haben (Aorus Serie) oder knapp darüber sind (STRIX OC 280W) und gut boosten stock.
Wer hier für 900 Tacken Karten kauft und sie auf 600 Tacken Niveau runtertaktet wird auch die TI eher nicht ocen, denk ich mir mal.
Da haste für weniger Geld, ähnlich energieeffizient und schnell ne Karte mit 3GB Ram mehr und viel weniger Problemen.

Klar kann man SLI mache wenn man Bock drauf hat, das ist das Luxx da hat nicht allles Sinn. Nur hier Gerät der versuch der logischen Begründung der Sache halt schon langsam zur Groteske.. Einfach sagen ich hab Bock drauf, scheiss drauf obs Sinn macht tuts manchmal auch iwebi ;)
 
Zuletzt bearbeitet:
2x 80-90 Watt Unterschied find ich schon viel und das rentiert sich bei 6-8 Std schon. Hab ja nicht gesagt das ich auf sachen verzichte die das Spiel schlechter aussehen lassen.

Ich passe die Werte zum Spiel entsprechend an.

Dafür kann ich die Spannung bei 0,800V belassen und hab es Kühler.

Gesendet von meinem SM-G935F mit Tapatalk
Bei 0.8v muss man den Takt aber nicht auf 1400mhz begrenzen, 1750 - 1800 gehen damit auch

Gesendet von meinem GT-I9300 mit Tapatalk
 
Da steigt aber wieder der Verbrauch :d

Es klingt für mich trotzdem komisch, da das aufs Jahr vielleicht ein paar Cent sind, du allerdings für 800 € Grafikkarten gekauft hast.

Ich zahle 42 €... Und vermutlich bekomme ich noch Rückzahlungen am Jahresende.
 
Ich hab mich auf 1607mhz mit 0,800V überreden lassen. Verbrauch ist laut HWInfo gleich.

1700mhz geht nicht mehr mit 0,800V da wird Bildschirm unter Last schwarz und lässt sich nicht mehr überreden Bild zu geben xD Hilft nur Neustart.

GTA V läuft auf sehr Hoch und allen Details die man hochstellen kann bis auf AA Dinge mit Konstante 60 FPS in 4K :banana:
Ohne VSync sogar bis 110 FPS.

Habt also recht, zu wenig Takt macht keinen Sinn. Dennoch soll es ein Mittelwert bleiben um so wenig Spannung wie möglich zu haben.

Temps liegen bei 60-70 und die zweite unten immer 50-60°c
 
Zuletzt bearbeitet:
Gaming PC undervolten - OK -- aber untertakten ... so einen auf Handbremse ;) ach neee *G*

Strom sparen würde ich nur bei Mining Systemen ...

ich spare schon genug Strom in dem ich die Graka auf max 60 FPS begrenze ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh