[Sammelthread] NVIDIA GeForce GTX 1070 (GP104) Sammelthread + FAQ

NVIDIA GeForce GTX 1070 (GP104) Sammelthread + FAQ


Impressionen der Karte:

geforce-gtx1070-1-840x560.jpg

geforce-gtx1070-2-840x560.jpg

geforce-gtx1070-9-840x560.jpg

geforce-gtx1070-10-840x560.jpg

geforce-gtx1070-11-840x560.jpg

geforce-gtx1070-3-840x560.jpg

geforce-gtx1070-4-840x560.jpg

geforce-gtx1070-5-840x560.jpg

Technische Daten der GeForce GTX 1070
  • Chip = GP104-300-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 7,2 Milliarden
  • Die-Größe = 314 mm²
  • Shader-Einheiten = 1.920 (1D) (15 SMM)
  • Texture Mapping Units (TMUs) = 120
  • Raster Operations (ROPs) = 64 (48)
  • Pixelfüllrate = 72,3+ GPixel/s
  • Texelfüllrate = 180,7+ GTexel/s
  • Chiptakt = 1.506 MHz Baseclock + Boost (1.683 MHz) + Max. Boost (~1.880 MHz)
  • Speichertakt = 4.007 MHz
  • Speichergröße = 8.192 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 256 Bit
  • Speicherbandbreite = 256,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 150 Watt
  • Leistungsaufnahme 2D = ~9 Watt
  • Versorgung über einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Geizhals Link:
GeForce GTX 1070 | Deutschland - Preisvergleich



Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX 1070 erreicht im Leerlauf mit 0,4 Sone genau den selben Wert der 1080. Der Radiallüfter dreht mit ~1.100 RPM bei 27% PWM-Stärke. Unter Last schwankt die Lautheit zwischen 2,5 Sone (~50%) bis zu (max) 2,9 Sone (53% PWM @~2.120 RPM), was deutlich weniger als bei der GTX 1080 ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.000 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX 1070 beträgt im Leerlauf vollkommen um die 32 °C. Unter Last (Games) kann die Temperatur auf bis zu 84 °C steigen, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Allerdings erreicht die 1070 zumindest im Freiluftbetrieb gerade so die 80-81 °C, was dazu führt, dass die Karte, anders als bei der 1080, die Taktraten nicht wegen der Temperatur, sondern durch das enge Powerlimit, senkt.

Wie hoch ist der Stromverbrauch?
Die GTX 1070 verbraucht im Leerlauf um die 9 Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX 1070, egal ob in Games oder im Furmark, maximal 150 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GTX 1070 eine sehr hohe Effizienz.

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX 1070 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 800% (1080p), bzw. 107% (4K) und ist so im Mittel aller Reviews rund 7% schneller als eine GTX 980 Ti und damit auch schneller als eine Titan X (stock). Die GTX 1080 ist im Vergleich zur 1070 rund 20% (1080p), bzw. 23% schneller (4K).
Launch-Analyse nVidia GeForce GTX 1070 | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Die 1070 verhält sich bezüglich der Taktraten sehr ähnlich wie die 1080. Laut den ersten Reviews sollte es machbar sein, dass jede GPU rund 1,95 bis 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Das man kaum höhere Taktraten erreichen konnte liegt in erster Linie daran, dass bei der GTX 1070 das Power Target stark limitiert. So kann man dieses zwar per Tool auf 112% anheben (168 Watt), aber selbst das reicht nicht aus, um konstant die maximal mögliche Taktrate zu erreichen und konstant halten zu können. Mit einer besseren Kühlung und somit kühleren GPU Temperaturen und folglich einer geringeren Verlustleistung sind noch etwas höhere Taktraten erreichbar.

Einen Interessanten Beitrag mit Praxisbezug zum Thema Undervolting hat der User BK-Morheus veröffentlicht. In dem Video sieht man, wie man eine GTX 1070/1080 mit Hilfe des "curve editors" des Afterburners undervolten kann:
https://www.youtube.com/watch?v=UGeGLU8uh9M&ab_channel=BennyLikesTech

Was einer erhöhten OC-Performance noch im Weg stehen kann, ist die Speicherbandbreite. Die 1070 besitzt zwar die Rechenleistung einer 980 Ti oder Titan X, allerdings nur rund 76% deren Speicherbandbreite. Gerade bei hohen GPU-Taktraten kann die durch das 256 Bit breite Speicherinterface und den 8 Gbps starken Speicher erreichte Bandbreite zu gering für eine deutliche Skalierung sein.

Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1070. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.
 
Zuletzt bearbeitet:
@KnSNaru
Da bin ich auch deiner Meinung. :)

Ich bin mit meinem neuen Skylake sehr zufrieden und bekomme ihn für 24/7 auch mit bis zu 4,7Ghz gut am laufen.
Mit nur 4,5 Ghz schaffe ich es sogar mit nur 1,200v.

Zum Sandy Bridge und Ivy Bridge kann ich nichts berichten, da ich zu der Zeit selbst noch AMD hatte.
Haswell fand ich aber soweit auch noch sehr gut und im Grunde gibt es da zum Skylake auch keinen großen Unterschied... wenn der DDR4 Speicher außer acht gelassen wird und selbst wenn macht der nicht so viel aus.

Habe heute sogar diesen Bericht gefunden, da soll der Kaby Lake schlechter als der Skylake abschneiden, wenn der mit nur 4,0Ghz betrieben wird.
Der Vorteil soll daher eher wegen dem höheren Werkstakt vorliegen, denn man beim Skylake mit OC auch hin bekommt.
Aber solange noch keine konkreten Ergebnisse existieren kann man ehe noch nicht viel dazu sagen.

Aber hier mal der Link dazu: Erste Benchmarks veröffentlicht: Intel Core i7-7700K vs. i7-6700K
Mir reicht der Skylake aus und der Kaby Lake ist mir in diesem Sinn daher egal.

Vorteil des Kaby Lake ist aber wegen den Lans, die er mehr kann.
Kann sich daher schon lohnen wenn durch mehrere Grafikkarten oder M.2 Laufwerke mehr Lans benötigt werden.

Aber ich glaube da kommen wir zu sehr ins Offtopic.... :d

- - - Updated - - -

@iWebi
Wenn du damit zufrieden bist, sind wir es auch... :)
Da du dass System selbst hast musst du dass selbst austesten und es selbst entscheiden... :)

- - - Updated - - -

Auch das Netzteil hat von Kauf an schon 10 Jahre Garantie und das ist doch eigentlich die beste Entscheidung für Leute die nicht die Möglichkeit haben Neu zu kaufen.
Die Frage ist halt was du bekommst wenn du nach 9 Jahren ein defekt hast...? Denn sie müssen nur Gleichwertig austauschen, so dass du kein Anrecht auf ein neues aktuelles Produkt hast. Was sie unter Kulanz machen, ist was ganz anderes... aber vielleicht bekommst du nur den Zeitwert von 5 Euro ausbezahlt.... :)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
DSR ist wie von meinerseits vermutet sehr von dem Post-Processing bedingt, denn die Vorberechnung übernimmt der Hauptprozessor, daher ist dies keine Alternative zu einer nativ gerenderten, hohen Resolution seitens dem Grafikprozessor.

In Watch Dogs 2 bricht sein System vollkommen ein. Es ist tendenziell ungleich, ob die Einstellungen mehr in Richtung Prozessor oder Grafikkarte gewählt sind, denn Watch Dogs 2 ist enorm von dem Post-Processing bedingt, sodass DSR die Katastrophe für den Hauptprozessor darstellt. Die zweite Grafikkarte zuzuschalten hat den Nutzeffekt gleich gen Null! Der Prozessor gibt den Takt an - er ist die Bremswirkung. De facto: DSR ist nichts für einen AMD-Prozessor, der gegenwärtig im Handel erhältlich ist. DSR ist kein Ersatz für die native Auflösung, weil der Hauptprozessor der geforderte Kandidat ist, aber es ist eine Ergänzung für denjenigen Anwender, welcher von einem kräftigen Intel-Prozessor profitiert, dessen Grafikkarte nicht die stärkste ist, denn die höhere Auflösung, welche gewonnen worden ist und somit derartig unschöne Effekte wie AA überflüssig macht, resultiert aus dem Potenzial des Prozessors!
 
Zuletzt bearbeitet:
aber vielleicht bekommst du nur den Zeitwert von 5 Euro ausbezahlt.... :)

Lassen wir es drauf ankommen. Es ist immer einfach was aus den Ärmeln zu saugen ohne es eigentlich besser zu wissen. Nicht böse nehmen ist aber so. Natürlich kann man nicht nach sagen wir 6 Jahren große Erwartungen haben was Neues und Deutlich besseres zurück zu bekommen aber eins ist fakt, EVGA arbeitet niemals unfair sondern versucht das best Mögliche für den Kunden zu finden.

Will den Hersteller jetzt nicht in den Himmel jubeln aber so schlecht wie manche anscheinend glauben, werden die mit Sicherheit nicht sein. Schaut mal ins EVGA Forum rein und schaut mal nach Usern die verärgert sind, man wird kaum darüber was zu lesen bekommen.

Schaut da als vergleich aber jetzt mal ins MSI oder ASUS rein... da sieht das alles anders aus.
 
Zuletzt bearbeitet:
Glaube ich muss mir mal Watch Dogs 2 kaufen... :d
... denn dann kann ich 1x dass ganze mit meiner Grafikkarte und meinem System mit 1080p testen und 1x dann mit meinem UHD Fernseher(2160p).

Glaube das Spiel bekomme ich momentan für etwa 35 Euro... :fresse2:

- - - Updated - - -

Lassen wir es drauf ankommen. Es ist immer einfach was aus den Ärmeln zu saugen ohne es eigentlich besser zu wissen. Nicht böse nehmen ist aber so.
Ist leider nicht so...

Fall1: Vor einigen Jahren kaufte ich mir ein Fernseher für 799 Euro.
Der ging nach nur 1 1/2 Jahren kaputt.
Angeblich konnte der nicht mehr repariert werden und was gleichwertiges hatten sie nicht mehr.
Ich bekam nur 350 Euro als Zeitwert zurück.

Fall2: MSI GTX770 war nach einem Jahr defekt, ich bekam die gleiche als Ersatz in Gebraucht zurück.
Hätte ansonsten noch ein Zeitwert von 140 Euro bekommen.

Fall3: Unsere zweite GTX770 ging nach nur 1 1/2 Jahr auch defekt.
Bei der ging noch nicht mal mehr das Bild.
Nach drei Monate und sehr viel Nerven bekam ich als Ersatz nur eine 960er, da diese vom Preis her dem Zeitwert entsprach und keine 770er als Ersatz da war.
Ansonsten hätte ich nur ein Zeitwert von nur 135 Euro bekommen.

Die Grafikkarten hatten jeweils 280 Euro neu gekostet.
Ich sauge mir daher nichts aus dem Ärmel, denn versprechen tun Hersteller immer viel, was am ende wirklich dabei heraus kommt steht ganz wo anders geschrieben. ;)

Mit 47 Jahre habe ich daher schon etwas an Erfahrung sammeln können... und auch wenn ich noch nicht allzu viel Garantiefälle hatte, hatte ich bisher noch nie den Fall dass ich wirklich zufrieden gestellt wurde.
Nicht böse sein... manches ist halt nicht mehr als nur Wunschdenken.

Wenn ich Hardware kaufe ist nicht unbedingt der Preis ausschlaggebend, aber die Leistung die ich haben möchte.
Dieses ganze Garantie Getue ist bei mir nur zweitrangig.
 
Zuletzt bearbeitet:
Ja deine Erfahrung zu anderen, aber EVGA muss nicht auch so sein. Einfach nur in ein Topf schmeißen ist einfacher als getan, aber es kann ja noch Hersteller geben die nicht so sind wie der misse MSI Support.

Kann aber deine Denkweise auch verstehen nur trifft die hier diesmal echt nicht zu. Die haben mir sogar in weniger als 24std ein neues Bios geschickt. Mach das mal bei MSI oder ASUS da kannst du länger als die paar Stunden warten.
 
Wieso sollen andere Hersteller schlechter sein wenn es um Support geht?

Ich hatte eine Frage an Zotac bezüglich meiner Registrierung.
Ich bekam innerhalb von nur 24 Stunden Rückantwort und meine Frage wurde auch mit meiner Zufriedenheit geklärt.

Im August hatte ich mein System mit einem MSI Board zusammen gestellt.
Der Rechner lief soweit gut, nur hatte ich damals mit einem Lüfter-Fan Probleme, da dieser sich nicht Drehzahl regeln ließ und immer voller Drehzahl hatte.
Der Support von MSI hat mir ganze 14 Tage lang versucht zu helfen.

Hierbei habe ich sogar 2 neue Bios Versionen zum Testen bekommen, die sie extra zu meinem Problem mir zukommen lassen haben.
Leider konnte dass Problem nicht gelöst werden, so dass ich dass Board dann zur Garantie einsendet.
Von Altenate bekam ich ich nach nur 14 Tage ein neues Board gesendet.

Gut bei EVGA ist das gute, dass man direkt die Garantie mit ihnen abwickeln kann.
Und ich habe bisher nur gutes davon berichtet bekommen und wo sie sehr kulant sein sollen.

Für die MSI 1070 Grafikkarte meines Sohnes musste ich nicht extra nach einem neuen Bios fragen, hier stand schon auf der Herstellerseite eines bereit.
Bei MSI ist halt dass doofe dass die Garantie über den Händler abgewickelt werden muss, da MSI nicht direkt mit dem Endkunde die Garantie abwickelt.

Aber auch mit Asrock stand ich letztens wegen einem Problem im Kontakt.
Und auch sie haben mir mehrere Tage sehr gut versucht zu helfen.

Aber ist auch egal... wir kommen jetzt zu sehr ins Offtopic und ganz egal... keiner wird dir sagen können was EVGA mit deinen Grafikkarten und Netzteil nach so langer Zeit noch machen kann oder wird.
Es ging mir jetzt aber nur speziell um die Garantiezeit bis zu 10 Jahre, denn innerhalb der ersten 2-3 Jahren habe ich bisher von EVGA noch nichts negatives gelesen.
 
Zuletzt bearbeitet:
Test SLI

Würde sagen jetzt muss noch der Monitor (UHD) und schleunigst die CPU + Board aufgerüstet werden. Sieht man auch im Test sehr schön. Rentiert sich eigentlich nur für UHD wirklich insofern SLI vom Spiel unterstützt wird und gut skaliert...
Eventuell hätte ich einfach noch gewartet was die 1080 TI macht. Wenn man Pech hat ist sie in vielen Spielen sogar schneller als 2x 1070 im SLI und man hat nicht mit den typischen Multigpuproblemen zu kämpfen. Zudem muss man immer auf die Profile hoffen wann diese endlich kommen.

Ich denke aufgrund der Konfiguration mit dem AMD würde ich die zweite Grafikkarte auch zurück senden und erstmal CPU, Board und den Monitor (UHD) aufrüsten und erst dann würde ich mir über ein SLI System Gedanken machen, denn das will auch ausreichend befeuert werden können. Der Ganze Unterbau mit dem AMD bremst die Karten einfach zu sehr aus... Nur PCI-E 2.0, AMD Prozessor, usw usw
Keine gute Konstellation für SLI...

Siehe zum Beispiel Doom oder Anno. Da sind 2 Karten langsamer als eine... An so etwas muss man sich gewöhnen und die Leistung der 2ten Karte ist nichtig und das Spiel läuft sogar langsamer. Ich würde lieber auf eine 1080TI setzen als auf 2 x 1070 SLI. Nicht böse gemeint, aber das wäre aus meiner Sicht als alter PCler die bessere Wahl auf Dauer! ;)
 
Zuletzt bearbeitet:
Ehrlich gesagt würde ich mir keine 1080 kaufen statt der 1070 im SLI. Lieber abwarten bis zur Ti und diese dann kaufen. SLI lohnt wirklich nur in ganz bestimmten Titeln. Bei mir wäre es Mass Effect: Andromeda für das ich auf ein SLI umrüsten würde, aber nur dann wenn ich signifikant Einstellungen reduzieren müsste. Würde es alles nur noch auf "Mittel" laufen könnte auch eine 1080 da nichts mehr bewirken.

Vielleicht schaut er mal nach einem 5820K-Bundle, das ist um Welten besser als seine AMD-Plattform aber noch bezahlbar. Wechseln kann er es immer noch, obwohl ich bezweifle dass Zen so viel besser wird wenn überhaupt, bei Zen wäre nur ein bezahlbarer Achtkerner später sehr interessant.

Die Frage ist halt was du bekommst wenn du nach 9 Jahren ein defekt hast...? Denn sie müssen nur Gleichwertig austauschen, so dass du kein Anrecht auf ein neues aktuelles Produkt hast. Was sie unter Kulanz machen, ist was ganz anderes... aber vielleicht bekommst du nur den Zeitwert von 5 Euro ausbezahlt.... :)

Ich habe mal gehört dass jemand eine GTX 460 eingeschickt hat bei EVGA und eine 960 dafür bekam. Das ist schon ein hervorragender Service, aber bei derart langen Garantiezeiten geht das auch nicht anders. Ich glaube, in dem Fall wäre selbst eine 950 ein Upgrade gewesen.
 
Das war ein BeQuiet P10 1200 W.

Es sind 3-Pin, jedoch bietet mein BIOS (ASUS X99/3.1) dafür eine Option, leider geht nicht weniger als 60 %. Da ist ja das Problem.
Echt, immer noch so bei Asus? Das hat mich auch beim P8P67 schon geärgert. Da hilft nur manueller Eingriff. Kommt halt darauf an ob man sich das zutraut.

Man kann einfach einen Widerstand in die rote Leitung einbauen um damit zusätzlich die Spannung zu senken, oder besser mit Dioden das erzeugt nicht soviel Verlustleistung.

So habe ich meine 3-Pin Lüfter bei 60% von 800U/min auf 550U/min bekommen.

Der Widerstandswert hängt halt von der Leistungsaufnahme vom Lüfter ab. Liegt aber so im Bereich 33-100Ohm.
 
wenn man zu schnelle Lüfter verbaut einfach nen 7V Adapter dazwischen
und schon kann man wieder wie gewohnt regeln

60% sind dann eben andere 60%

musste das bei meiner GtX 970 und dem bequiet Lüfter so machen
denn die Karte hatte eine willkürliche Steuerung - und musste somit ans Board

ich bring gerade was durcheinander... xD erst mal Sohn versorgen xD
 
Vielleicht schaut er mal nach einem 5820K-Bundle, das ist um Welten besser als seine AMD-Plattform aber noch bezahlbar. Wechseln kann er es immer noch, obwohl ich bezweifle dass Zen so viel besser wird wenn überhaupt, bei Zen wäre nur ein bezahlbarer Achtkerner später sehr interessant.

Hab ich ja jetzt im Januar/Februar oder März vor. Aber ich warte nur noch AMD Zen Tests ab um später nicht zu bereuen doch gewartet zu haben.
Geld ist jedenfalls genug vorhanden um ein 6 Kerner von Intel aufzubauen.
Bildschirm kommt etwas später dann.

Ich kann euch aber verstehen, nur nun ist eben die 2. 1070 hier und bleibt auch. Wenn mich mal SLI ankotzt gibt es anderweitig für Verwendung. Hab ja Brüder die auch gern spielen.

Ich habe mal gehört dass jemand eine GTX 460 eingeschickt hat bei EVGA und eine 960 dafür bekam. Das ist schon ein hervorragender Service, aber bei derart langen Garantiezeiten geht das auch nicht anders. Ich glaube, in dem Fall wäre selbst eine 950 ein Upgrade gewesen.

An sowas kann ich mich auch noch gut dran erinnern.
 
Zuletzt bearbeitet:
@KnSNaru
bringst Du da nicht etwas durcheinander wenn Du Fernsehübertragung mit h264 Codec mit Artefakten bei schnellen Bewegungen und Tearing in den gleichen Topf wirfst. Leider wird bei der Fernsehübertragung oft mit der Bandbreite geizig umgegangen, daher kommt es dann zu Artefakten bei schnellen Bewegungen.

Generell stimmt Deine Aussage langsame Bewegungen besuchen weniger fps um flüssig zu wirken als schnelle Bewegung.

Beim PC gibt es keine I, P der sonstige Komprimierte Frames, da gibt es nur Vollbilder, daher gibt es auf dem PC bei schnellen Bewegungen keine Artefakte, sieht dann nur ruckelig aus.

Außerdem gibt es auch Tearing wenn die fps unterhalb der Monitor Frequenz liegt.

Ich persönlich empfinde Tearing als arg lästig, gerade im Bereich von 60-100fps, bei einem 60Hz Monitor. Interessant ist aber, je höher die fps werden, desto weniger störend empfinde ich das. Bei 100fps sieht es schon ganz gut aus, erreicht aber nicht das softe V-Sync Gefühl.
 
Ich hatte eine Frage an Zotac bezüglich meiner Registrierung.
Ich bekam innerhalb von nur 24 Stunden Rückantwort und meine Frage wurde auch mit meiner Zufriedenheit geklärt.

Zotac ist da natürlich auch noch ganz gut aber MSI und ASUS kommen nicht an EVGA ran. Hab genug Beschwerden erlebt die berechtigt waren.

Hab jetzt nur gezielt 2 in den Raum geworfen wo es oft zutrifft.
Es muss nicht bei jeden schief laufen aber es kommt nunmal zu oft vor.

Ganz besonders ASUS... würde ich mir nicht freiwillig ins Haus holen.
 
Echt, immer noch so bei Asus? Das hat mich auch beim P8P67 schon geärgert. Da hilft nur manueller Eingriff. Kommt halt darauf an ob man sich das zutraut.

Man kann einfach einen Widerstand in die rote Leitung einbauen um damit zusätzlich die Spannung zu senken, oder besser mit Dioden das erzeugt nicht soviel Verlustleistung.

So habe ich meine 3-Pin Lüfter bei 60% von 800U/min auf 550U/min bekommen.

Der Widerstandswert hängt halt von der Leistungsaufnahme vom Lüfter ab. Liegt aber so im Bereich 33-100Ohm.

Was meinst du, diese Adapter aus China? Sie mit 5 oder 8 V zu betreiben würde schon helfen. Die Sache ist, beim vorherigen Maximus V Formula konnte ich es bequem in der AI Suite machen, jetzt lässt diese sich nicht installieren.

Es gibt Adapter die die Spannung senken, aber die müsste man kaufen und einbinden, eigentlich hatte ich ja gehofft dass das auch so geht. Die Lüfter laufen mit 1000 RPM, 500 - 600 sollten schon reichen. Meine Hardware hat im Idle Raumtemperatur.
 
DSR ist wie von meinerseits vermutet sehr von dem Post-Processing bedingt, denn die Vorberechnung übernimmt der Hauptprozessor, daher ist dies keine Alternative zu einer nativ gerenderten, hohen Resolution seitens dem Grafikprozessor.

In Watch Dogs 2 bricht sein System vollkommen ein. Es ist tendenziell ungleich, ob die Einstellungen mehr in Richtung Prozessor oder Grafikkarte gewählt sind, denn Watch Dogs 2 ist enorm von dem Post-Processing bedingt, sodass DSR die Katastrophe für den Hauptprozessor darstellt. Die zweite Grafikkarte zuzuschalten hat den Nutzeffekt gleich gen Null! Der Prozessor gibt den Takt an - er ist die Bremswirkung. De facto: DSR ist nichts für einen AMD-Prozessor, der gegenwärtig im Handel erhältlich ist. DSR ist kein Ersatz für die native Auflösung, weil der Hauptprozessor der geforderte Kandidat ist, aber es ist eine Ergänzung für denjenigen Anwender, welcher von einem kräftigen Intel-Prozessor profitiert, dessen Grafikkarte nicht die stärkste ist, denn die höhere Auflösung, welche gewonnen worden ist und somit derartig unschöne Effekte wie AA überflüssig macht, resultiert aus dem Potenzial des Prozessors!
Bitte was. Du nutzt einen Duktus der auf ein hohes Niveau an Basics hindeutet, verbreitest dabei jedoch nicht haltbare Thesen. Seit wann belastet dsr bitte die CPU und warum soll dsr im Gegensatz zu 4k nativ die CPU statt Gpu belasten, obwohl diese das Rendering vornimmt das Signal bei dsr vor der Ausgabe lediglich herunterskaliert

Gesendet von meinem GT-I9300 mit Tapatalk
 
Bei gleicher Framerate dürfte die Anforderung an den Prozessor bei jeder Auflösung ähnlich sein. Die Auflösung berechnet die Grafikkarte, der Prozessor nur Objekte und Physik. Höhere Auflösungen sind immer nur GPU-lastig.

Dass der AMD-Prozessor alles andere als optimal ist dürfte ihm selbst klar sein, je nach Spiel. In BF1 dürfte der Nachteil gar nicht mal so groß sein da das Spiel die Kerne auslastet, in anderen Spielen wie Arma 3 würde es wohl ein massiver Nachteil.

Mal so eine Frage: Welche Auflösung spielt er und warum zwei 1070? Bei der Leistung ist ein 4K60- oder 2K144-Monitor eigentlich Pflicht. DSR würde ich nur bei alten Spielen nutzen wo extrem viel Leistung über bleibt, aber wenn die Leistung auch in neuen Spielen da ist würde ich sie auch nativ sehen wollen. Zwei 1070 dürften sogar Witcher 3 in 4K schaffen, ohne Kompromisse.
 
Ist zwar logisch aber bei mir ist es bei höher stellen der Auflösung noch extremer.
Richtig. Das ich mit den AMD eher ne schlechte Wahl gewählt hab ist mir bewusst.

Ich spiele in 1080p Auflösung. Warum ich zwei gekauft hab kann ich dir jetzt auch nicht vernünftig beantworten. Hobby, SLI austesten und Erfahrung sammeln wahrscheinlich :d

Die Karte wäre ja nicht weggeschmissen falls ich mich wieder von SLI trennen will, da es noch zwei Brüder gibt die die durch den schlechten Speicher der 970 gut gebrauchen könnten.

Aber erstmal kaufe ich nen besseren Unterbau und teste es dann damit. Ob Intel oder AMD Zen muss sich zeigen. Noch gebe ich das Spielzeug nicht auf :fresse2:

In eins gebe ich euch aber natürlich recht, AMD ist ungeeignet gerade. FX ist schlechter als ich dachte.
 
Ist zwar logisch aber bei mir ist es bei höher stellen der Auflösung noch extremer.
Richtig. Das ich mit den AMD eher ne schlechte Wahl gewählt hab ist mir bewusst.

Ich spiele in 1080p Auflösung. Warum ich zwei gekauft hab kann ich dir jetzt auch nicht vernünftig beantworten. Hobby, SLI austesten und Erfahrung sammeln wahrscheinlich :d

Die Karte wäre ja nicht weggeschmissen falls ich mich wieder von SLI trennen will, da es noch zwei Brüder gibt die die durch den schlechten Speicher der 970 gut gebrauchen könnten.

Aber erstmal kaufe ich nen besseren Unterbau und teste es dann damit. Ob Intel oder AMD Zen muss sich zeigen. Noch gebe ich das Spielzeug nicht auf :fresse2:

In eins gebe ich euch aber natürlich recht, AMD ist ungeeignet gerade. FX ist schlechter als ich dachte.

Ich hätte da eher in einen Monitor investiert. Hier mag es Einige geben die meinen eine 1080 auf 1080p sei nicht überdimensioniert, zwei 1070 sind es aber wohl definitiv.

Die FX sind zum Spielen nicht geeignet, auch sonst würde ich die höchstens noch gebraucht für kleines Geld kaufen wenn es wirklich ein Schnäppchen ist. Wenn du auf Zen warten willst würde ich dir raten einen Monitor zu kaufen, dann kannst du die Grafikkarten behalten und auch nutzen. Ob hohe Auflösung oder 144 Hz ist da eine persönliche Vorliebe, bei hohen FPS wirst du aber erst richtig sehen wie schlecht dein AMD-Prozessor ist.

Ansonsten, vielleicht hätte ich in ein paar Monaten selbst Interesse an einer zweiten 1070. Aber erst einmal brauche ich ein Netzteil dafür. Das brauche ich sowieso.
 
Ich hätte da eher in einen Monitor investiert. Hier mag es Einige geben die meinen eine 1080 auf 1080p sei nicht überdimensioniert, zwei 1070 sind es aber wohl definitiv.

Die FX sind zum Spielen nicht geeignet, auch sonst würde ich die höchstens noch gebraucht für kleines Geld kaufen wenn es wirklich ein Schnäppchen ist. Wenn du auf Zen warten willst würde ich dir raten einen Monitor zu kaufen, dann kannst du die Grafikkarten behalten und auch nutzen. Ob hohe Auflösung oder 144 Hz ist da eine persönliche Vorliebe, bei hohen FPS wirst du aber erst richtig sehen wie schlecht dein AMD-Prozessor ist.

Ansonsten, vielleicht hätte ich in ein paar Monaten selbst Interesse an einer zweiten 1070. Aber erst einmal brauche ich ein Netzteil dafür. Das brauche ich sowieso.

Ich hab keinen AMD jetzt gekauft sondern den gibt es schon 2 Jahre hier. Ich kauf doch nicht nochmal ne Niete :d

Mach doch mal nen Vorschlag bei ein Kapital von 1000 Euro. Ja das hab ich noch xD

- - - Updated - - -

Hab mal ein Video in The Crew gemacht mit den SLI.

https://www.youtube.com/watch?v=r5YohCA4jig&feature=youtu.be

Kantenglättung hab ich 8x MSAA und alles andere auf Ultra.

Als Single ginge bei Kantenglättung nur 4x TXAA da sonst Frames einbrechen und umrund läuft.
 
Gebraucht ein 5820K-Bundle (Mit Rechnungen) um die 400 €. Beim Monitor solltest du dich erstmal fragen was du überhaupt willst. Ich habe mir letztes Jahr den Acer XB280HK gekauft, die bekommst du inzwischen schon recht günstig bei Kleinanzeigen (350 €), Neupreis waren 600 €... Aber dafür 4K mit Gsync. Ansonsten würde ich einen 2K144-Monitor von Dell oder Acer nehmen. Mit Gsync wenn es geht.
 
warte iwebi, ich schick dir mal meine Bankdaten... :shot:

Ich würd bei dem Budget über eine Wakü nachdenken. :d
 
warte iwebi, ich schick dir mal meine Bankdaten... :shot:

Ich würd bei dem Budget über eine Wakü nachdenken. :d

Wozu Wasserkühlung? Da wären alleine 200 € für die GPU-Blöcke fällig. Das AMD-Bundle ist vielleicht 200 € wert. Je nach Monitor wird es ganz schön teuer, theoretisch ginge da auch etwas Richtung Curved 3440 x 1440, aber da verbraucht der Monitor allein schon das ganze Budget.
 
Kantenglättung hab ich 8x MSAA und alles andere auf Ultra.
Als Single ginge bei Kantenglättung nur 4x TXAA da sonst Frames einbrechen und umrund läuft.
Habe das Spiel vorhin mit meinem System auch mal mit meinem FullHD Monitor getestet und mit meinem I7 6700K und meiner Zotac 1070er Grafikkarte(Stock) komme ich mit gleichen Einstellungen auch auf 60 FPS.
Dabei habe ich keine Frames Einbrüche.

Anhang anzeigen 386054 Anhang anzeigen 386055

Info für alle die dieses Spiel nicht kennen... auf The Crew kann man nur zwischen 30 und 60 FPS als Begrenzung auswählen, daher sind FPS über 60 FPS gar nicht möglich.
 
Zuletzt bearbeitet:
Wozu Wasserkühlung? Da wären alleine 200 € für die GPU-Blöcke fällig. Das AMD-Bundle ist vielleicht 200 € wert. Je nach Monitor wird es ganz schön teuer, theoretisch ginge da auch etwas Richtung Curved 3440 x 1440, aber da verbraucht der Monitor allein schon das ganze Budget.

wegen besserer Kühlung. Nen Mora in die Ecke stellen und mit dem dann alles kühlen. Das geht dann auch extrem leise. Das AMD Sys sollte dann aber schon vorher noch getauscht werden.
Einen 4K Monitor würde ich mir nicht holen, wenn dann die Auflösung da ist, die entsprechenden Settings gewählt werden, dürften das die 2 1070iger auch schon wieder ins Schwitzen bringen.

Ich hätte ja eher eine vernünftige 1080, maximal einen WQHD Monitor und ein gescheites, aber dennoch einigermaßen sparsames System auf Intelbasis geholt. Rein zum zocken hätte da locker der 6700K gereicht.
 
Habe das Spiel jetzt auch mit 4K getestet und ich komme auf 60 FPS nur wenn ich hierzu auf FXAA + SSAO zurück gehe.

Anhang anzeigen 386064 Anhang anzeigen 386062 Anhang anzeigen 386063

Bei dem Test handelt es sich um echtes 4K, da ich hierzu mein 55" UHD Fernseher auch mit an der Grafikkarte angeschlossen habe.
Ich würde mir daher als Monitor auch kein 4K holen, sondern nur eines mit 1440p ab 27" aufwärts.

- - - Updated - - -

Habe da was als Beispiel gefunden, was ich so ganz gut finde... ASUS ROG Swift PG278QR

Technische Daten:
Diagonale: 27"/​68.6cm • Auflösung: 2560x1440, 16:9 • Helligkeit: 350cd/​m² • Kontrast: 1.000:1 (statisch), 100.000.000:1 (dynamisch) • Reaktionszeit: 1ms • Blickwinkel: 170°/​160° • Panel: TN • Bildwiederholfrequenz: 144Hz (165Hz OC) • Anschlüsse: HDMI, DisplayPort 1.2 • Weitere Anschlüsse: 2x USB 3.0, 1x 3.5mm Klinke • Ergonomie: höhenverstellbar (120mm), Pivot, Swivel (±60°) • VESA: 100x100 (belegt) • Leistungsaufnahme: 90W (typisch), 0.5W (Standby) • Besonderheiten: LED-Backlight, NVIDIA G-Sync (30-165Hz), ULMB, 3D-fähig (NVIDIA 3D Vision 2 ready), flicker-free, Slim Bezel, Steuerkreuz-Menütaste • Herstellergarantie: drei Jahre (Pickup&Return)

Einzige Nachteil ist dass der Monitor TN Panel hat, bevorzugen würde ich IPS oder gar VA.
Preis liegt bei etwa: 669 Euro.
 
Zuletzt bearbeitet:
Hat der Swift nicht Probleme mit Bleeding?

Die von Dell sind mitunter deutlich günstiger. Bei zwei 1070 fände ich auch 4K nicht zu anspruchsvoll, selbst bei Witcher dürften da maximale Details gehen, ohne Wenn und Aber. In einem Youtube-Video waren das glaube ich im Schnitt 70 FPS, eine 1080 schaffte zum Vergleich nur 45 FPS. 45 FPS wäre für mich das unterste was man mit Drops erdulden kann, besser ist es aber wenn die Framerate zu 90 % über 55 FPS bleibt. Bei BF1 spüre ich selbst Drops auf 55, was aber dem schnellen Spiel geschuldet ist, bei Witcher ist die Steuerung schon so träge dass man es nicht mehr wahrnimmt.
 
Habe das Spiel vorhin mit meinem System auch mal mit meinem FullHD Monitor getestet und mit meinem I7 6700K und meiner Zotac 1070er Grafikkarte(Stock) komme ich mit gleichen Einstellungen auch auf 60 FPS.
Dabei habe ich keine Frames Einbrüche.

Anhang anzeigen 386054 Anhang anzeigen 386055

Info für alle die dieses Spiel nicht kennen... auf The Crew kann man nur zwischen 30 und 60 FPS als Begrenzung auswählen, daher sind FPS über 60 FPS gar nicht möglich.

lol ich brauch zwei Grafikkarten um das schlechte aus der CPU wegzumachen :d

Ich werde das hier Kaufen:

Intel Core i7 6800K oder als alternative: Intel Core i7 6700K
EVGA X99 FTW-K / EVGA Z170 Classified K / Alternative: EVGA Z170 FTW
2x 16GB Corsair Vengeance LED / 1x 16GB Corsair Vengeance LED
 
Zuletzt bearbeitet:
Ja würde ich auch so machen.

Aber aus Kostengründen würde ich es bei einer 6700K belassen.
Denn die bringt schon genug Leistung um Spiele gut laufen zu lassen.

Eine 6700K auf 4,5 GHz laufen zu lassen ist normal kein Problem.
Ich könnte meine CPU bis zu 4,7Ghz bei nur 1,340v betreiben.
Selbst 4,8 Ghz wären noch drin, aber dann liege ich schon bei 1,4v, was ich für den Dauerbetrieb nicht laufen lassen möchte.

Aber momentan komme ich mit nur 4,2Ghz OC aus.
Daher nutze ich höhere Taktraten nur für Benchmark.
Aber falls ich doch mal mehr Leistung brauche würde die CPU noch sehr gut damit hinkommen.

4,2Ghz OC bedeutet, dass ich diese immer anliegen habe, auch wenn alle Kerne ausgelastet sind.
Dabei bleibe ich real innerhalb von Spielen mit meinem Kühler unter 60 Grad.
Hierfür braucht meine CPU dann nur 1100-1150v.

Aber wenn du genug Geld hast und es auch ausgeben möchtest, wieso nicht auf eine 6800K setzen... :)
 
Zuletzt bearbeitet:
Aber dann mit vier DIMMs.

Wenn es neu sein muss würde ich den 6800K nehmen, ansonsten ginge auch ein 5820K sobald sich die Preise beruhigt haben. Diesen würde ich dann bei etwa 4,4 GHz betreiben.
 
Der 6800 ist als Auswahl da er mit 28x Lanes mehr für SLI bereithalten kann wo es bei 6700 mit nur 16x läuft, die sich in 8x/8x aufteilen.

Achso und wegen die zusätzlichen 2 kerne ^^

Aber dann mit vier DIMMs.

Sind 4x 8GB. 2er Kit.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh