[Sammelthread] NVIDIA GeForce GTX 1070 (GP104) Sammelthread + FAQ

NVIDIA GeForce GTX 1070 (GP104) Sammelthread + FAQ


Impressionen der Karte:

geforce-gtx1070-1-840x560.jpg

geforce-gtx1070-2-840x560.jpg

geforce-gtx1070-9-840x560.jpg

geforce-gtx1070-10-840x560.jpg

geforce-gtx1070-11-840x560.jpg

geforce-gtx1070-3-840x560.jpg

geforce-gtx1070-4-840x560.jpg

geforce-gtx1070-5-840x560.jpg

Technische Daten der GeForce GTX 1070
  • Chip = GP104-300-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 7,2 Milliarden
  • Die-Größe = 314 mm²
  • Shader-Einheiten = 1.920 (1D) (15 SMM)
  • Texture Mapping Units (TMUs) = 120
  • Raster Operations (ROPs) = 64 (48)
  • Pixelfüllrate = 72,3+ GPixel/s
  • Texelfüllrate = 180,7+ GTexel/s
  • Chiptakt = 1.506 MHz Baseclock + Boost (1.683 MHz) + Max. Boost (~1.880 MHz)
  • Speichertakt = 4.007 MHz
  • Speichergröße = 8.192 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 256 Bit
  • Speicherbandbreite = 256,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 150 Watt
  • Leistungsaufnahme 2D = ~9 Watt
  • Versorgung über einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Geizhals Link:
GeForce GTX 1070 | Deutschland - Preisvergleich



Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX 1070 erreicht im Leerlauf mit 0,4 Sone genau den selben Wert der 1080. Der Radiallüfter dreht mit ~1.100 RPM bei 27% PWM-Stärke. Unter Last schwankt die Lautheit zwischen 2,5 Sone (~50%) bis zu (max) 2,9 Sone (53% PWM @~2.120 RPM), was deutlich weniger als bei der GTX 1080 ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.000 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX 1070 beträgt im Leerlauf vollkommen um die 32 °C. Unter Last (Games) kann die Temperatur auf bis zu 84 °C steigen, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Allerdings erreicht die 1070 zumindest im Freiluftbetrieb gerade so die 80-81 °C, was dazu führt, dass die Karte, anders als bei der 1080, die Taktraten nicht wegen der Temperatur, sondern durch das enge Powerlimit, senkt.

Wie hoch ist der Stromverbrauch?
Die GTX 1070 verbraucht im Leerlauf um die 9 Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX 1070, egal ob in Games oder im Furmark, maximal 150 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GTX 1070 eine sehr hohe Effizienz.

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX 1070 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 800% (1080p), bzw. 107% (4K) und ist so im Mittel aller Reviews rund 7% schneller als eine GTX 980 Ti und damit auch schneller als eine Titan X (stock). Die GTX 1080 ist im Vergleich zur 1070 rund 20% (1080p), bzw. 23% schneller (4K).
Launch-Analyse nVidia GeForce GTX 1070 | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Die 1070 verhält sich bezüglich der Taktraten sehr ähnlich wie die 1080. Laut den ersten Reviews sollte es machbar sein, dass jede GPU rund 1,95 bis 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Das man kaum höhere Taktraten erreichen konnte liegt in erster Linie daran, dass bei der GTX 1070 das Power Target stark limitiert. So kann man dieses zwar per Tool auf 112% anheben (168 Watt), aber selbst das reicht nicht aus, um konstant die maximal mögliche Taktrate zu erreichen und konstant halten zu können. Mit einer besseren Kühlung und somit kühleren GPU Temperaturen und folglich einer geringeren Verlustleistung sind noch etwas höhere Taktraten erreichbar.

Einen Interessanten Beitrag mit Praxisbezug zum Thema Undervolting hat der User BK-Morheus veröffentlicht. In dem Video sieht man, wie man eine GTX 1070/1080 mit Hilfe des "curve editors" des Afterburners undervolten kann:
https://www.youtube.com/watch?v=UGeGLU8uh9M&ab_channel=BennyLikesTech

Was einer erhöhten OC-Performance noch im Weg stehen kann, ist die Speicherbandbreite. Die 1070 besitzt zwar die Rechenleistung einer 980 Ti oder Titan X, allerdings nur rund 76% deren Speicherbandbreite. Gerade bei hohen GPU-Taktraten kann die durch das 256 Bit breite Speicherinterface und den 8 Gbps starken Speicher erreichte Bandbreite zu gering für eine deutliche Skalierung sein.

Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1070. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Habe bei mir drei HDDS verbaut, da ich an die 750 GB an Spiele installiert habe und sonst die Festplatten als Datengrab nutze.
Die Festplatten sind entkoppelt und sind normalerweise so leise dass ich sie nicht hören kann.

Die schalten sich auch im Energiesparen ab, wenn sie nicht länger als 20min genutzt werden.
Leider macht aber eine dieser drei Festplatten jetzt Probleme da sie nun Vibrationsgeräusche aufs Gehäuse überträgt.
Daher plane ich jetzt für die nächsten Monate auch auf 1TB SSD umzusteigen, damit ich mich langsam auch von meinen HDDs verabschiede.

War bei mir sehr ähnlich. Hatte 3 Platten, irgendwann sogar den Timer auf 5min gestellt, da die mich beim Arbeiten/Lesen sonst nur genervt haben (hatte auch mit den Resonanzen am Gehäuse zu kämpfen, gerade bei mehreren Platten gibt es da auch mal konstruktive Interferenzen). Allerdings brauchen die auch immer wieder ihre Zeit, bis sie starten und starten auch recht häufig unnötig, wenn mal eine Verknüpfung etc. angezeigt wird.

Habe dann irgendwann kurz durchkalkuliert, wie viel Platz benötigt wird und mir eine 1TB als Datengrab geholt. ;)
Filme etc. (waren bei mir die ganzen Platzfresser) sind jetzt auf den NAS geflogen.

@iWebi haste Bilder vom fertigen System? Schon irgendwie die GPUs ausgelastet bekommen? ;)
 
Ja kenne ich... ich muss manchmal auch warten um auf meine Daten zugreifen zu können, da Bilder usw. bei mir nicht auf meiner SSD als Systemplatte gespeichert werden.
 
so nebenbei, nicht zu sehr vom Thema abdriften.. :wink:
 
Geil die Grafikkarten Last hat sich aufgeteilt.

50/50 :d
Das ist normal weil jetzt die Grafikkarten mit nur 1080p nicht ausgelastet werden.
Hierzu müsstest du jetzt 4K betreiben damit dass ganze wieder sich lohnt.

Das kannst du aber testen in dem du die Auflösung auf 2160p im Spiel hoch stellst.
Dann müssten die 100% wieder anliegen.

Das ganze wird dann wieder auf 1080p herunter skaliert...
Mit DSR war auch dieses vorgehen gemeint.

- - - Updated - - -

Das ganze ist aber eine Zwickmühle, denn es reicht nicht nur aus ein Monitor mit 4K zu haben, du müsstest auch über 120 Hz haben.
Denn V-Sync begrenzt immer die FPS bezogen auf die HZ was der Monitor hat.

Das bedeutet... hast du ein Monitor mit nur 60 Hz bekommst du mit V-Sync auch nur 60 FPS.
Hat dein Monitor 120Hz bekommst du max. 120 FPS.
Das selbe mit 144Hz.

Da zwei Grafikkarten nun genug Leistung bringen ist es irgendwo sinnlos sich ein 4K Monitor mit nur 60 Hz zu holen, denn damit du bei schnellen Bewegungen keine tearings bekommst müsstest du V-Sync verwenden.
Besonders wenn deine Grafikkarten jetzt weit über 60 FPS liefen können, wird sich dass ganze auf tearings noch stärker bemerkbar machen.

Denn deine Grafikkarten können jetzt mehr Bilder pro sec. liefern als der Monitor zu gleichen Zeit überhaupt verarbeiten kann.

G-Sync wäre dann vorteilhaft wenn zum Beispiel bei einem 144Hz Monitor keine 144 FPS erzeugt werden können.
Denn dann kommt der Monitor den FPS mit den HZ entgegen.
Das kann man sich so vorstellen als wenn z.B. nur 120 FPS erreicht werden die HZ dann auch auf 120 gesetzt werden und so läuft dass ganze wieder flüssiger ohne tearings.

Für 60Hz, bzw. mindestens 60 FPS zu erreichen braucht man keine zwei Grafikkarte, dass schafft normal auch eine Grafikkarte je nach Spiel.
Denn bei einem Bildschirm mit nur 60Hz muss man nicht mehr als 60 FPS erreichen, da sich mehr FPS sogar negativ auswirken können(Tearing).
 
Zuletzt bearbeitet:
Naja, 60Hz locked in UHD ist schon ne Hausnummer je nach Spiel, auch mit SLI 1070er ;)
 
man könnte doch auch einen 144 Hz Monitor auf zB 100 Hz locken und dann Vsync anschmeißen ? oder ? :)
 
60 FPS reichen auch für Spiele vollkommen aus.
Es ging mir aber um das SLI Verbund und ab wann es überhaupt sinnvoll ist.

Denn hiermit möchte man auch mehr FPS erreichen, mehr FPS sind aber nur dann Sinnvoll wenn die Hz dazu auch gleich gestellt sind, sonst wird man bei schnellen Bewegungen tearings bekommen.
Das macht dann innerhalb eines Spiels kein Spaß wenn sich dass Spiel in der Mitte teilt und sich das Bild dadurch verzerrt.

Denn dass ganze kommt dadurch zustande weil die Grafikkarte zu schnell ist und sie daher zu schnell neue Bilder liefert, wo der Bildschirm diese noch gar nicht so schnell verarbeiten kann.
Um dass ganze dann zu unterbindet schaltet man V-Sync ein, dann liefert die Grafikkarte auch nur noch soviel Bilder pro Sekunden wie der Bildschirm mit Hz überhaupt verarbeiten kann.

An diesem Punk angekommen braucht man keine zwei Grafikkarten mehr, da eine Grafikkarte normal genug Leistung und Bilder liefern kann.
Jetzt würde mach ggf. ein Bildschirm wie meines kaufen der 120Hz bietet.

Jetzt könnte ich auch V-Sync verwenden damit meine Grafikkarte nicht mehr als 120 FPS liefert.
Nur was ist jetzt wenn ein Spiel die 120 FPS nicht liefern kann?? Dann würde das selbe Bild mehrfach verwendet werden, was sich zwar nicht so stark negativ verhält als hätte man tearings, sonder dass ganze kann Inputlag oder Verwischungen verursachen.
Da macht dann z.B. G-Sync Sinn, da diese Funktion dann die Hz an die FPS zurück setzt.

Beispiel: Mein Monitor liefert 120 Hz.
Im Spiel Overwatch erreiche ich mit Settings auf Episch zwischen 100-135 FPS.
Die 100 FPS erreiche ich immer, aber nicht immer die 120 FPS bezogen auf meine Hz des Monitors.

Da mein Monitor kein G-Sync hat stelle ich im Spiel die Hz auf 100Hz und mit Verwendung von V-Sync liegen die FPS max. bei 100.
So habe ich dass ganze selbes synchronisiert und das Spiel läuft super und flüssig ohne Inputlag.
Das selber würde man aber auch mit G-Sync erreichen.

Leider ist G-Sync sehr teuer.

- - - Updated - - -

@Raptor[TP]
Richtig...! siehe mein Beispiel... mit Overwatch :)

- - - Updated - - -

Gut mein Monitor hat noch ein Turbo Modus mit 240Hz(Software).
Was Schwarzbilder zwischen setzt und gleich wie 240Hz kommen soll... ist aber jetzt ein anderes Thema...
 
Zuletzt bearbeitet:
Overwatch mit Vsync 60hz? Hätte mir viel zu hohen Inputlag. Dann lieber mit etwas tearing ;)
 
Zuletzt bearbeitet:
60 FPS reichen auch für Spiele vollkommen aus.
Es ging mir aber um das SLI Verbund und ab wann es überhaupt sinnvoll ist.

Denn hiermit möchte man auch mehr FPS erreichen, mehr FPS sind aber nur dann Sinnvoll wenn die Hz dazu auch gleich gestellt sind, sonst wird man bei schnellen Bewegungen tearings bekommen.
Ok... die Auflösung habe ich ganz vergessen, da eine 1070er schon mit vollen Settings Probleme mit 4K hat.

Aber dass ganze dann mit nur 60Hz/60FPS betreiben zu müssen ist auch irgendwie doof... :)

- - - Updated - - -

Overwatch mit Vsync 60hz? Hätte mir viel zu hohen Inputlag. Dann lieber mit etwas tearing ;)
Wieso 60Hz? Ich habe 120Hz/240Hz... ;)

V-Sync bezieht sich nicht auf 60Hz, sondern immer auf die Hz was ein Monitor hat oder im Spiel bestimmt wird.
 
Schon klar, bei den ganzen Edits blick ich nicht mehr durch am Handy :fresse: dachte es ging noch um UHD (max. 60hz mit heutigen "bezahlbaren" Monitoren).
 
Ach so... :d

Im übrigem finde ich Inputlag nicht so schlimm, da diese in meinem Fall kaum vorkommen oder ich sie nicht mit bekomme.
In Shooterspiel finde ich aber wenn man sich schnell bewegen muss tearing schlimmer, was mich dann auch sehr stört.

Muss aber dazu sagen dass ich mit meinem alten 60Hz Monitor mehr tearings hatte.
Mit meinen 120Hz/240Hz Monitor sind sie sehr selten vorhanden, wenn überhaupt.

Muss daher fast in keinem Spiel V-Sync verwenden.
Meinen Eizo habe ich Anfang dieses Jahres gegen meinen alten Samsung der nur 60 Hz hatte ausgetauscht.
 
Zuletzt bearbeitet:
Genau das ist der Punkt. Mit hohen Hz fällt sowohl Tearing, als auch der Inputlag durch Vsync sehr gering aus.

iWebi, schon so erschlagen von der Grafikpower, dass du dich hier nicht mehr meldest? :fresse:
 
Kam endlich dazu mal das Foto zu schießen :d

20161229_2331211.jpg

Zum Thema Tearing kann ich nur sagen das ich davon jetzt nichts mitbekommen hab.
Werde jetzt aber gleich mal noch The Division mir mit reinziehen um zu schauen wie es da ist.
 
Zuletzt bearbeitet:
Sieht auch sehr gut aus und der Abstand zwischen den Grafikkarten auch.
Temperaturen der Grafikkarten müssten sich gut halten.... denke ich...?

Bezüglich Tearing musst du dass in Spielen versuchen in dem du dich schnell bewegst und dich dann auch schnell rechts und links drehst.
V-Sync muss dazu natürlich aus sein.
 
Zuletzt bearbeitet:
Die Temps sind sehr gut, um genau zu sagen identisch zu einer.

Erste oben 55-62
Zweite unten 40-45 Grad.

Aber das könnte sich dann später wenn ich zu AMD Zen oder Intel ändern.

Ich mach aber eh gleich Bilder und Lade sie hier hoch.
 
Dachte ich mir schon, da der Abstand gut aussieht und noch genug Frischluft dazwischen kommen müsste.
Die Obere könnte dennoch immer etwas mehr haben, aber mit 55-62 Grad passt es.

Der Prozessor hat damit nicht viel zu tun, sondern eher wie gut die Luftzirkulation ist und wie gut warme Luft abgeführt wird.
Aber dass sollte bei deinem Gehäuse und deinen Gehäuselüfter auch gut sein.
 
Die Temps sind sehr gut, um genau zu sagen identisch zu einer.

Erste oben 55-62
Zweite unten 40-45 Grad.

Aber das könnte sich dann später wenn ich zu AMD Zen oder Intel ändern.

Ich mach aber eh gleich Bilder und Lade sie hier hoch.

Oder mit DSR... ;)

4x 8-Pin sind schon ganz schön heftig für 2x 1070er. Da brauchste ja echt alle Kabel vom T2 (ganz schöner Batzen ^^). Meine Ti verbraucht vermutlich mehr als das Gespann,... und bei mir hat sogar ein Strang gereicht mit 8+6 Pin :d
 
Ja das mit der Pol anzahl ist schon der Wahnsinn :d

Wegen die Bilder müsst ihr euch noch etwas Gedulden da ich gerade Schwierigkeiten hab überhaupt lang im Spiel zu bleiben. Es kommt immer ein Spiel abstürz bevor ich überhaupt richtig beginnen kann.

Muss die Ursache noch auf den Grund gehen ^^
 
Gruß ICARUS!

Das Screen Thearing ist ein rekursiver Indikator von der Grafikberechnung, ausgehend von der Interferenz sogenannter Zwischenbilder (I-Frame, P-Frame und B-Frame), welche unzureichend berechnet werden. Nicht jede Szene erfordert die gleichgroße Anzahl an Bildern, um eine Bewegung als gleichschnell darzustellen. Umso langsamer der Bewegungsablauf ist, desto weniger Bilder sind erforderlich. Umso schneller die Bildbewegung vonstatten geht, ergo Rennspiele und Kameraschwenks, desto mehr Zwischenbilder sind erforderlich, damit die Bewegung als scharf und flüssig empfunden wird. Das VSync ist ein Indikator dafür, wie es verkehrt umgesetzt werden kann, ebenso die europäische Fernsehübertragung, denn die Anzahl der Bilder ist statisch, ergo ein fixer Wert. Sportübertragungen sind der beste Aspekt dafür, denn besonders wenn beispielsweise in einer Fußballübertragung die Kamera mitschwenkt, insbesondere umso schneller, oder die Spieler sich umso schneller bewegen, desto mehr sinkt die Bildschärfe und Kompressionsartefakte tun sich auf, weil aufgrund der fixen Bildwiederholrate die Unterschiede in der Geschwindigkeit nicht ausgeglichen werden können. Das japanische Fernsehen, welches der Ursprung der von uns genutzten Technologien ist, genannt High Vision, ist in dieser Synthese der gesamten Welt um eine Dimension voraus, denn es passt die Bildbewegung dynamisch zur Szene an, auch bei Live-Übertragungen, deshalb sehen Animes so bewältigend scharf und rauschfrei aus, wie als über einem perfekten Kammfilter gezogen. Bei Videospielen ist das genauso, denn um nochmals auf VSync zurück zu kommen, es restriktiviert die Anzahl an Bilder und bietet jenem Screen Thearing geradezu die perfekte Angriffsfläche, denn sobald die Spielfigur in der schnellen Bewegung ist benötigt es mehr als die begrenzte Anzahl an zu berechnenden Zwischenbilder, um diese Artefakte auszugleichen, was daran scheitert, dass der Framebuffer eine bestimmte Anzahl an Bildern pro Sekunde gestattet und dabei ebenso in Relation zur Ratio und Game-Engine die Anzahl an zu berechnenden Zwischenbildern erlaubt, zumeist drei in der Arithmetik, was in Konfrontation gerät, sobald stattdessen 5 oder 7 Zwischenbilder unabdinglich sind, es jedoch nur 2 P-Frames zur Verfügung stehen. Wenn dem nichts entgegenzusetzen ist dann zeigen sich die Artefakte in Mikroruckeln, Bildrauschen, Abriss von Bildern in den Übergängen und geringe Bildschärfe. In dem Video-Encoding wird dem mittels B/I/P-Frames entgegengewirkt, zumeist B-Frames, welche in dem Encoder vorbestimmt oder festgesetzt sind, bei H.264 üblich von 3 bis 7 B-Frames und von 2 bis 4 P-Frames.

Was kann man in dem Videospiel dagegen tun? Die Anzahl an Bildern pro Sekunde freien Lauf lassen, was der Hardware an den Durchhaltevermögen kostet, ergo der Wirkungsgrad sinkt tendenziell zur thermischen Verlustleistung (das Beharrungsvermögen in der Kontradiktion zu E=mc²). Das wollen wir nicht, daher VSync, damit der Computer lange schön kühl, laufruhig und bestmöglich leistungsfähig bleibt, wenn es denn mehrere Stunden werden sollen. Die Alternative ist beispielsweise GSync, denn es nutzt die dynamische Bildberechnung; im Gegensatz zu VSync oder FreeSync angleicht sich die Anzahl an Bildern nicht nach der Modalität des Monitors oder einem fixen Wert, welchen das Spiel vorgibt, sondern es werden nur so viele Bilder ausgegeben, wie die zu berechnende Szene erfordert; Stillstand kann in 10 - 20 FPS resultieren, Laufen in 50 ~ 80 FPS, also mehr als die 60 FPS, woran VSync drosselt und diesen Nebeneffekt verursacht.


Ein weiterer Punkt, den Du angesprochen hast, ist die Korrelation von zwei Grafikkarten. Kurz und knapp: Screen Thearing ist keine Eigenschaft der Vielzahl von Grafikkarten, sie kann aber in der Interferenz zur unschönen Teilhabe führen. Wesentlich mehr bedingt von dem SLI/CFX ist der sogenannte Z-Puffer, in der Nomenklatur auch unter Z-Fighting berüchtigt. Das Texturflackern führt zu unschönen Pixeln, beispielsweise das berüchtigte Flackern von einem Objekt - kenne ich zu Haufe aus Far Cry 3 von Bäumen oder dergleichen, also von dynamischen Elementen; die DUNIA-Engine basiert auf der CryENGINE und nutzt demzufolge Vektor-Rendering, wodurch dem Texturflackern noch mehr Angriffsfläche geboten ist. Dieser Nebeneffekt ist bei Games auf reiner Vertex-Berechnung häufiger auftretend und wird als störender empfunden. Es tritt bei SLI/CFX häufiger in Erscheinung, sobald mehr als eine Grafikeinheit dasselbe Polygon an derselben Position berechnet. Abhilfe: Die Erhöhung von der Schärfentiefe. Dies hatte ich erst neulich hier angesprochen: i5 6600 oder 6600K - Seite 3
 
Zuletzt bearbeitet:
Ne bei mir ist es gerade nen anders Problem.

Da es ja in Watch Dogs 2 lief und seit ich die Biose von EVGA bei der anderen drauf gemacht bzw. bei beiden das erneuert hab, lasten die ersten sich nicht mehr gut aus und zweitens brechen FPS jetzt stark ein.

CPU ist das Problem nicht den die ist bei FarCry Primal nicht mal zu 50% ausgelastet.

Muss also was anderes jetzt sein.
 
@iWebi

Eventuell bewirkt die überspielte Firmware, dass dem Hauptprozessor das Post-Prozessing mehr übergeben wird und es daher zur Tortur geworden ist.
Ich gucke mir die Werte noch gezielter an.


@ICARUS

Danke für die Blumen.
Ich bin in etwa bei Dir, jedoch ist es so, dass Benny diese zweite Grafikkarte unbedingt haben wollte, denn immerhin passt sie optisch hervorragend in sein neuartiges Color-Konzept. Mit dem Geld, was ihn demnächst noch zur Verfügung steht, kann er ohnehin auf eine neue Plattform wechseln, ich rate ihn aber von Broadwell ab, auch wenn der Intel Core i7-6800K reizvoll wirkt, ist er jedoch nicht, denn die neuen Feature-Sets aus Skylake-S fehlen ihm, siehe letzter Abschnitt:
https://www.drwindows.de/hardware-and-treiber/122519-neue-grafikkarte-probleme.html#post1329454

Braodwell setzt als das Tock zu Haswell ebenso auf den Fully Integrated Voltage Regulator, wovon ich absolut kein Freund bin; viele Nutzer, jene von der Netzteil-Komplikation bezüglich Haswell betroffen gewesen sind, werden womöglich zustimmen, denn der FIVR ist die Ursache dafür, welcher weiterhin die Core-State des Intel-Core-i-Prozessors restriktiviert Daher rate ich ihn das das Warten auf Skylake-X/Kaby Lake-X an, auch um zu sehen, ob denn AMD doch nicht enttäuscht - diese Zeit soll er sich nehmen.
 
Zuletzt bearbeitet:
SLI oder auch Crossfire kann eben Fluch oder Segen sein. Die Nachteile überwiegen aber meistens und auch im Jahr 2017 wird das leider so bleiben.

Welche SLI Brücke wird eigentlich verwendet? Hoffe mal nicht die alte Flexverbindung, denn die kostet Leistung. Die neueste HB-Brücke muss es aber nicht sein. Zumindest sind nicht mehr FPS nachweisbar damit.

Wie werden die Karten eigentlich angesteuert bei einem AMD Board? 8x 8x ?
.
 
Zuletzt bearbeitet:
Boardabhängig. Bei ihm 16x 16x. Da ist AMD der Mainstream Intel Plattform voraus.

Mit der SLI Brücke würde ich da keine Bedenken haben. Da braucht es schon Spezialfälle, um hier einen (spürbaren) Unterschied zu haben.
 
Zuletzt bearbeitet:
Hab glaube das Problem gelöst. Lag an meinen Arbeitsspeicher da er bei 2400 war und das Board nur bis 2133Mhz mitmacht.

Hab zwar das Problem Ansicht gelöst, aber Bilder werden ganz andere aufgenommen wenn ich auf Drucken drücke ^^ und zwar das Spielmenü aber nicht was ich sehe und aufnehme xD

Muss ich da was ändern?

Jup mein Board macht 2x 16x mit aber nur 2.0 und nicht wie bei Intel 3.0.

HB-Brücke sind die aus den mitgelieferten Mainboards verbaut.

2016-12-30.png
 
Zuletzt bearbeitet:
Es ist bedingt von dem Integrated Memory Controller des AMD FX-8350. Die North Bridge Baseline hochtakten, mit 2400 MHz möglichst äquivalent zu den 4,8 GT/s des HyperTransport Link, damit die Datenpakete bidirektional synchron über den gesamten Interconnet verlaufen und wegen ungleichem Taktsignal der Schnittstellen und Adapter der Wirkungsweise durch Fragmenten und Pufferüberläufen entgegenzuwirken!

Das liegt nicht allein bei dem ASRock 990FX Extreme3, denn im Gegensatz zum kleinen Modell ASRock 970 Extreme3 verkraftet das große Brett sogar die 5,2 GT/s mühelos. Es ist in der Kohärenz mit dem G.Skill RipJawsX F3-2400C11D-16GXM eine Komplikation, welche mit dem Corsair Vengeance Pro CMY16GX3M2A2400C11A nicht besteht.
 
Zuletzt bearbeitet:
@ICARUS

Danke für die Blumen.
Ich bin in etwa bei Dir, jedoch ist es so, dass Benny diese zweite Grafikkarte unbedingt haben wollte, denn immerhin passt sie optisch hervorragend in sein neuartiges Color-Konzept.

Sorry mein Post habe ich gelöscht, da ich zum Teil misst geschrieben hatte.
Für mich macht solche ein System halt erst dann Sinn wenn man den richtigen Bildschirm dazu hat, denn eine 1070er oder gar eine 1080er bringt normal genug Leistung um einen Monitor mit 60 oder 144 Hz zu betreiben.

Denn ich hatte zuvor selbst ein Samsung mit nur 60Hz und ohne V-Sync zu nutzen konnte ich manche Spiele bei schnellen Bewegungen wegen den Tearing nicht gut spielen.
Ich habe mir dann deshalb Anfang dieses Jahres mein neuen Monitor mit 120Hz/240Hz gekauft und hier sieht alles viel besser aus und habe nun sehr selten Tearings.

Neben meinem Eizo Monitor betreibe ich an der selben Grafikkarte meinen UHD 55" Fernseher und hier komme ich im Grunde auch mit meiner 1070er gut aus.
Eine 1080er wäre hier etwas besser damit ich mit den Settings nicht so weit runter gehen muss.
Aber auch dieses ist im Vergleich zu meiner alten 980er Grafikkarte nun besser geworden.

Entschuldige, ich kann dir nicht Fachmännisch antworten, da ich in dieser Richtung nichts studiert habe, daher kann ich nur aus eigenen Erfahrungen berichten.
Ist halt meine Meinung dazu, andere können aber gerne anderer Meinung sein.

Ich bin aber ehrlich, da ich Euch beide schon länger kenne... ich würde die zweite Grafikkarte und das Netzteil zurück senden und wenn es mehr sein soll, dann würde ich mir eine 1080er kaufen.
Die kann man dann immer noch mit einem 400-500 Watt Netzteil betreiben.

Und ob Intel oder AMD... abwarte auf Zen.
Ansonsten kann man nun auch auf Intel-Kaby-Lake warten.

- - - Updated - - -

Er hat ja seine EVGA 1070er soweit mir richtig bekannt ist noch nicht lange und soweit mir bekannt ist kann er noch gegen geringen Aufpreis auf eine 1080er mit dem Support von EVGA upgraden.
Davon hätte er mehr, denn dann könnte er sich später noch um einen anderen Unterbau kümmern und ggf. noch einen guten 1440p Monitor mit 144Hz dazu holen und würde damit viel Glücklicher werden. :)

4K ist interessant, aber mir würde schon 1440p auch ausreichen.
GGf. habe ich im nächsten Jahr noch vor auf solch ein Monitor(1440p) umzusteigen.
 
Zuletzt bearbeitet:
Ich bin bezüglich Platform-Change gewiss zu voreilig gewesen, so früh vor dem Launch von Kaby Lake, aber ich wollte Skylake-S unbedingt haben, denn erstmals ist Intel den Schritt zurück zur Intel-Core-1.-Generation gegangen, wo der Referenztakt noch frei gewesen ist, wo der Ring On-Chip Interconnect noch nicht Bestanteil des System Agent gewesen ist, zumindest in der Kohärenz mit dem Platform Controller Hub und Host Bridge/DRAM Registers (IOMMU: Bei Sandy Bridge und Ivy Bridge ist es der I/O Controlelr Hub in Korrelation mit dem Memory Controller Hub oder Graphics and Memory Controller Hub.), und die Restriktion von FIVR aufgehoben worden ist, was mit Haswell Einzug gefunden hat. Das Kaby Lake all dies scheinbar fortsetzt, vermutlich, denn von offizieller Seite habe ich noch nichts verlauten gehört, hatte ich nicht kommen gesehen. Egal - Skylake ist seitens seinem Feature-Set die Revolution der Intel-Core-Serie, anstatt wie bisher nur Evolution, und es wird in Spielen eine Leistung geboten, die erstmals auf einem Niveau stattfindet, wogegen der Sprung von Sandy Bridge zu Ivy Bridge alt aussieht.

Ich hatte ihn schon über die Konsequenz berichtet; mehr Grafikleistung in Relation zu wenig Prozessorleistung ist dann förderlich, wenn das Spiel es fordert, The Witcher 3 ist ein solcher Kandidat, aber in der Summe aus allen Spielen muss sowohl der Grafikprozessor als auch der Hauptprozessor auf ein lineares Niveau sein. Das Beispiel Far Cry 3 zeigt es deutlich; Far Cry 3 ist stark von dem Post-Prozessing bedingt, denn das Vektor-Rendering fordert allenfalls viel Zwischenspeicher in dem Grafikspeicher und dem Speichercontroller von Prozessor und Grafikkarte, ansonsten ist der Hauptprozessor die wichtigste Schnittstelle, und Far Cry 4 ist ein Schritt mehr in die entgegengesetzte Richtung, wo es dann doch vermehrt auf die Grafikkarte ankommt, weil ein überwiegender Teil der Vertex-Shader aus dem Grafikspeicher gerendert werden, was nochmals mehr Grafikspeicher erfordert.
 
Nö hier wird nichts zurückgeschickt :d Ich liebe schon das SLI den es läuft in Watch Dogs 2 viel runder als nur eine.
Außerdem welches Thearing? :eek: Ich kann es bis jetzt einfach nicht wahr nehmen. Echt jetzt. Wieso also was entfernen was mir gefällt? verstehe ich nicht.

Was will ich mit 1080 die mir nur einmal die Garantie einbringt als wenn ich zweimal die Chance hab 10 Jahres Garantie hier zu haben xD Ja ich kenne einige Meinung, wie balblabla was will ich in 10 Jahren noch mit der Karte. Aber einige blenden was ganz entscheidendes aus, den EVGA schickt auch bei nen Defekt gern mal eine Genrationen neuer raus. Bsp. 1170 nur mal so nebenbei erwähnt.

Glaubt mir, das ist schon die bessere Wahl wenn man voraus Planen tut. Ganz besonders für Leute die nicht immer jede Gen... miterleben wollen/können.
Auch das Netzteil hat von Kauf an schon 10 Jahre Garantie und das ist doch eigentlich die beste Entscheidung für Leute die nicht die Möglichkeit haben Neu zu kaufen.

Aber gut, kann ja jeder sehen will er will. Ich Glaube fest daran was richtiges getan zu haben.

Zum StepUp:

Das ist bei meiner ersten schon Anfang Dezember abgelaufen, also auch das fällt weg. Desweiteren tue ich mir keine normale ACX3.0 Karte an wegen nur 1x8 pin und kein eigenes Design spendiert bekommen hat.

und wahrscheinlich kauf ich ja auch noch einen 4K Bildschirm. Nur nicht hier und jetzt.

Aber gut, das gehört eigentlich hier abzulut nicht mehr rein.

Hab die Bilder jetzt doch hinbekommen, und zwar über Uplay selbst.

WATCH_DOGS® 22016-12-30-1-22-26.jpgWATCH_DOGS® 22016-12-30-1-22-26.jpgWATCH_DOGS® 22016-12-30-1-25-14.jpgWATCH_DOGS® 22016-12-30-1-25-14.jpg
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh