[Sammelthread] NVIDIA GeForce GTX 1070 (GP104) Sammelthread + FAQ

NVIDIA GeForce GTX 1070 (GP104) Sammelthread + FAQ


Impressionen der Karte:

geforce-gtx1070-1-840x560.jpg

geforce-gtx1070-2-840x560.jpg

geforce-gtx1070-9-840x560.jpg

geforce-gtx1070-10-840x560.jpg

geforce-gtx1070-11-840x560.jpg

geforce-gtx1070-3-840x560.jpg

geforce-gtx1070-4-840x560.jpg

geforce-gtx1070-5-840x560.jpg

Technische Daten der GeForce GTX 1070
  • Chip = GP104-300-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 7,2 Milliarden
  • Die-Größe = 314 mm²
  • Shader-Einheiten = 1.920 (1D) (15 SMM)
  • Texture Mapping Units (TMUs) = 120
  • Raster Operations (ROPs) = 64 (48)
  • Pixelfüllrate = 72,3+ GPixel/s
  • Texelfüllrate = 180,7+ GTexel/s
  • Chiptakt = 1.506 MHz Baseclock + Boost (1.683 MHz) + Max. Boost (~1.880 MHz)
  • Speichertakt = 4.007 MHz
  • Speichergröße = 8.192 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 256 Bit
  • Speicherbandbreite = 256,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 150 Watt
  • Leistungsaufnahme 2D = ~9 Watt
  • Versorgung über einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Geizhals Link:
GeForce GTX 1070 | Deutschland - Preisvergleich



Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX 1070 erreicht im Leerlauf mit 0,4 Sone genau den selben Wert der 1080. Der Radiallüfter dreht mit ~1.100 RPM bei 27% PWM-Stärke. Unter Last schwankt die Lautheit zwischen 2,5 Sone (~50%) bis zu (max) 2,9 Sone (53% PWM @~2.120 RPM), was deutlich weniger als bei der GTX 1080 ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.000 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX 1070 beträgt im Leerlauf vollkommen um die 32 °C. Unter Last (Games) kann die Temperatur auf bis zu 84 °C steigen, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Allerdings erreicht die 1070 zumindest im Freiluftbetrieb gerade so die 80-81 °C, was dazu führt, dass die Karte, anders als bei der 1080, die Taktraten nicht wegen der Temperatur, sondern durch das enge Powerlimit, senkt.

Wie hoch ist der Stromverbrauch?
Die GTX 1070 verbraucht im Leerlauf um die 9 Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX 1070, egal ob in Games oder im Furmark, maximal 150 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GTX 1070 eine sehr hohe Effizienz.

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX 1070 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 800% (1080p), bzw. 107% (4K) und ist so im Mittel aller Reviews rund 7% schneller als eine GTX 980 Ti und damit auch schneller als eine Titan X (stock). Die GTX 1080 ist im Vergleich zur 1070 rund 20% (1080p), bzw. 23% schneller (4K).
Launch-Analyse nVidia GeForce GTX 1070 | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Die 1070 verhält sich bezüglich der Taktraten sehr ähnlich wie die 1080. Laut den ersten Reviews sollte es machbar sein, dass jede GPU rund 1,95 bis 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Das man kaum höhere Taktraten erreichen konnte liegt in erster Linie daran, dass bei der GTX 1070 das Power Target stark limitiert. So kann man dieses zwar per Tool auf 112% anheben (168 Watt), aber selbst das reicht nicht aus, um konstant die maximal mögliche Taktrate zu erreichen und konstant halten zu können. Mit einer besseren Kühlung und somit kühleren GPU Temperaturen und folglich einer geringeren Verlustleistung sind noch etwas höhere Taktraten erreichbar.

Einen Interessanten Beitrag mit Praxisbezug zum Thema Undervolting hat der User BK-Morheus veröffentlicht. In dem Video sieht man, wie man eine GTX 1070/1080 mit Hilfe des "curve editors" des Afterburners undervolten kann:
https://www.youtube.com/watch?v=UGeGLU8uh9M&ab_channel=BennyLikesTech

Was einer erhöhten OC-Performance noch im Weg stehen kann, ist die Speicherbandbreite. Die 1070 besitzt zwar die Rechenleistung einer 980 Ti oder Titan X, allerdings nur rund 76% deren Speicherbandbreite. Gerade bei hohen GPU-Taktraten kann die durch das 256 Bit breite Speicherinterface und den 8 Gbps starken Speicher erreichte Bandbreite zu gering für eine deutliche Skalierung sein.

Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1070. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.
 
Zuletzt bearbeitet:
Meine Produkte-Details anzeigen-neues stepup anfordern(haken setzen) und dann produkt auswählen und siehst auf wasde stepupen kannst.

- - - Updated - - -

Habe zur Zeit eine GTX 670 im System und bekomme im Laufe der Woche meine GTX 1070 FTW. Muss ich bei Nvidia einfach in GForce Experiance den Treiber updaten (368.81 aktuell) oder muss ich manuell den Treiber komplett vom System entfernen und den aktuellen Treiber installieren?
Außerdem habe ich im MSI Afterburner Veränderungen für meine aktuelle Karte vorgenommen, was passiert wenn ich die Karten tausche? Muss ich befürchten das MSI Afterburner die Werte bei der neuen Karte anwendet?

Einfach Karte einbauen und dann auf den neuesten treiber updaten via GF Experience, und dabei Neuinstallation auswählen.

Nein Afterburner wendet nicht die Werte bei der neuen an, zur not kannste ja vorher eben auf default zurücksetzen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
das klingt gut merkor.
wieso liest heaven eigentlich den boosttakt falsch aus?
kann heaven auch mehr als 4gb vram verwalten/auslesen?
weil nach dem durchlauf sagt heaven .... 1070gtx.... 4096mb....
lässt du heaven im fenstermodus laufen?

Der Auslesung von Heaven schenke ich keine Beachtung. Zum Ausloten des OC lasse ich Heaven im Fenstermodus laufen, zum Benchen im Vollbild.
 
So, meine 1070 FTW ist angekommen. Nachdem ich erstmal eine Plastiknase an den Slotblenden wegfeilen musste, damit der riesige Kühler passt (also bitte vorher Gehäuse prüfen), habe ich mich gleich mal ans OC gemacht und das Boostverhalten gecheckt. Sie startet bei knapp über 2000 MHz und dropped dann 2 Stufen zurück mit steigender Temperatur. Allerdings gibt sie hier 1.03v auf die GPU.

Dann habe ich mich mit laufendem Heaven-Benchmark ans OC gemacht und den Curved Editor von Afterburner dafür verwendet. Der Curved Editor ist ärgerlich buggy und verschiebt selbständig Kurven. Weitere Versuche spare ich mir wohl, bis hier mal nachgebessert wird.

Ich habe tollkühn +500 MHz auf den Speicher gegeben, um nach 20 Sekunden ohne Artefakte direkt auf 596 MHz zu erhöhen. Dies ergibt einen Takt von 4608 MHz. Mein Ziel war es, möglichst unter 1v GPU-Spannung zu kommen mit möglichst hohem GPU-Offset. Nach einigen Versuchen liefen dann 2050-2076 (je nach Temperatur) mit 0.993v ein paar Mal durch. Ich habe dann damit 1 Stunde Rise of Tomb Raider auf Max mit SMAA in 3440x1440p gespielt ohne Absturz.

Dabei konnte ich laut Afterburner Beta folgende maximale Werte verzeichnen:

Powerlimit: 88% (hier muss ich nicht ansatzweise erhöhen, weil das nie ausgeschöpft wird, trotz OC, aber mit Undervolting)
Temperatur: 75 Grad (bei 26 Grad Zimmertemperatur und Silent-Rechner)
Spannung: 0.993v
Lüftergeschwindigkeit: 48%
Lüfterdrehzahl: 1332 upm (ich höre sie nicht aus dem Gehäuse)
Prozessortakt 2076 MHz (dropped auf 2050-2063)
Speichergeschwindigkeit: 4608 Mhz (+596 MHz Offset)

Damit dürfte ich vom Speed her zumindest in die Nähe einer GTX 1080 FE (ohne OC) kommen. Ich werde heute Abend weiter testen. Bisher bin ich begeistert von der Karte, die sich wirklich sehr hochwertig anfühlt. Bestimmt nicht meine letzte EVGA.

Monsterkarte ? Ich finde die recht zierlich. Schau dir mal die Zotac AMP Extreme an oder ne Palit Gamerock, das sind Monster.
Die EVGA ist nur 27 CM Lang (Zotac 33cm) und 2 slot dick (Zotac 3 slot), nur etwas breiter ist sie ja.

Wertigkeit usw kann ich bestätigen, wird auch nicht meine letzte EVGA gewesen sein.
Machste Garantieverlängerung ?
Wie muss man sich das vorstellen, was haste da müssen wegfeilen ?
 
Machste Garantieverlängerung ?
Wie muss man sich das vorstellen, was haste da müssen wegfeilen ?

Ich verlängere nicht, aber registriere. Mein Lian Li-Case hat anstelle von Schrauben an den Slotblenden so eine "Klickapparatur". Die kann man zwar auch abbauen und dann normale Schrauben benutzen, aber dann gibt man den Comfort auf. An dieser Apparatur musste ich ein wenig Plastik wegfeilen. Kein Drama.
 
Ich hatte vor 10 Jahren in sonem Thermaltake Case mal sone Klickaperatur, die taugte aber garnix. Kam direkt raus und hab dann Schrauben benutzt :)

Ich werde bei meiner GTX 1080 CLASSIFIED die unterwegs ist 5 oder 10 Jahre Verlängerung machen, die behalt ich warscheinlich länger (später im 2. PC Game 2 in der sig)
Gottseidank hat EVGA den ACX 3.0 bei der Lautstärke deutlich verbessert.
 
Zuletzt bearbeitet:
...Wertigkeit usw kann ich bestätigen, wird auch nicht meine letzte EVGA gewesen sein.
...

Und bei der nächsten Garantie ist es dann eine Gigabyte oder was weis ich. Wer deine Posts liest weis doch das alles was Du hast das beste ist, und wenn Du es nicht hast ist es einfach mist. In diesem Forum gibt es unzählige Posts in denen Du versuchst den Leuten zu erklären das EVGA´s Kühler nix taugen und die Leute doch besser ne Lightning kaufen sollten. Aufeinmal sind die gut? Lol
 
So meine ist jetzt auch drin.
Was bringen eure Karten denn für Werte?
Boost Takt sollte ja bei 1.797MHz sein, bei mir kommt out of the Box schon 1885 :hmm:
Da geht denk net mehr soviel mit eigenen OC auser vllt VRam.
Hab bisher so gar keinen Richtwert für die Karte :(

Bisher erst 1ne Karte OCed, also habt nachsicht^^

Meine 1070 HOF boostet out of box mit 2025MHz. Das hält sie auch bei grad mal ~55°.

OC bisher gebencht stable +120MHz und plus 500MHz RAM.
 
so vcore muss man bei msi freischalten. kann ich mir nun anzeigen lassen.
habt ihr auch probleme, dass der riva tuner keine updates ziehen kann und mit einer fehlermeldung die suche beendet?
 
Und bei der nächsten Garantie ist es dann eine Gigabyte oder was weis ich. Wer deine Posts liest weis doch das alles was Du hast das beste ist, und wenn Du es nicht hast ist es einfach mist. In diesem Forum gibt es unzählige Posts in denen Du versuchst den Leuten zu erklären das EVGA´s Kühler nix taugen und die Leute doch besser ne Lightning kaufen sollten. Aufeinmal sind die gut? Lol

Versteh das Problem jetzt nicht.
Die ACX 3.0 sind sehr leise.
Höre kaum was von denen.
Bei der 9xx Reihe waren die Palit ja "deutlich" besser, was Kühlung angeht.
Bei der derzeitigen sind die 2 etwa auf gleicher Höhe (meine Meinung).

Die Lightning Kühlung ist vermutlich besser als die ACX 2.0 gewesen.

- - - Updated - - -

so vcore muss man bei msi freischalten. kann ich mir nun anzeigen lassen.
habt ihr auch probleme, dass der riva tuner keine updates ziehen kann und mit einer fehlermeldung die suche beendet?
Die Meldung bekomm ich seit etwa nem halben Jahr :d
 
Zuletzt bearbeitet:
Haken raus machen bei "Nach Updates und nach Betas suchen".
 
Lies die paarhundert Posts von "Thrawn VS EVGA" und dann verstehst Du das Problem ;)

Hab ich weniger Lust drauf :d
Suche schon nach paar OC Ergebnisen hier im Thread :d

Aber mal im ernst:
Könnte du, sowie auch alle anderen, vllt unterlassen, "Streit" zu verursachen?
Meinungsäußerung ist ja ok, sollte man dann auch stehenlassen, wenns einem nicht ganz so passt.

Gab schon genug Threads mit zuviel Streit und genug Banns.
Man kann sich auch einfach vertragen :)

Denke er hat einfach nur seine Meinung geäußert, dass die ACX 3.0 wesentlich besser sind als die ACX 2.0.
Ist auch völlig legitim.
Vllt hast du es nicht ganz so aufgefasst :(

Ansonsten setzt euch doch per PN auseinander :)

:btt2:
Weiß jmd wv Watt die 1070 FTW verbraucht?
Finde keine genauen Angaben. Kanns auch net selbst nachmessen
 
Zuletzt bearbeitet:
So, habe nun 1,5 Stunden BF4 in max Details und 3440x1440p gespielt inkl. 4x MFAA (per Treiber "injected" auf das MSAA) auf Shanghai mit 64 Leuten. Ansonsten kriege ich die Karte nicht mit 99% Auslastung unter 100 FPS, was die maximale Refresh-Rate meines Monitors darstellt. Dann greift per Treiber Vsync, davor Gsync. Vsync führt bei 100 FPS tatsächlich zu einem leichten Input Lag in BF4. Da bin ich sehr empfindlich. Vielleicht muss ich mal Vsync im Treiber deaktivieren und/oder Fast Sync austesten. An den oben genannten Werten der FTW ändert sich nichts und die Karte scheint stabil. Nun ist Crysis 3 dran und später Witcher 3...
 
Wenn du G.Sync hast ? Ist doch Vsync eh aus bzw greift erst ganz weit unten bei um 30 FPS. ? Ansonsten Adaptive und Fast sync verhindern den Input Lag von V-Sync.
Ich glaub du bringst hier was durcheinander.. Hat dein Monitor Gesync ? Wenn ja produziert die Graka eh nicht mehr FPS als die maximale Refreshrate des Monitors und es gibt auch kein Input Lag.
Fast Sync schaltet meines wissens nach Vsync unter der Refrehsrate des Monitor aus sodass man nicht auf halbe FPS runterfällt (ist eine altenative zu Vsync) Aber wer G-Sync hat soltle doch eh kein VSync, Fast Sync und adaptive Sync nutzen..


Hab ich weniger Lust drauf :d
Suche schon nach paar OC Ergebnisen hier im Thread :d

Aber mal im ernst:
Könnte du, sowie auch alle anderen, vllt unterlassen, "Streit" zu verursachen?
Meinungsäußerung ist ja ok, sollte man dann auch stehenlassen, wenns einem nicht ganz so passt.

Gab schon genug Threads mit zuviel Streit und genug Banns.
Man kann sich auch einfach vertragen :)

Denke er hat einfach nur seine Meinung geäußert, dass die ACX 3.0 wesentlich besser sind als die ACX 2.0.
Ist auch völlig legitim.
Vllt hast du es nicht ganz so aufgefasst :(

Ansonsten setzt euch doch per PN auseinander :)

:btt2:
Weiß jmd wv Watt die 1070 FTW verbraucht?
Finde keine genauen Angaben. Kanns auch net selbst nachmessen

Das wäre echt mal schön wenn Leute ohne Interesse am Thema das posten einfach unterlassen würden und auch aufhören damit gezielt zu provozieren und Threads OT laufen zu lassen..

Alsodas Powertarget der 1070 FTW ist 215 Watt, wenn sie also ins PT rennt verbrutzelt sie das ziemlich genau.
 
Zuletzt bearbeitet:
Wwenn du G.Sync hast ? ist doch Vasync eh aus buw greift erst ganz weit unten bei um 30 FPS. ? Ansonsten Adaptive und Fast sync verhindern den Input Lag von V-Sync.




Das wäre echt mal schön wenn Leute ohne Interesse am Thema das posten einfach unterlassen würden und auch aufhören damit gezielt zu provozieren und Threads OT laufen zu lassen..

Alsodas Powertarget der 1070 FTW ist 215 Watt, wenn sie also ins PT rennt verbrutzelt sie das ziemlich genau.

Renne eigentlich nei ins Pt. Nagut ist ja auch nur 1080p atm^^
Aber danke für die Info
 
Wenn du G.Sync hast ? Ist doch Vsync eh aus bzw greift erst ganz weit unten bei um 30 FPS. ? Ansonsten Adaptive und Fast sync verhindern den Input Lag von V-Sync.
Ich glaub du bringst hier was durcheinander.. Hat dein Monitor Gesync ? Wenn ja produziert die Graka eh nicht mehr FPS als die maximale Refreshrate des Monitors und es gibt auch kein Input Lag.
Fast Sync schaltet meines wissens nach Vsync unter der Refrehsrate des Monitor aus sodass man nicht auf halbe FPS runterfällt (ist eine altenative zu Vsync) Aber wer G-Sync hat soltle doch eh kein VSync, Fast Sync und adaptive Sync nutzen..

Ne, also da musst du nochmal auf die Schulbank. ^^

1. Adaptive Sync deaktiviert VSync unterhalb der Refreshrate des Monitors, damit man eben nicht auf die halben/drittel/viertel FPS sinkt.
2. Mit GSync an und VSync aus können die FPS die maximale Refreshrate meines Monitors übertreffen. Allerdings könnte es dann zu Tearing kommen. Input Lag gibt es dann natürlich nicht.
3. Mit GSync an und VSync an bleiben die Max FPS auf meiner maximalen Monitor-Refreshrate, aber ich habe eben die Nachteile von VSync ab diesem Punkt, in erster Linie Input Lag.
4. Fast Sync statt VSync über der Refresh-Rate des Monitors muss ich noch ausprobieren und könnte das Problem unter 3. lösen.

Habe eben noch Time Spy gebencht (2050/4608):

Code:
Graphics Score: 6422
Test 1: 42,05
Test 2: 36,67

Habe mit den Ergebnissen von Computerbase verglichen:

Da liegen 1070 und 1080 ohne OC wie folgt:

Code:
GTX 1070
Graphics Score: 5667
Test 1: 37,3
Test 2: 31,7

Code:
GTX 1080
Graphics Score: 7004
Test 1: 46,2
Test 2: 39,8

Die 1070 ist damit eine echte "Vernunftslösung".
 
Sry aber DU solltest dich hier mal informieren, wird dir sicher einer gleich erklären das du Unrecht hast..

Welchen Monitor hast du ?

GYnc synchronisiert die Monitor Refrehsrate mit der der Grafikkarte, wenn dein 100 Hz Monitor nur 80 FPS von der Graka bekommst geht derMonitor auf 80 Hz und es bleibt im Sync.. Und das fortwärend Neu.
 
Nein, er hat schon recht. Es geht ja gerade um den Bereich außerhalb der variable refresh rate range des Monitors.

Das innerhalb der range gsync arbeitet und die Hz and die fps anpasst, ist doch klar ;)
 
Sry aber DU solltest dich hier mal informieren, wird dir sicher einer gleich erklären das du Unrecht hast...

Wird keiner, weil ich Recht habe, aber mach dir nix draus.

Welchen Monitor hast du ?

Asus PG348Q

GYnc synchronisiert die Monitor Refrehsrate mit der der Grafikkarte, wenn dein 100 Hz Monitor nur 80 FPS von der Graka bekommst geht derMonitor auf 80 Hz und es bleibt im Sync.. Und das fortwärend Neu.

Habe auch nie etwas anderes behauptet. Es geht um das Verhalten JENSEITS der Refresh-Rate vom Monitor. Und da gibt es nun mal einen Unterschied, ob im Treiber VSync zusätzlich zu GSync aktiviert ist oder nicht. In den Anfängen von GSync gab es diese zusätzliche VSync-Auswahl noch nicht. Die hat man später hinzugefügt und da könnte ich nun auch Fast Sync einstellen, wobei GSync natürlich gleichzeitig aktiviert ist. Dieses Verhalten habe ich in den 3-4 Punkten oben erklärt. Punkt. Müssen wir uns nicht drüber streiten. Kannst es ja mal mit deinem GSync-Monitor ausprobieren. ;-)
 
Das hast du so vorher nicht gesagt.
Wäre halt auchma ganz gut das unmissverständlich rüberzubringen ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh