[Sammelthread] NVIDIA GeForce GTX 1070 (GP104) Sammelthread + FAQ

NVIDIA GeForce GTX 1070 (GP104) Sammelthread + FAQ


Impressionen der Karte:

geforce-gtx1070-1-840x560.jpg

geforce-gtx1070-2-840x560.jpg

geforce-gtx1070-9-840x560.jpg

geforce-gtx1070-10-840x560.jpg

geforce-gtx1070-11-840x560.jpg

geforce-gtx1070-3-840x560.jpg

geforce-gtx1070-4-840x560.jpg

geforce-gtx1070-5-840x560.jpg

Technische Daten der GeForce GTX 1070
  • Chip = GP104-300-A1
  • Fertigung = 16 nm (TSMC)
  • Transistoren = 7,2 Milliarden
  • Die-Größe = 314 mm²
  • Shader-Einheiten = 1.920 (1D) (15 SMM)
  • Texture Mapping Units (TMUs) = 120
  • Raster Operations (ROPs) = 64 (48)
  • Pixelfüllrate = 72,3+ GPixel/s
  • Texelfüllrate = 180,7+ GTexel/s
  • Chiptakt = 1.506 MHz Baseclock + Boost (1.683 MHz) + Max. Boost (~1.880 MHz)
  • Speichertakt = 4.007 MHz
  • Speichergröße = 8.192 MB
  • Speichertyp = GDDR5
  • Speicherinterface = 256 Bit
  • Speicherbandbreite = 256,4 GB/Sek.
  • Shader Model = 5.0
  • DirectX = 12.1
  • Leistungsaufnahme 3D (TDP) = 150 Watt
  • Leistungsaufnahme 2D = ~9 Watt
  • Versorgung über einen 8-Pin PCI-Express Anschluss
  • Anschlussmöglichkeiten = 1 x DL-DVI, 1 x HDMI 2.0, 3 x DisplayPort 1.4
  • Hinweis: Multi-Monitoring = Die Karte kann bis zu fünf Monitore gleichzeitig ansteuern, im Surround-Modus (2D und 3D) maximal drei. !!
  • Hinweis: Je nach Taktraten können Rechenleistung, Pixelfüllrate und Texelfüllrate sowie der Stromverbrauch abweichen.
  • Die Karte nutzt PCIe 3.0, ist aber völlig abwärtskompatibel


Geizhals Link:
GeForce GTX 1070 | Deutschland - Preisvergleich



Treiber:
Alle Infos und neuste Treiber findet ihr in diesem Thread hier
oder direkt bei Nvidia


Tools:
Grafikkarten Analyse Tool GPU-Z hier
NVIDIA Inspector (Analyse Tool, OC, erw. Treibersettings) hier
EVGA Precision X hier
MSI Afterburner hier
FurMark VGA Stress Test hier
Futuremark 3D Mark (2013 - Basic Edition) hier
Futuremark 3D Mark 11 (Basic Edition) hier
Unigine Heaven 4.0 Benchmark (Basic Edition) hier
Unigine Valley 1.0 Benchmark (Basic Edition) hier


FAQ (Frequently Asked Questions)

Wie laut ist die Karte?
Die GeForce GTX 1070 erreicht im Leerlauf mit 0,4 Sone genau den selben Wert der 1080. Der Radiallüfter dreht mit ~1.100 RPM bei 27% PWM-Stärke. Unter Last schwankt die Lautheit zwischen 2,5 Sone (~50%) bis zu (max) 2,9 Sone (53% PWM @~2.120 RPM), was deutlich weniger als bei der GTX 1080 ist. Die Maximale Drehzahl des Radiallüfter beträgt @100% 4.000 RPM.

Wie hoch sind die Temperaturen der Karte?
Die Temperatur der GTX 1070 beträgt im Leerlauf vollkommen um die 32 °C. Unter Last (Games) kann die Temperatur auf bis zu 84 °C steigen, wobei das Temperatur-Target genau 83°C beträgt. Sobald die 83°C überschritten werden, wird die Taktrate und Spannung gesenkt, sodass die Karte bei 83°C verweilt. Allerdings erreicht die 1070 zumindest im Freiluftbetrieb gerade so die 80-81 °C, was dazu führt, dass die Karte, anders als bei der 1080, die Taktraten nicht wegen der Temperatur, sondern durch das enge Powerlimit, senkt.

Wie hoch ist der Stromverbrauch?
Die GTX 1070 verbraucht im Leerlauf um die 9 Watt. Unter Last limitiert das Power-Target den maximalen Verbrauch. So verbraucht eine Referenz-GTX 1070, egal ob in Games oder im Furmark, maximal 150 Watt (100% PT). Dank niedriger Spannungen und vor allem der 16nm-Fertigung erreicht die GTX 1070 eine sehr hohe Effizienz.

Passt die Karte in mein Gehäuse?
Bei der GeForce GTX 1070 misst das PCB wieder 26,67 cm, wie bei der allen anderen Referenzmodellen nVidias der letzten Jahre

Die Performance:
Die Karte erreicht im 3DCenter Performance-Index einen Wert von 800% (1080p), bzw. 107% (4K) und ist so im Mittel aller Reviews rund 7% schneller als eine GTX 980 Ti und damit auch schneller als eine Titan X (stock). Die GTX 1080 ist im Vergleich zur 1070 rund 20% (1080p), bzw. 23% schneller (4K).
Launch-Analyse nVidia GeForce GTX 1070 | 3DCenter.org

Overclocking:
Wie schon bei jeder Karte, die auf der Kepler-und Maxwell-Architektur basiert, lässt sich der Takt der neuen Maxwell-GPU über einen "Offset" zur Basistaktrate, welcher sowohl den Basistakt, als auch den Boost-Takt gleichermaßen anhebt ändern. Allerdings bietet GPU Boost 3.0 zum Start der Pascal-Generation eine weitere Möglichkeit an. So kann man per Tool einzelne Takt-/Spannungswerte genau einstellen und bis zu 80 Stufen individuell anpassen.
Für einen ersten Überblick sollte man sich den Artikel zu GPU Boost 3.0 hier anschauen (+ Video)
NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test - Hardwareluxx

Zu den bisher erreichten Taktraten:
Die 1070 verhält sich bezüglich der Taktraten sehr ähnlich wie die 1080. Laut den ersten Reviews sollte es machbar sein, dass jede GPU rund 1,95 bis 2,0 GHz erreichen kann. Alles darüber scheint dann wie immer Glück zu sein. Das man kaum höhere Taktraten erreichen konnte liegt in erster Linie daran, dass bei der GTX 1070 das Power Target stark limitiert. So kann man dieses zwar per Tool auf 112% anheben (168 Watt), aber selbst das reicht nicht aus, um konstant die maximal mögliche Taktrate zu erreichen und konstant halten zu können. Mit einer besseren Kühlung und somit kühleren GPU Temperaturen und folglich einer geringeren Verlustleistung sind noch etwas höhere Taktraten erreichbar.

Einen Interessanten Beitrag mit Praxisbezug zum Thema Undervolting hat der User BK-Morheus veröffentlicht. In dem Video sieht man, wie man eine GTX 1070/1080 mit Hilfe des "curve editors" des Afterburners undervolten kann:
https://www.youtube.com/watch?v=UGeGLU8uh9M&ab_channel=BennyLikesTech

Was einer erhöhten OC-Performance noch im Weg stehen kann, ist die Speicherbandbreite. Die 1070 besitzt zwar die Rechenleistung einer 980 Ti oder Titan X, allerdings nur rund 76% deren Speicherbandbreite. Gerade bei hohen GPU-Taktraten kann die durch das 256 Bit breite Speicherinterface und den 8 Gbps starken Speicher erreichte Bandbreite zu gering für eine deutliche Skalierung sein.

Die Folgende Tabelle vergleicht das Verhältnis der Speicherbandbreite mit der Rechenleistung verschiedener Karten / Architekturen:
Karte (Takt @ Referenz)RechenleistungSpeicherbandbreiteRechenleistung pro 1 GB/s
GTX 580 (772/1.544/2.004 MHz)1.581 TFLOPs192,2 GB/s8,22 TFLOP pro 1 GB/s
GTX 680 (1.058/3.004 MHz)3.250 TFLOPs192,3 GB/s16,91 TFLOP pro 1 GB/s
GTX 780 Ti (928/3.500 MHz)5.345 TFLOPs336,0 GB/s15,91 TFLOP pro 1 GB/s
GTX 980 (1.215/3.506 MHz)4.977 TFLOPs224,4 GB/s22,18 TFLOP pro 1 GB/s
GTX 980 Ti (1.075/3.506 MHz)6.054 TFLOPs336,6 GB/s17,99 TFLOP pro 1 GB/s
GTX Titan X (1.075/3.506 MHz)6.605 TFLOPs336,6 GB/s19,62 TFLOP pro 1 GB/s
GTX 1060 (1.709/4.007 MHz)4.375 TFLOPs192,3 GB/s22,75 TFLOP pro 1 GB/s
GTX 1070 (1.683/4.007 MHz)6.463 TFLOPs256,4 GB/s25,21 TFLOP pro 1 GB/s
GTX 1080 (1.733/5.006 MHz)8.873 TFLOPs320,4 GB/s27,69 TFLOP pro 1 GB/s
NVIDIA TITAN X (1.531/5.006 MHz)10.974 TFLOPs480,6 GB/s22,83 TFLOP pro 1 GB/s
P100 (1.481/703 MHz)10.616 TFLOPs719,9 GB/s14,75 TFLOP pro 1 GB/s
Allgemeine Hinweise
Dies ist ein Sammelthread für die GeForce GTX 1070. Das heißt, es darf und soll hier über die Karte diskutiert werden und den Usern auch als Kaufberatung dienen.
Natürlich ist ein Vergleich, etwa in Sachen Leistung, zu anderen Karten angemessen.
 
Zuletzt bearbeitet:
Kinder haben nicht so teures Zeug zu haben.

So verwöhnt man die doch nur.

Gesendet von meinem SM-G935F mit Tapatalk
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich veräußere meine 10070 garnicht, zahle also den vollen Preis.
Allerdings habe ich die Pascal Gen analysiert (hatte mehrere 1070, 1080 und 1080 Ti) und für mich entschieden das die normalen 1070 bzw1080er aus Leistungs, Stromverbrauchs und Kühlungssicht die sinvolleren Karten sind und ich werde mir demnach wohl eine 1170/1180 holen und habe vor die Ti auszulassen(mal sehen obs klappt :xmas: ).
25-30% mehr Power als die Ti bei der 1180 und nur 180W TDP klingen in meinen Ohren schon sehr gut und attraktiv ;)
Auch werden natürlich die aktuellen Karten immer Treibermässig besser unterstützt..

Es ist ein Hobby und ich habe Spass dran und der Kauf tut nicht weh, warum sollte ich mir also mit Logik und Sinnhaftigkeit den Spass verderben lassen ? ;)
Ja das ist der Trend, unreflektiert dem Konsumtrend folgen. Das ist dein gutes Recht meines ist es, diesen abzulehnen und das aus Prinzip . Ich erachte das Splitting welches Nvidia betreibt indem zuerst die Mittelklasse zu High End Preis veräußert wird nur um dann ein paar Monate später die wahre High End Klasse aufzulegen als unpassend für mich. Auch wenn diese Art der Preistreiberei dir keine Schmerzen bereitet, wäre es nicht dennoch schöner, wie zu Fermi Zeiten 500 Euro für reales High End zu zahlen und vom gesparten Aufpreis etwas anderes erwerben zu können? Was die Leistungsaufnahme betrifft, stimme ich dir zu. Die 1070 ist was das betrifft schon optimal, aber genau darum reizt mich auch eher eine Generation mit real verkleinerter Strukturbreite und nicht diese Art Pseudo 12nm Generation. Angeblich soll ja nächstes Jahr schon auf 7nm gesetzt werden, das dürfte dann eine Ti entweder sparsamer oder deutlich schneller werden lassen

Gesendet von meinem HTC One_M8 mit Tapatalk
 
Naja die GTX 9xx Serie hatte auch noch 22NM Fertigung wie die Gen davor, das aber so gut optimiert das sie trotzdem sparsamer war und die 970er nur bei 145 Watt lagen, das hat also wenig zu sagen...

Es ist wie gesagt mein Hobby und hat nicht mit unreflektiert dem Konsumtrend folgen zu tun, ich folge diesem an vielen anderen Stellen bewusst nicht, schonmal daran gedacht ? ;)
Nur mein Hobby soll mit Spass machen und ausgleich zur Arbneit sein ,da schränke ich mich nicht unnötig selbst ein.

Ich baue auch gerade einen Lan PC den ich nicht brauche, nur weil ich bock drauf habe..

Ich denke auch hier im Luxx werden sehr viele so wie ich handeln, siehtman ja im MP beim Pascal Abverkauf..

Ich habe auch gerade fürn Kumpel ein 3000 Euro Budget fürn WOW PC bekommen, zieht man den 35" 4 K Curved G-Sync monitor ab bekomm ich da trotzdem 1080TI, 32GB Ram, 8086K und weitere schöne Dinge rein..
 
Zuletzt bearbeitet:
ja nee... quatsch.

Alles andere wäre zu teuer.

eine GTX 960 oder 970 ist auch denkbar :)

3k für einen WoW PC... zu geil :)
 
Zuletzt bearbeitet:
Naja WoW mit allem Max braucht in 4K Mehr Leistung als man denkst, das ist nichtmehr das wow von vor 10 Jahren..
 
na gut - WoW ist wohl eins der Games das man in 4K auch mit ordentlichen Frames zocken kann ... xD

ist Geschmackssache ... hätte natürlich auch so ne fette Kiste - aber nicht für WoW .. war halt noch nie meins.

3k gehen für die Zusätze beim Autokauf drauf ;)
 
Was haste dir denn fürn Flitzer gegönnt ? :eek::d

PS: Mein ROG Gaming Rig war ohne Monitor schon 3K teuer, alleine die 12 Silent Wings 3 Lüfter waren über 200.. :heul: AIO 200, Case 330, summiert sich alles..
 
Zuletzt bearbeitet:
"Flitzer" .. Naja - Familienflitzer vielleicht ..

Opel Astra Sports Tourer 1.4 Dynamic, 150PS, Automatik

also ich warte noch drauf *G*

besseres Fahrwerk, AHK, Frontkamera mit Notbremsung, Winterpaket .. so Zeug haut ganz schön rein *G*

aahh schwer OT

suche immernoch eine GTX 1050 Ti .. hat mir einer in ebay kleinanzeigen doch erzählen wollen das eine GTX 960 besser sei .... narf
 
Graka hab ich leider nix im Angebot, meine aber gleich mehrere 1050 TI im MP erblickt zu haben. Guck dochma da.

Neu bestellt ?
Ist dochn schöner Familienwagen undn paar Extras müssen schon sein, da ist man später immer froh drüber die genommen zu haben. Kenne das von mir, erst will man immer knallhart sparen und hinterher hat man doch 80% der austattungslite angekreuzt :fresse2:
Ich wollte nur den adaptiven Tempomat und hab nun doch noch gekühlte(und beheizte) Sitze und beheiztes Lenkrad :bigok:
 
1050 Ti, 960, 770 - ist doch +/- 5% gleichauf @Max OC.

Aber natürlich nur aus Leistungssicht.
 
beheiztes Lenkrad hat meine Frau auch ... einmal gehabt - nie wieder ohne ;)

Hat mit andere Marken schon gut Stress mit Gerichtsverhandlung und so ..

Probefahrt war ich gleich angetan - der Dynamic hat auch einen schwarzen Himmel ... eigentlich banal .. find ich aber einfach geil *G*


@ TheOpenfield

jo - also nicht besser - deswegen will ich da auch nicht mehr als 100€ für ne GTX 960 mit gutem Kühler zahlen ;)

muss ja jetzt sparen *G*
 
Uff hört sich ja nicht gut an.. War aber nicht Ford oder ? Kann ich sehr empfehlen, hatte schon einige und nie größere Probleme. :bigok: Das 3/4 mit dem Dodge bis jetzt auch nicht. Hätte nur das größere Soundpaket nehmen sollen, mit Klappen offen hör ich nurnoch den Motor :eek::d

Haste schonma im MP geguckt ?
 
8k bei der Briefmarkengröße? . Wenn es nur um die Kantenglättung geht, nutze halt 2xSSAA dann wird in 8k gesampelt auf einem 4k Screen. Von der höheren Pixeldichte profitiert man jedoch nicht in Fragen Auflösung wenn man nicht gerade 30 cm vor dem Panel klebt bei 8k auf 30 Zoll. Selbst bei 4k ist die Optimaldistanz auf 30zoll mit 60cm beziffert für 100 Prozent Sehvisus was das erkennen von Details betrifft.
Überlasse doch bitte den Leuten, die Ahnung von der Materie haben, die Beurteilung wie viel eine hohe Pixeldichte bringt. Du hast dich leider gerade selbst disqualifiziert. So lange man den typischen Aliasing Effekt sehen kann, so lange profitiert man von höherer Pixeldichte und bei 4K auf 28" erkennt man definitiv noch den typischen Treppeneffekt, eben Aliasing. Einen Anspruch zu haben das nicht zu benötigen ist da kein Argument dagegen. Wenn irgend eine Art von Anti Aliasing nötig ist > Pixeldichte noch zu gering, Fakt, keine Meinung. Meinung ist es ob man es selbst benötigt und Anti Aliasing nicht reicht. Seit ich 4K habe wurde mir klar: Ich will auf keinen Fall weniger als 4K bei 28", bei 8K würde ich auf 30" gehen, aber nur, weil dann die Pixeldichte trotz größerem Bildschirm noch immer höher ist als bei meinem jetzigen und dann vermutlich ich wirklich kein AA mehr brauche.

Schon als damals die PS3/XBo360 raus kam habe ich es gehasst, dass so wenige Spiele Kantenglättung nutzen und die gesparte Leistung lieber in die Grafik steckten. Frag mal wie ich es gehasst habe, als die PS4 kam. Bei jeder neuen Konsolen Generation hatte ich gehofft AA gehört endlich zum Standard. Am PC hieß es dann auch immer irrsinnig viel Leistung in AA stecken oder Kompromisse einzugehen, die dann die üblichen Nachteile bedeuten: Pixelmatsch in der Entfernung, Kantenflimmern an Zäunen, Unschärfe und allen in allem ein sehr unruhiges Bild. Was hab ich nicht Stunden an Zeit damit verschwendet eine möglichst gute Balance zwischen stabiler FPS und möglichst gutem AA hin zu kriegen ohne das das Spiel dabei grafisch schlecht aussieht, viel zu viel verschwendete Zeit.

Mit 4K sind all diese negativen Effekte schon beinahe weg und wer einmal erlebt hat wie viel ruhiger und schärfer das Bild ist und wie viel weiter man sehen kann ehe alles zu Pixelmatsch am Horizont wird und wie viel mehr es für die Immersion in Spielen bedeutet, der träumt nach der Erfahrung davon wie es erst sein muss, wenn Aliasing gar kein Thema mehr ist. Noch schärfer, noch ruhiger, noch höherer Weitsicht, noch mehr Immersion. Und nein, Downsampling ist dafür kein Ersatz.

Das man dafür allerdings auch deutlich mehr Grafikleistung von der Grafikkarte braucht, klar. Und noch wäre das alles zu teuer, auch für mich. Darum lebe ich auch aktuell gut mit dem Kompromiss eines 4K Monitors, aber inzwischen mag ich in der Hinsicht keine Kompromisse mehr eingehen. Aliasing ist soo 2000 und 2018 unwürdig. Nicht ohne Grund hab ich meine damals gerade mal 6 Monate alte PS4 verkauft um mir eine PS4 Pro zu holen.

Sorry, wieder viel zu viel dazu geschrieben, ein Zeichen dafür das mir das Thema wichtig ist. ;)
 
Zuletzt bearbeitet:
Die einen haben nen Auflösungsfetisch, die anderen nen FPS fetisch, ich wollte mit WQHD und 165 Hz eben den besten Kompromiss und bin hochzufrieden :)
Du hast halt TN und nur 60 Hz und kein G-Sync, = 3 Sachen die ich niemehr haben bzw. missen möchte ;)
Ixh kann aber deinen Standpunkt nachvollziehen, war nur ein Beispiel ;)
 
Zuletzt bearbeitet:
Pixeldichte sollte man allerdings immer auf den Sitzabstand und das Sehvermögen beziehen. Allgemeingültige Aussagen sind da eher schwierig. Mein Priorität liegt beispielsweise darauf, dass ich absolut ohne Skalierung in Windows und Programmen auskommen möchte (solange diese noch die bekannten Probleme hat) und hier liegt mein Limit bei etwa 110 PPI gemessen an meinem Sitzabstand. Bei 4K sind das nunmal 40".
 
Zuletzt bearbeitet:
Jepp die Schriftgrößen, Webseiten etc sind bei 1440P auf 27" schon an der grenze zu zu klein für mich ,da war 1080P auf 24" deutlich angenehmer..
ABER, der PC ist ja hauptsächlich zu m zocken. Auf dem Surflaptop hab ich ja alles in Riesengroßen 720P :bigok:
 
Überlasse doch bitte den Leuten, die Ahnung von der Materie haben, die Beurteilung wie viel eine hohe Pixeldichte bringt. Du hast dich leider gerade selbst disqualifiziert. So lange man den typischen Aliasing Effekt sehen kann, so lange profitiert man von höherer Pixeldichte und bei 4K auf 28" erkennt man definitiv noch den typischen Treppeneffekt, eben Aliasing. Einen Anspruch zu haben das nicht zu benötigen ist da kein Argument dagegen. Wenn irgend eine Art von Anti Aliasing nötig ist > Pixeldichte noch zu gering, Fakt, keine Meinung. Meinung ist es ob man es selbst benötigt und Anti Aliasing nicht reicht. Seit ich 4K habe wurde mir klar: Ich will auf keinen Fall weniger als 4K bei 28", bei 8K würde ich auf 30" gehen, aber nur, weil dann die Pixeldichte trotz größerem Bildschirm noch immer höher ist als bei meinem jetzigen und dann vermutlich ich wirklich kein AA mehr brauche.

Schon als damals die PS3/XBo360 raus kam habe ich es gehasst, dass so wenige Spiele Kantenglättung nutzen und die gesparte Leistung lieber in die Grafik steckten. Frag mal wie ich es gehasst habe, als die PS4 kam. Bei jeder neuen Konsolen Generation hatte ich gehofft AA gehört endlich zum Standard. Am PC hieß es dann auch immer irrsinnig viel Leistung in AA stecken oder Kompromisse einzugehen, die dann die üblichen Nachteile bedeuten: Pixelmatsch in der Entfernung, Kantenflimmern an Zäunen, Unschärfe und allen in allem ein sehr unruhiges Bild. Was hab ich nicht Stunden an Zeit damit verschwendet eine möglichst gute Balance zwischen stabiler FPS und möglichst gutem AA hin zu kriegen ohne das das Spiel dabei grafisch schlecht aussieht, viel zu viel verschwendete Zeit.

Mit 4K sind all diese negativen Effekte schon beinahe weg und wer einmal erlebt hat wie viel ruhiger und schärfer das Bild ist und wie viel weiter man sehen kann ehe alles zu Pixelmatsch am Horizont wird und wie viel mehr es für die Immersion in Spielen bedeutet, der träumt nach der Erfahrung davon wie es erst sein muss, wenn Aliasing gar kein Thema mehr ist. Noch schärfer, noch ruhiger, noch höherer Weitsicht, noch mehr Immersion. Und nein, Downsampling ist dafür kein Ersatz.

Das man dafür allerdings auch deutlich mehr Grafikleistung von der Grafikkarte braucht, klar. Und noch wäre das alles zu teuer, auch für mich. Darum lebe ich auch aktuell gut mit dem Kompromiss eines 4K Monitors, aber inzwischen mag ich in der Hinsicht keine Kompromisse mehr eingehen. Aliasing ist soo 2000 und 2018 unwürdig. Nicht ohne Grund hab ich meine damals gerade mal 6 Monate alte PS4 verkauft um mir eine PS4 Pro zu holen.

Sorry, wieder viel zu viel dazu geschrieben, ein Zeichen dafür das mir das Thema wichtig ist. ;)

Du solltest vielleicht mal korrekt lesen und verstehen lernen denn ich habe die Sinnhaftigkeit von 8K bezüglich höherer Detailwiedergabe abgesprochen und Aliasingeffekte explizit ausgeklammert. Fakt ist das das menschliche Auge eine Grenzauflösung von einer Bogenminute bei 100 Prozent Sehvisus hat was bei 28 Zoll auf 4k so ziemlich exakt einen Optimalabstand von 60 cm bedingt, um alle Details erkennen zu können. Bei allem darüber verringert sich der Detailvorteil. Und so gilt eben equivalent für 8k eine Optimaldistanz von 30 cm auf 28 Zoll für 8k. Das ist wissenschaftlich erwiesen und unstrittig. Aliasing ist ein Artefakt des Renderings, welches als Nebeneffekt bei höherer Auflösung seine Sichtbarkeit einbüßt. Ein feinere Pixelraster ist jedoch nicht notwendig wenn man die Sichtbarkeit zu verringern. Man kann ebenso per oder OGSSAA auf 8k oder per SGSSAA die Renderauflösung je nach Stufe auf 8, 16 oder gar 32k erhöhen und das ganze dennoch in 4k ausgeben was dann sogar das Aliasing mindestens auf das Maß einer nativen 8k Ausgabe mindert und solang man nicht weniger als 60 cm vom 28 Zoll Monitor entfernt sitzt und man nicht gerade Adler mit 150 Prozent Sehvisus ist, wird man dabei keinerlei Nachteile erfahren. Erst bei größeren Diagonalen, geringeren Betrachtungsabständen oder außergewöhnlich guten Augen, weit über der Norm, stellt das Sgssa oder OGSSAA keine Alternative mehr dar, ansonsten sehr wohl.

Gesendet von meinem SM-G920F mit Tapatalk
 
Zuletzt bearbeitet:
@ Thrawn... doch war Ford (nix neues) 2x sogar

Opel neu bestellt, jo

@ Auflösungsdebatte

Danke für die ganzen Infos :)

4K als Notlösung... 🤣

also falls ich mal den Monitor erneuern sollte, halte ich das wie Thrawn. Möchte auch mal mehr als 60Hz sehen.

WQHD stellt da genug Forderungen an die HW.. 🤣
evtl. wird es ja auch 21:9 mit 3440x1440
 
Andregee, bitte vergiss dabei nicht, dass es Leute gibt, die mehr als 100% erreichen.
 
Ich habe es darum ja extra erwähnt. Die Breite Bevölkerungsschicht liegt aber mittlerweile längst darunter. Es existiert ja keine natürliche Selektion mehr. Jeder halbblinde so auch ich (ohne Sehhilfe) kann seine Gene weitergeben, während vor ein paar Tausend Jahren man als derartige Blindgestalt von den Hasen im Gebüsch gefressen worden wäre [emoji23] 8k ist jedenfalls bei derartig kleinen Diagonalen wohl eher als Running Gag zu betrachten und selbst für das Kino halte ich 1 Meter Optimalabstand auf 100 Zoll Diagonale als ziemlich unsinnig. Ok bei allem zwischen einem und 2 Metern profitiert man noch gegenüber 4 k mit steigendem Abstand minimal, aber ich sehe kaum einen sinnvollen Nutzen. Naja so ein 50 Zoll Screen auf 50cm wäre vielleicht nicht unpraktisch um ein Multiscreensetup zu ersetzen, das wären dann je nach Bedarf eben auch 4x25 Zoll und nicht unpraktisch

Gesendet von meinem HTC One_M8 mit Tapatalk
 
So lange man den typischen Aliasing Effekt sehen kann, so lange profitiert man von höherer Pixeldichte und bei 4K auf 28" erkennt man definitiv noch den typischen Treppeneffekt, eben Aliasing.

Das kann ich nur bestätigen.
Ich muss sagen, insgesamt(!) von der Optik her, ist mir der Sprung von FHD auf 1440p definitiv mehr aufgefallen und hat mir mehr einen wow entlogt als von 1440p auf 4k.
Dennoch muss auch ich sagen, das dass Bild von 1440p auf 4k trotzdem noch mal schärfer ist und man weniger Aliasing wahrnimmt, aber dennoch definitiv vorhanden ist.

Darum, wenn ich mal ein Spiel in 4k nutzen kann (580 hust) , schalt ich gerne weitere Details ab um etwas AA zu nutzen, nur um ein möglichst ruhiger Bild zu haben.
Gleiches wenn ich mal, wie meistens auf 1440p runter musst. Auch da schalt ich meistens Effekte runter um mehr AA zu nutzen da es dann natürlich noch deutlicher auffällt.

Full HD hingegen mag ich mir überhaupt nicht mehr geben ...

Dennoch kann ich für mich festhalten, das der Sprung von FHD auf 1440p mir INSGESAMT mehr und wesentlich größer aufgefallen ist als von 1440p auf 4k.
Könnte aber wetten das mir der Sprung von 1440p auf 4k auch wesentlich mehr wow Momente gegeben hätte, wäre die Bildschirmdiagonale größer als 28" gewesen :)

Möchte 4k aber dennoch nicht mehr missen aus besagten Gründen :)

Und auch aus Gründen der Kompatibilität, da ich hin und wieder das Bild auch auf den TV Dupliziere um da was zu zocken und das ist zwischen ein 4k Moni und 4k TV einfacher und unproblematischer als zwischen verschiedenen Auflösungen... hingegen nervt es mich das manche Aufnahme Programme ihre Probleme haben 4k 60 FPS abzugreifen.
 
Zuletzt bearbeitet von einem Moderator:
Du bist bei 4k einfach an die Auflösungsgrenzen deines Auges geraten. Ich selbst würde mir nie wieder einen 60hz Monitor kaufen. Ich nutze zwar noch 3 dieser Art aber das Sample Hold bedingte Blurren ist einfach extrem störend, Ein 1080p 60hz LCD bietet prinzipbedingt nur 300 Linien Bewegtbildauflösung da die Schwarzphasen zwischen den Bildern wie sie Röhren oder Plasma TV bieten, fehlen so das beim Bildwechsel das Auge der Bewegung nachfolgt. Das hat nichts mit zu langsamen Reaktionszeiten der LCD Panel zu tun sondern ist sinnesphysiologisch bedingt, weshalb moderne TV Black frame insertion oder blinking backlight nutzen, um Schwarzphasen zwischen den Bildern zu erzeugen. Hohe Bildraten wirken dem Phänomen ebenso entgegen, die 90 hz in meiner Rift sind beim Simracing schon deutlich angenehmer. Perfekt ist da eigentlich ein Plasma, da dieser auch bei 60 Hz extrem scharfe Bewegtbilder noch über dem Niveau eines 144hz LCD liefert und sich dabei eben mit 60 fps begnügt

Gesendet von meinem SM-G920F mit Tapatalk
 
Zuletzt bearbeitet:
Da geb ich dir Recht.
Ist auch eine Sache die mich massiv stört.
Ich bin seiner Zeit von einem BenQ 120hz FHD auf ein 60hz IPS 1440p gegangen - da mir das TN Panel und Farben mit der Zeit echt auf die Nüsse gegangen sind. Hatte mit dem IPS @ 60hz aber natürlich diesen von dir beschriebenen Effekt, hielt aber fälschlicherweise das Panel für zu langsam und hab dann den Sprung auf 60hz 4k FreeSync gemacht. (Bot sich sehr günstig an)

Nun weiß ich das nicht das Panel zu langsam war sondern ich die Sache mit den Sprung zurück auf 60hz falsch eingestuft habe und es genau diese hz war die mir fehlten und das es nicht etwa ein zu langsames Panel war was mich "versaut" hat :fresse:

Also war der Sprung zurück zu TN überflüssig - auch wenn er sich hier sehr günstig Anbot und an und für sich auch eine gute Figur macht - zumindest nicht zu vergleichen mit dem BenQ damals was die typischen TN Problematiken angeht, und auch eine wesentlich bessere Farbdarstellung hat als der BenQ von damals.

Nein bitte keine Panel Diskussion :d Wollte nur mein "Leidensweg" schildern :fresse:

Vorerst bin ich damit noch zufrieden.
Auf lange - und vor allem bezahlbare Sicht - würde ich aber zumindest auf 4k 120/144 hz / ips springen.
Traum wäre natürlich OLED / 4k / 144HZ / HDR zum bezahlbaren Preis, aber da werden noch etliche Jahre ins Land ziehen...

Zwecks GSync/ FreeSync, ob AMD oder nV gebunden ist mir eigentlich egal (Schlimm genug das man sich überhaupt binden muss...) , solange ich halbwegs brauchbare und bezahlbare HW kriege um das zu befeuern. Hab ja genug nV Karten gehabt, mit unter eine 1080 / 1070 TI / 980 TI wie der aufmerksame Leser hier weiß ;) Die RX war ja eigentlich nur zum Spaß gedacht, da ich den Moni gekriegt habe und etwas mit FreeSync rum spielen wollte um Erfahrungen mit zu sammeln was wirklich hinter der Sync Thematik steckt. Für mich als ehemaliger VSync Junkie (Hasse Tearing wie auch Aliasing ) natürlich ein Segen da so nun auch der Input Lag weg fällt. Also durfte die RX notgedrungen erstmal bleiben in dieser Kombination, da ich aktuell weder willens bin , noch derzeit das nötige Kleingeld habe Geld in einen anständigen mindestens 1440p GSync Monitor zu stecken und zudem noch die Panel Lotterie da mit zu machen...

Klar könnte jetzt auch so auf IPS 1440p FreeSync zurück. Aber jetzt hat mich nun mal 4k versaut und die Freiheiten die man damit hat (je nach Game und Performance InGame zwischen 1440p / 3200x / 4k switchen zu können,was alle samt immer noch besser aussieht als FHD... ) sowie die angesprochene höhere Kompatibilität in meinem Falle wie im vor Post geschildert.

Aber wie heißt es so schön und ist gleichzeitig leider wie auch zum Glück so?
Besser geht immer, schlechter aber eben auch :d
Sonst hätten wir ja im Hobby hier nichts mehr zu tun ;)

Und wenn ich die Nase voll habe auf diesem Niveau zu jammern, dann setze ich mich einfach vor meinem zweit Rechner an dem Frauchen gerne mal das ein oder andere Spiel gemeinsam mit spielt, da steckt aktuell nämlich noch ein FX 6300 @ 4500 / 16 GB Ram und eine GTX 670 drin an einem FHD TN Monitor und schon weiß ich wieder wie zufrieden ich eigentlich sein kann :shot:
Ich bin zwar erstaunt das es diese Kombination überhaupt noch schafft in den Games die aktuell mal zusammen gespielt werden (Hauptsächlich PubG / BF1 / GOW4 / Divison / Project Cars 2) mit massiv angepassten Details zu 98% konstante 60 FPS zu halten, aber daran lange Spielen wollte ich absolut nicht mehr.

Darum wird es auch Zeit das ich Aufrüste damit meine jetzigen Sachen in ihren Rechner wandern ;)
 
Zuletzt bearbeitet von einem Moderator:
Nach der Lektüre des Computerbase Artikels zum Thema SLI/CF Unterstützung in aktuellen Games hab ich mir gestern mal ne SLI HB Bridge für mein 1070er SLI bestellt. Aktuell fahr ich noch mit der alten Standard SLI Bridge die beim Board dabei war.
Aber angeblich soll die neue ja in Sachen Frametimes und teilweise liest man sogar von massiven FPS Steigerungen in bestimmten Games doch n Eck besser sein.

Wirklich schade dass SLI oder Multi GPU im allgemeinen so ins Hintertreffen geraten ist. Die Gründe dafür sind sicherlich vielfältig, dabei sollte DX12 z.B. ja eigentlich eine Verbesserung in der Hinsicht bringen.
Das ist für mich jetzt aber kein Grund keine Karte raus zu werfen, vieles was ich zock ist eh nicht vollkommen aktuell und skaliert vielleicht nicht supergut aber ausreichend dass ich mit 2 Karten noch schneller dran bin als mit einer.
 
Naja, die Nachteile überwiegen nun mal halt. Benutzen immer weniger, also kümmert sich nVidia auch immer weniger darum.
 
Besser wäre verkaufen und später das in einer Turing stecken.
 
Habe meine Evga verkauft mit wenig Verlust obwohl schon 2 Jahre alt gewesen. Werde auf die neue Generation dann wechseln so bald diese da sind. Wird wohl wieder eine Evga werden da super Support und man kann die Garantie erweitern für wenig Aufpreis.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh