4K-Gaming: AMD gegen NVIDIA - Wer ist bereit für die Zukunft?

Wir messen nur die linke Seite mit dem Overlay und das Analyse-Tool schaut sich dann an, welche Frames dort dargestellt werden und welche nicht. Das Tool sieht und zählt die Frames. Anhand des Farbcodes kann es sich anschauen, welche gar nur auf dem zweiten Panel (rechts) dargestellt werden, nicht aber auf dem ersten Panel (links), denn diese tauchen in ihrer Farbe gar nicht erst auf (oder sind zu kurz, oder doppelt usw.).
Ja soweit schon klar... ABER: "welche gar nur auf dem zweiten Panel (rechts) dargestellt werden" -> woran macht ihr das Fest? Wenn ihr nur HDMI 1 aufzeichnet -> und anschließend analysiert?
Bei derart hohen FPS wie sie hier in den Diagrammen stehen, kann das kein Mensch mit bloßen Auge erkennen... Sprich was die Karte ausspuckt über den nicht gecapturten zweiten HDMI Port -> kann man doch auch nicht so ohne weiteres absehen.
Oder steh ich auf dem Schlauch?

Dann hoffentlich mit etwas mehr Vorlauf, ich muss die Koffer packen ;)

:wink: na wenn das keine Anspielung war :fresse:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das Overlay-Tool erstellt zu jedem Gameframe, der aus dem Rendering kommt eine Farbe. Der Treiber kümmert sich ja erst danach darum, wie dies auf die beiden Panels aufzuteilen ist. Idealweise sollte es ja so sein, dass gleichzeitig auf beiden Panels der gleiche Frame dargestellt wird. Damit aber haben die Treiber so ihre Schwierigkeiten und das kann wie folgt aussehen:

Frame 1: Weiß --> Panel 1&2
Frame 2: Hellgrün --> Panel 1&2
Frame 3: Blau --> Panel 1
Frame 4: Rot --> Panel 2 --> taucht also als Farbe im Overlay nicht auf
Frame 5: Blaugrün --> Panel 1&2
Frame 6: Navyblau --> Panel 1&2
Frame 7: Grün --> Panel 1&2
Frame 8: Aqua --> Panel 1
Frame 9: Rotbraun --> Panel 2 --> taucht also als Farbe im Overlay nicht auf
Frame 10: Silber --> Panel 1&2
Frame 11: Lila --> Panel 1&2
Frame 12: Olive --> Panel 1&2
Frame 13: Grau --> Panel 1&2
Frame 14: Magenta --> Panel 1
Frame 15: Gelb --> Panel 2 --> taucht also als Farbe im Overlay nicht auf
Frame 16: Orange --> Panel 1&2

Das Analyse-Tool sieht also Frame 4, 9 und 15 gar nicht und erkennt somit, dass dieser nur auf der Hälfte des Displays dargestellt wurde. Weiterhin funkt dieses 2-Panel-Setup natürlich auch mit Runts und Frame Interleaving dazwischen, die wir aber nur auf dem Panel 1 messen, das ist richtig.
 
bei dem bild wird deutlich dass nicht die auflösung das problem ist sondern die texturen...
hier sollte der nächste schritt erfolgen und texturen sollen dreckiger, realistischer aussehen...
polygone sind genug da und die auflösung ist auch hoch genug...die texturen müssen realistischer werden...da ist es egal ob 1080p oder weiß der geier was.
 
@Neikie, die Auflösung selbst ist aber nicht vollständig zu vernachlässigen.

Spiel mal ein Spiel mit 2x2 Downsampling auf nem anständigen FullHD Monitor, da hast du selbst bei älteren Titeln einen teils enormen Optikzuwachs. Die Sichtbaren Details aus ein und der selben Texturbasis sind schon ziemlich häftig.
So alles mit einmal schlagartig um xx erhöhen, würde die Hardware extrem in die Ecke fahren... -> das kann man dem Gamer auch nicht antun.
 
Naja, oder vieleicht bin ich was Bildqualität (vom Monitor) und Größe angeht wohl nicht gerade sehr Anspruchsvoll... (was im übrigen auch nicht die Texturauflösungen der Spiele sind)

Sorry aber bist du definitiv, wenn du 120 Hz auf eine Stufe mit Surround, Occulus Rift und 3D stellst.

Für manche Menschen/Augen, meine eingeschlossen, sind 60 bzw. 75 Hz niemals smooth. Könnte niemals mit einem 75 Hz Monitor spielen, selbst beim Bewegen der Fenster im Windows sieht man den Unterschied und ich könnte kotzen - dann lieber wieder einen CRT. Habe es mehrfach ausprobiert, da ich unbedingt Wechseln wollte, aber der erste Flachbild Monitor mit dem ich dann leben konnte war damals der Samsung 2233RZ mit 120 Hz.

Aber offensichtlich gehöre ich da zu einer großen Minderheit, warte schon seit Jahren auf vernünftige IPS 120 Hz Monitore, die man nicht importieren muss :(
 
Zuletzt bearbeitet:
Was soll man von so einem Bericht halten? Kurz vor einer Neuvorstellung seitens AMD kommen auf einmal auf Zig Seiten ( die größtenteils bereits bekanntermaßen NV nahe stehen ) Tests wo man vorher schon weiß das AMD nicht gut bei rumkommt.

AMD hat ja immer offen und direkt kommuniziert das Frame Pacing bei Hohen Auflösungen ( und DX 9 ) und insbesondere bei Eyefinity noch nicht funktioniert.

Man muss da wohl weder Verschwörungstheorie noch ein Genie sein um 1+1 zusammenzuzählen.
 
Sind diese importierten 120 hz Dinger wirklich so der Knaller? Ich würde wetten, dass bei denen doch die Ausleuchtung z.B. katastrophal ist. Ist zwar OT, aber naja... 120 hz bei 4k werden wir wohl auch in 3 Jahren noch nicht haben :fresse:
 
Sorry aber bist du definitiv, wenn du 120 Hz auf eine Stufe mit Surround, Occulus Rift und 3D stellst.

Für manche Menschen/Augen, meine eingeschlossen, sind 60 bzw. 75 Hz niemals smooth. Könnte niemals mit einem 75 Hz Monitor spielen, selbst beim Bewegen der Fenster im Windows sieht man den Unterschied und ich könnte kotzen - dann lieber wieder einen CRT. Habe es mehrfach ausprobiert, da ich unbedingt Wechseln wollte, aber der erste Flachbild Monitor mit dem ich dann leben konnte war damals der Samsung 2233RZ mit 120 Hz.

Aber offensichtlich gehöre ich da zu einer großen Minderheit, warte schon seit Jahren auf vernünftige IPS 120 Hz Monitore, die man nicht importieren muss :(

Was machst du denn im TV Sektor? Fußball und Formel 1 ruckeln bei dir auch bei 50Bildern pro Sekunde?. Glaub ich nicht. Es liegt auch bei -60-75hz nicht an einer zu niedrigen Framezahl sondern an den Frametimes gepaart mit einer nichtsynchronität mit dem Monitor. Mit Vsync sind 60fps flüssig.
 
Was soll man von so einem Bericht halten? Kurz vor einer Neuvorstellung seitens AMD kommen auf einmal auf Zig Seiten ( die größtenteils bereits bekanntermaßen NV nahe stehen ) Tests wo man vorher schon weiß das AMD nicht gut bei rumkommt.

AMD hat ja immer offen und direkt kommuniziert das Frame Pacing bei Hohen Auflösungen ( und DX 9 ) und insbesondere bei Eyefinity noch nicht funktioniert.

Man muss da wohl weder Verschwörungstheorie noch ein Genie sein um 1+1 zusammenzuzählen.

Da kann ich nur zustimmen!
Zumal doch auch auffällig ist, dass gezielt auf CF und SLI gesetzt wird um die "Microruckelproblematik" wieder noch einmal neu aufzukochen.

Das zwei AMD Karten hier teilweise nahezu die doppelte Performance 50 vs 25 FPS und auch halben Frametimes liefern, also eine AMD Karte alle schon etwa so schnell sein sollte wie zwei Nvidia Karten, wird gar nicht erst thematisiert.

Hauptsache es wird klar -> AMD ruckelt!

Wer den Artikel ernst nimmt :lol:
 
Tja nur das GZSZ mit 25p läuft und damit nativ ruckelt.Wenn dann mußt du Sturm der Liebe erwähnen. Die Motion Interpolation Technologien wurden in erster Linie dafür geschaffen, die STandzeiten auf dem LCD zu verkürzen um somit die Bewegungsschärfe zu erhöhen. Sprichwort Hold Type. Es schliert damit weniger, flüssiger wird es aber nicht bei 50i Material. Benutzt man einen Plasma oder eine Röhre, schmiert es nicht und es ruckelt auch nicht ohne diese Hilfsmittel.
 
Was ich mich persönlich grad frage:
Ich zocke gemütlich an meinem TV,
1920x1080p auf 46Zoll
ich hab also deutlich weniger "ppi"
Als jemand der FullHD auf 24Zoll spielt,
Auf der anderen Seite sitze ich ca.2m weit weg,
jemand am 24-Zoll-TV ja eher bei ca.50cm,

Ergeben sich für mich dadurch Nachteile?
Zb.hinsichtlich dem frühzeitigen erkennen der
Gegner bei Battlefield/CoD/usw?
Ich hab beim betrachten der Killcam nähmlich oft das gefühl:
"wie hat der mich nun blos gesehen"

Kann jemand aus eigener Erfahrung sagen, ob ich mit meiner Konfig (FullHD + 46Zoll-TV) Nachteile habe?
 
Du hast eindeutig Nachteile. Wenn du 2 Meter wegsitzt, derjenige vorm PC Monitor nur 50 cm, sieht der PC Spieler das Bild über 5 Pikosekunden schneller.
Yo der war gut, echt, hast die frage nicht verstanden, aber pointen-technisch hohes niveau, darfst stolz auf dich sein....

Für alle anderen die sich mit der materie auskennen; mir gehts in der frage darum, ob jemand der mit höherer auflösung spielt (2560x1440) vorteile hat weil er zb weit entfernte gegner (kleine objekte) schneller deutlicher erkennt als ich mit fullHD?
Wie nimmt man das beispielsweise wahr wenn man von fullHD auf eben 2560x1440 aufrüstet?
 
Also Gegner erkenne ich da nicht umbedingt besser drauf aber das ganze Bild ist bei 1440p schon deutlich ruhiger und brillianter als auf 1080p Bildschirm ,was daher viel entspannter anzusehen ist.
Wer einmal nen game in 1440p gezockt hat will nichtmehr in 1080p zocken weil 1080p dagegen wie pixelmatsch aussieht und selbst downsampling am 1080p Bildschirm kann nicht mithalten mit dem nativen 1440p Bild

Am TV hat man meiner Erfahrung nach deutliche Latenz probleme daher auch Nachteile und wird niemals so gut sein wie an einem Bildschirm mit wenig imputlag.
 
Zuletzt bearbeitet:
Zur Auflösung:
Genau sowas hab ich mir vorgestellt, weniger match, präzisere details, für sniper-camper wichtige parameter;)
Ne, ich spiel idr nur auf crouch server, da kann das durchaus wichtig werden.

Zum tv:
Ich spiel nun seit 2jahren auf meinem sharp-aquos-46zoll und latenzprobleme wegen tv hatte ich echt nie ;)
 
Also Gegner erkenne ich da nicht umbedingt besser drauf aber das ganze Bild ist bei 1440p schon deutlich ruhiger und brillianter als auf 1080p Bildschirm ,was daher viel entspannter anzusehen ist.
Wer einmal nen game in 1440p gezockt hat will nichtmehr in 1080p zocken weil 1080p dagegen wie pixelmatsch aussieht und selbst downsampling am 1080p Bildschirm kann nicht mithalten mit dem nativen 1440p Bild

Das kann ich so nicht unbedingt unterschreiben... Zumindest nicht ohne Angabe der Bilddiagonale...

Rein vom technischen her hat sich in den letzten Jahren auf dem Monitormarkt so viel nicht getan, was die DPI angeht. Sprich höhere Auflösung bei gleichzeitig größerer Diagonale bringt zwar mehr Details aufs Bild, weil mehr Bildpunkte -> aber bei annähernd gleichbleibender "Pixelgröße" ändert sich am Aussehen sogut wie gar nix. Es wird schlicht nur "mehr"... Ruhiger/brillianter ist da gar nix. auch 1440p flimmert wie Hölle, wenn die Texturen nicht passen. Das gleiche gilt für 4k Auflösungen bei entsprechender Diagonale -> wobei das aktuell noch unbezahlbar ist.

Bei den Monitoren kommt halt stark der subjektive Eindruck zum Vorschein... Man ist in so ziemlich jeder Lebenslage gezwungen, aktiv gegen das Flimmern vorzugehen. HQAF bei NV hilft streckenweise, reicht aber selten allein aus. SGSSAA/OGSSAA hilft ebenso und bringt echten Mehrwert. Irgendwelche Weichzeiner ala FXAA, MLAA und wie sie alle heißen wirkt auch gegen das Flimmern, macht unter Umständen aber das Bild matschig.

Anders schaut das natürlich aus, wenn jemand von nem sagen wir 27" FullHD Monitor auf nen 27" 1440p Monitor wechselt -> sprich gleiche Diagonale bei höherer Auflösung. Logisch, das man dort durch die kleineren Bildpunkte bei gleicher Fläche mehr "Ruhe/Brillianz" im Bild haben wird. :wink: Aber auch hier ist die "Unruhe" auch nicht weg. -> sondern nur kleiner dargestellt, was bedeutet, sie fällt nicht so massiv auf.

Für alle anderen die sich mit der materie auskennen; mir gehts in der frage darum, ob jemand der mit höherer auflösung spielt (2560x1440) vorteile hat weil er zb weit entfernte gegner (kleine objekte) schneller deutlicher erkennt als ich mit fullHD?
Wie nimmt man das beispielsweise wahr wenn man von fullHD auf eben 2560x1440 aufrüstet?

Kommt auf das Spiel drauf an... Es gibt Spiele, die erhöhen den Sichtbereich bei höheren Auflösungen. Sprich in FullHD siehst du sagen wir 1920x1080 "virtuelle Meter" und in 1440p siehst du eben 2560x1440 "virtuelle Meter". Dein Sichtfeld steigt somit und du bist in der Lage eben Objekte auf dem Schirm zu sehen, die bei FullHD gar nicht angezeigt sind, weil sie nicht im Sichtbereich liegen...
Häufiger ist das aber wohl bei Strategietiteln der Fall... Eher weniger in Shootern.

Ansonsten hast du normal von der Warte her keinen wirklichen Vorteil... Kommt halt auf die Bildschirmdiagonale an. Und wie weit du davon wegsitzt. Wie zu Powerplay schon geschrieben, 27" vs. 27" bei FullHD vs. 1440p heist gleichsam mehr Details. Könnte also sein, du nimmst die Änderung auf dem Bild (also wenn irgendwas durchs Bild läuft) eher war, weil es Detailreicher ist.
Andererseits gibts ja auch 23" oder gar nur 21" in FullHD. Oder irgendwelche Notebook Schirma ala Apple Retina mit deutlich höherer Pixeldichte und Auflösungen größer FullHD. -> das hat wiederum den Vorteil der mehr Details, dafür ist aber die Diagonale deutlich geringer. Nachteil ist, die Details sind kleiner dargestellt, was wiederum heist, sie fallen unter Umständen weniger schnell auf. Da sich eben der "Gegner" nicht als 2x4cm Fläche über den Schrim schiebt, sondern nur als sagen wir 1x2cm Fläche... Geht man in die andere Richtung, also Diagonalen größer 32" bei FullHD (TVs) -> die Objekte sind schlicht deutlich größer dargestellt, fallen also auch eher ins Auge, wenn sich da was bewegt.


Ich persönlich will ja das Feeling beim zocken auf nem 40" bei ca. 1-1,5m Abstand nicht missen. Man guckt auf den Schirm und sieht nur "Spiel"... Ohne Wand im Hintergrund usw.
Dafür muss man sich aber zwingen, auch eine größere Fläche im "Auge" zu behalten. :fresse:
Games mit dichter Atmosphäre wirken aber aus meiner Sicht deutlich tiefgründiger als auf so nem niedrigen 20"er Mäusekino...
 
Das kann ich so nicht unbedingt unterschreiben... Zumindest nicht ohne Angabe der Bilddiagonale...

Rein vom technischen her hat sich in den letzten Jahren auf dem Monitormarkt so viel nicht getan, was die DPI angeht. Sprich höhere Auflösung bei gleichzeitig größerer Diagonale bringt zwar mehr Details aufs Bild, weil mehr Bildpunkte -> aber bei annähernd gleichbleibender "Pixelgröße" ändert sich am Aussehen sogut wie gar nix. Es wird schlicht nur "mehr"... Ruhiger/brillianter ist da gar nix. auch 1440p flimmert wie Hölle, wenn die Texturen nicht passen. Das gleiche gilt für 4k Auflösungen bei entsprechender Diagonale -> wobei das aktuell noch unbezahlbar ist.

Bei den Monitoren kommt halt stark der subjektive Eindruck zum Vorschein... Man ist in so ziemlich jeder Lebenslage gezwungen, aktiv gegen das Flimmern vorzugehen. HQAF bei NV hilft streckenweise, reicht aber selten allein aus. SGSSAA/OGSSAA hilft ebenso und bringt echten Mehrwert. Irgendwelche Weichzeiner ala FXAA, MLAA und wie sie alle heißen wirkt auch gegen das Flimmern, macht unter Umständen aber das Bild matschig.

Anders schaut das natürlich aus, wenn jemand von nem sagen wir 27" FullHD Monitor auf nen 27" 1440p Monitor wechselt -> sprich gleiche Diagonale bei höherer Auflösung. Logisch, das man dort durch die kleineren Bildpunkte bei gleicher Fläche mehr "Ruhe/Brillianz" im Bild haben wird. :wink: Aber auch hier ist die "Unruhe" auch nicht weg. -> sondern nur kleiner dargestellt, was bedeutet, sie fällt nicht so massiv auf.



Kommt auf das Spiel drauf an... Es gibt Spiele, die erhöhen den Sichtbereich bei höheren Auflösungen. Sprich in FullHD siehst du sagen wir 1920x1080 "virtuelle Meter" und in 1440p siehst du eben 2560x1440 "virtuelle Meter". Dein Sichtfeld steigt somit und du bist in der Lage eben Objekte auf dem Schirm zu sehen, die bei FullHD gar nicht angezeigt sind, weil sie nicht im Sichtbereich liegen...
Häufiger ist das aber wohl bei Strategietiteln der Fall... Eher weniger in Shootern.

Ansonsten hast du normal von der Warte her keinen wirklichen Vorteil... Kommt halt auf die Bildschirmdiagonale an. Und wie weit du davon wegsitzt. Wie zu Powerplay schon geschrieben, 27" vs. 27" bei FullHD vs. 1440p heist gleichsam mehr Details. Könnte also sein, du nimmst die Änderung auf dem Bild (also wenn irgendwas durchs Bild läuft) eher war, weil es Detailreicher ist.
Andererseits gibts ja auch 23" oder gar nur 21" in FullHD. Oder irgendwelche Notebook Schirma ala Apple Retina mit deutlich höherer Pixeldichte und Auflösungen größer FullHD. -> das hat wiederum den Vorteil der mehr Details, dafür ist aber die Diagonale deutlich geringer. Nachteil ist, die Details sind kleiner dargestellt, was wiederum heist, sie fallen unter Umständen weniger schnell auf. Da sich eben der "Gegner" nicht als 2x4cm Fläche über den Schrim schiebt, sondern nur als sagen wir 1x2cm Fläche... Geht man in die andere Richtung, also Diagonalen größer 32" bei FullHD (TVs) -> die Objekte sind schlicht deutlich größer dargestellt, fallen also auch eher ins Auge, wenn sich da was bewegt.


Ich persönlich will ja das Feeling beim zocken auf nem 40" bei ca. 1-1,5m Abstand nicht missen. Man guckt auf den Schirm und sieht nur "Spiel"... Ohne Wand im Hintergrund usw.
Dafür muss man sich aber zwingen, auch eine größere Fläche im "Auge" zu behalten. :fresse:
Games mit dichter Atmosphäre wirken aber aus meiner Sicht deutlich tiefgründiger als auf so nem niedrigen 20"er Mäusekino...

Aber dann hat ein 2560x1440 27"-er Bildschirm die selbe Pixeldichte wie ein 20.5" Full HD, also auch im vergleich zu einen üblichen 24" full HD ist die Pixeldichte schon 40% höher. Insgesamt kann man also schon sagen dass ein 27-er wqhd bildschirm eine deutlich höhere Pixeldichte hat als die aktuell übliche Bildschirme mit 23-24" full HD.

Ein 40" Fernseher hatte ich auch mal als Gaming Bildschirm benutzt, bin aber im endeffekt doch auf ein 27-er wqhd gewechselt. Mein Problem war immer dass die Spiele oft einfach zu verpixelt aussahen bei normalen Sitzabstand.
 
Kommt auf das Spiel drauf an... Es gibt Spiele, die erhöhen den Sichtbereich bei höheren Auflösungen. Sprich in FullHD siehst du sagen wir 1920x1080 "virtuelle Meter" und in 1440p siehst du eben 2560x1440 "virtuelle Meter". Dein Sichtfeld steigt somit und du bist in der Lage eben Objekte auf dem Schirm zu sehen, die bei FullHD gar nicht angezeigt sind, weil sie nicht im Sichtbereich liegen...
Häufiger ist das aber wohl bei Strategietiteln der Fall... Eher weniger in Shootern.

Meiner Erfahrung nach wird bei mehr Pixeln im selben 16:9 Format nicht mehr Einblick ins Spiel gewährt, zumindest nicht bei aktuellen Spielen (olle Kamellen mal aussen vor). Wenn man einen 1440p Monitor z.Bsp auf 2560x1200p beschneidet, über die Sofware, dann kann es vor kommen das man mehr Spielausschnitt erhält weil einfach an den seitlichen Rändern etwas dazu gegeben wird (anders würde Tripplehead ja auch kein Sinn ergeben).
 
Aber dann hat ein 2560x1440 27"-er Bildschirm die selbe Pixeldichte wie ein 20.5" Full HD, also auch im vergleich zu einen üblichen 24" full HD ist die Pixeldichte schon 40% höher. Insgesamt kann man also schon sagen dass ein 27-er wqhd bildschirm eine deutlich höhere Pixeldichte hat als die aktuell übliche Bildschirme mit 23-24" full HD.
Ich bezog mich dabei auf diese Werte:
- 1.920x1.080 Pixel auf 21,5 Zoll: 102 ppi
- 1.920x1.080 Pixel auf 24 Zoll: 92 ppi
- 2.560x1.440 Pixel auf 27 Zoll: 109 ppi
- 2.560x1.600 Pixel auf 30 Zoll: 101 ppi

Ohne dabei nachzurechnen gehe ich davon aus, das das stimmt :fresse:
Ergo hast du bei 21,5" nur unwesentlich geringere Dichte...
Geht man auf 1600p bei 30", also 16:10 ist es sogar quasi gleich.
Der Unterschied selbst von den nichtmal 20% zwischen 92 PPI zu 109 PPI ist auch nicht die Welt... Das reißt es definitiv nicht raus.

Ein 40" Fernseher hatte ich auch mal als Gaming Bildschirm benutzt, bin aber im endeffekt doch auf ein 27-er wqhd gewechselt. Mein Problem war immer dass die Spiele oft einfach zu verpixelt aussahen bei normalen Sitzabstand.

Ja, das ist in der Tat das Problem...
Auch sieht man den Aliasing Effekt extrem... :(
4x(SGSS)AA sind quasi muss bei dem geringen Abstand, besser 8x...

8xSGSSAA gepaart mit 4k Downsampling sieht dafür aber ziemlich mördermäßig aus. Gestochen scharf und enorme Detailvielfalt -> das geht halt bei kleinen Diagonalen ziemlich unter.
Beispielsweise Skyrim in 4k auf 40". Sitzt man auf dem Pferd, kann man die Haare der Mähne zählen bei 4k DS und hohem SGSSAA zur Glättung. Das geht bei nativem FullHD nicht :wink:
Und bei nem 21-24" FullHD Schirm muss man sich da schon ziemlich ansträngen um die Haare dediziert auseinander halten zu können :fresse:
 
Ok zusammenfassend gesagt:
Dass die beurteilung schwieriger wird wenn man noch faktoren wie sitzabstand und ingame-blickfeld mit einbezieht liegt auf det hand ;)
Wenn ich aber einen 46"-FullHD-tv ersetze durch ein 46"-2560x1440-tv
erhalte ich mehr detail-tiefe was mir dann im erkennen helfen kann.
Das war die frage und ich hatte gehofft jemand hat diesbezüglich praxiserfahrung ;)
 
Ich bezog mich dabei auf diese Werte:
- 1.920x1.080 Pixel auf 21,5 Zoll: 102 ppi
- 1.920x1.080 Pixel auf 24 Zoll: 92 ppi
- 2.560x1.440 Pixel auf 27 Zoll: 109 ppi
- 2.560x1.600 Pixel auf 30 Zoll: 101 ppi

Ohne dabei nachzurechnen gehe ich davon aus, das das stimmt :fresse:
Ergo hast du bei 21,5" nur unwesentlich geringere Dichte...
Geht man auf 1600p bei 30", also 16:10 ist es sogar quasi gleich.
Der Unterschied selbst von den nichtmal 20% zwischen 92 PPI zu 109 PPI ist auch nicht die Welt... Das reißt es definitiv nicht raus.



Ja, das ist in der Tat das Problem...
Auch sieht man den Aliasing Effekt extrem... :(
4x(SGSS)AA sind quasi muss bei dem geringen Abstand, besser 8x...

8xSGSSAA gepaart mit 4k Downsampling sieht dafür aber ziemlich mördermäßig aus. Gestochen scharf und enorme Detailvielfalt -> das geht halt bei kleinen Diagonalen ziemlich unter.
Beispielsweise Skyrim in 4k auf 40". Sitzt man auf dem Pferd, kann man die Haare der Mähne zählen bei 4k DS und hohem SGSSAA zur Glättung. Das geht bei nativem FullHD nicht :wink:
Und bei nem 21-24" FullHD Schirm muss man sich da schon ziemlich ansträngen um die Haare dediziert auseinander halten zu können :fresse:

Die Werte stimmen schon sind aber etwas irreführend da sie nur die eindimensionale pixeldichte angeben. Was einem tatsächlich interessiert ist natürlich wie viel mehr pixel hat man bei eine gegebene Fläche, und da werden die Unterschiede sofort quadratisch vergrößert. Also die Rechnung 24" Ful HD im Vergleich zu 27" WQHD hat 40% mehr Pixel pro Fläche stimmt schon.

Ja bei 40" war downsampling und AA sehr interessant damit man die Bildschärfe verbessert. Aktuell finde ich dass einige Spiele die weniger Grafikorientiert sind wohl besser auf 40" sind, aber vor allem grafisch gute Spiele wie Crysis 3 oder BF3 seinerzeit kommen einfach weniger schön rüber weil das Bild immer noch zu pixelig aussieht.
 
Die Werte stimmen schon sind aber etwas irreführend da sie nur die eindimensionale pixeldichte angeben. Was einem tatsächlich interessiert ist natürlich wie viel mehr pixel hat man bei eine gegebene Fläche, und da werden die Unterschiede sofort quadratisch vergrößert. Also die Rechnung 24" Ful HD im Vergleich zu 27" WQHD hat 40% mehr Pixel pro Fläche stimmt schon.

schon klar, aber von 21,5 auf 27" ist es wie gesagt entsprechend gering. Da hast du irgendwas um die 12,5% mehr Pixel pro cm². Das merkt unterm Strich kein Mensch behaupte ich...
Nen echten Mehrwert bekommt man aus meiner Sicht erst, wenn es dann mal die 4k Monitore flächendeckend bezahlbar gibt. Da gibts dann auch entsprechend deutlich! mehr Details.
Das Kurriose ist ja auch (wie man beim Downsampling sehr schön erkennt), FullHD selbst ist schon sehr gut um die Details darzustellen. Aber die Spiele selbst geizen bei FullHD native oftmals an der Detailvielfalt. Siehe Beispiel Skyrim und Pferd. Wenn man durch das erzwingen der Berechnung in 4x mehr Bildpunkten + darauffolgendes Runterskalieren auf die native Auflösung von FullHD die Mehrdetails deutlich! sieht, liegt der Hund aus meiner Sicht wo ganz anders begraben... -> hier hätte man wohl eher die mehr Details gleich native ins Bild bringen können. Nur würde das wohl deutlich auf Kosten der Performance gehen, wenn man hätte beispielsweise das Poligonkonstrukt mit viermal mehr Informationen erstellt. :wink:
Mit 4k Auflösungen bei gängiger Monitorgröße muss sich halt nur der Programmierer darüber keine Gedanken machen, sondern schiebt den Spaß schön auf die Monitor ab ;)
 
schon klar, aber von 21,5 auf 27" ist es wie gesagt entsprechend gering. Da hast du irgendwas um die 12,5% mehr Pixel pro cm². Das merkt unterm Strich kein Mensch behaupte ich...
Nen echten Mehrwert bekommt man aus meiner Sicht erst, wenn es dann mal die 4k Monitore flächendeckend bezahlbar gibt. Da gibts dann auch entsprechend deutlich! mehr Details.
Das Kurriose ist ja auch (wie man beim Downsampling sehr schön erkennt), FullHD selbst ist schon sehr gut um die Details darzustellen. Aber die Spiele selbst geizen bei FullHD native oftmals an der Detailvielfalt. Siehe Beispiel Skyrim und Pferd. Wenn man durch das erzwingen der Berechnung in 4x mehr Bildpunkten + darauffolgendes Runterskalieren auf die native Auflösung von FullHD die Mehrdetails deutlich! sieht, liegt der Hund aus meiner Sicht wo ganz anders begraben... -> hier hätte man wohl eher die mehr Details gleich native ins Bild bringen können. Nur würde das wohl deutlich auf Kosten der Performance gehen, wenn man hätte beispielsweise das Poligonkonstrukt mit viermal mehr Informationen erstellt. :wink:
Mit 4k Auflösungen bei gängiger Monitorgröße muss sich halt nur der Programmierer darüber keine Gedanken machen, sondern schiebt den Spaß schön auf die Monitor ab ;)

Ja im Vergleich zu 21,5 zu 27 ist die Pixeldichte nicht viel höher aber ich habe zb davor noch ein 24" full HD display gehabt und da war der Unterschied sehr deutlich. 21,5" full HD ist auch eher untypisch. Also es ist klar dass der 27" wqhd nicht die ultimative Pixeldichte auf dem Bildschirmmarkt hat aber es ist dennoch deutlich mehr als was die Durschschnittsuser Bildschirme haben. 4k wären natürlich noch viel besser bei den üblichen Bildschirmgrößen aber das wird so wie es aussieht noch ein paar Jahre dauern bis es auch bezahlbar ist und ordentliche Unterstützung hat.
 
Yo der war gut, echt, hast die frage nicht verstanden, aber pointen-technisch hohes niveau, darfst stolz auf dich sein....

Für alle anderen die sich mit der materie auskennen; mir gehts in der frage darum, ob jemand der mit höherer auflösung spielt (2560x1440) vorteile hat weil er zb weit entfernte gegner (kleine objekte) schneller deutlicher erkennt als ich mit fullHD?
Wie nimmt man das beispielsweise wahr wenn man von fullHD auf eben 2560x1440 aufrüstet?

Der war so gut, dass du 2 Wochen gebraucht hast, um ihn zu verstehen ;) Aber mal ganz ehrlich: Es ist die Wahrheit. Was sollte sonst dir einen "Nachteil" bringen, als die Zeit, die das Licht mehr benötigt für die zusätzlichen 1,50m? Gut ok, du hast wahrscheinlich einen Fernseher mit niedrigerer Reaktionszeit, das kann schonmal ein paar ms ausmachen. Aber welchen Fernseher du hast weißt nur du selbst und der liebe Gott. Hast du ja mit keinem Wort erwähnt. Also sollen wir entweder raten, welche LCDs du verwendest (oder vielleicht sogar welchen Plasma, wer weiß das schon?) und daraus Prognosen stellen oder die 5 ps ist deine gesuchte Antwort.

Hoffentlich verstehst du langsam schon, dass das eine eher überflüssige Frage ist. Das ist einfach Geschmackssache. Spiel doch wie du magst. Es gibt auch Leute hier im Forum, die der Meinung sind, dass das Monitorlicht ihr Raum-Zeit-Gefüge durcheinander bringt. Dann muss man sich eben einen neuen Monitor besorgen. Nicht, dass man noch irgendwie zurück in die Zukunft reist.
 
Dass du erneut von der sitzplatz-entfernung sprichst zeigt mir dass du meinen letzten post eher überflogen hast als gelesen.
Ich hab da vor kurzen ein 1440-video auf einem 1440-monitor gesehen.
Atemberaubende detailtreue,
Für eine crouch-only-spieler eigentlich genau das was man braucht; weitblick beim tactical-camping ;)
Und ich stellte mir halt die frage ob jemand an so nem monitor vorteile hat gegenüber meinem 46"-tv-1080p-pixelmatch
Und zwar wenn man mal sitzdistanz und diagonale unverändert lässt.
Hoffe das ist nun langsam angekommen ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh