Skalierung von Monitoren

@Dennis

Es ist halt ein Unterschied ob der Desktop in 1080p ist und du im Spiel zB 900p einstellst ODER ob der Desktop und das Spiel auf 900p eingestellt sind.
Bei Fall 1 übernimmt die Graka das skalieren, bei Fall2 der Monitor ;)

@Slot
Seh ich genauso :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@ Tzk:

Jo, mit dem feinen Unterschied das es die Grafikkarte deutlich besser kann als irgendein Bildschirm ;)

Denn dadurch das der Monitor seine native Auflösung bekommt/fährt ist das Bild dann ja 1A scharf.


Gruss Dennis50300
 
das is auch so ne pauschale Ansicht.
egal wie wie stark sich die Unterschiedlichen Auflösungen unterscheiden?
ich denke nich.
 
Also ich schreib auch mal was dazu:

wenn ich die Möglichkeit hätte mit 1280*720 mehr aus dem Monitor rauszuholen würde ich das auch tun. Bei dieser Auflösung dürfte die Reaktionszeit auch sehr niedrig sein.
Also schreibt mal eure Empfehlungen.


Bemerkung1: 1366*768 Funktioniert im 3D-Modus scharf weil das Bild doppelt gerendert wird.
Bemerkung2: Nutze ebenfalls kein Cleartype sondern wähle selber durch die Anpassung.
 
Zuletzt bearbeitet:
Also ich schreib auch mal was dazu:

wenn ich die Möglichkeit hätte mit 1280*720 mehr aus dem Monitor rauszuholen würde ich das auch tun. Bei dieser Auflösung dürfte die Reaktionszeit auch sehr niedrig sein.
Die Physik ändert sich nicht. Die Schaltzeiten bleiben konstant.
Dieser Beitrag wurde mobil erstellt. Ich bitte etwaige Rechtschreibfehler zu entschuldigen.
 
das is auch so ne pauschale Ansicht.
egal wie wie stark sich die Unterschiedlichen Auflösungen unterscheiden?
ich denke nich.

Also RTCW z.B. kommt in "eigentlichen" 1024x768, von der GPU skaliert auf 1920x1080 genauso scharf wie es früher auf der Röhre lief ;)

Das Bild ist ja auch nicht zwanghaft besser nur weil man eine höhere Auflösung fährt, ob nun nativ oder nicht, einzig braucht man nicht mehr soviel AA.
Wirklich grossartig was bringen wird es aber definitiv nicht denn einer höhere Auflösung kann einfach nicht soviel mehr Power brauchen als das sich das in irgendeiner Art und Weise lohnen würde.
Ausser es geht einem eventuell die Speichermenge der Grafikkarte aus, in dem Falle hab ich mit der 5770 z.B. aber gerne bei GTA IV uf etwas Sichtweite verzichtet, die Action geht unmittelbar in der Nähe ab und nicht Kilometer von einem entfernt.

@Radi:
Sichtweite sind auch Details das übrigens dazu, aber wenn du meinst ;)
So ganz verallgemeinern lässt sich das nicht, nur weil man eine niedrigere Auflösung fährt kostet "Sichtweite" nunmal nicht wirklich weniger Ressourcen.


Gruss Dennis50300
 
also das beleg doch bitte mal mit 2 screenshots.
ich weiß beim besten Willen nicht wie 1024x768 px auf 1920x1080 px skaliert so scharf wie nativ aufgelöst aussehen können.
rein mathematisch is das nich drin.
 
das kleinere Auflösungen schneller ausgegeben werden, is klar, aber nich das Thema
 
@radi: Junge kauf dir endlich mal ne Brille und verschone uns mit deinen fragwürdigen Behauptungen! Wenn du nicht scharf siehst, dann siehst du auch keinen Unterschied auf dem Monitor (scharf oder unscharf)!
 
Das Bild wird aufjedenfall schneller ausgegeben.
Und wieso sollte das so sein?
Die Schaltzeit des Panels ist unabhängig von der Anzahl der angezeigten Pixel, zumal ja -ausgenommen von pixelgenauer Darstellung- genausoviele Pixel und sehr ähnliche Bildinhalte angezeigt werden.
Lediglich ein stärkerer Overdrive (den man genauso bei einer höheren/nativen Auflösung anwenden kann) könnte die Flüssigkristalle "überreden" sich schneller zu bewegen.

Die Verzögerung durch die Elektronik ändert sich -pixelgenaue Darstellung wieder ausgenommen und selbst dort ist es fraglich- auch nicht wirklich, bei monitorinterner Skalierung wird sie tendentiell aber sogar noch höher.
 
also das beleg doch bitte mal mit 2 screenshots.
ich weiß beim besten Willen nicht wie 1024x768 px auf 1920x1080 px skaliert so scharf wie nativ aufgelöst aussehen können.
rein mathematisch is das nich drin.

Der Bildschirm wird dabei nativ betrieben, das ist ja das Ding und er Vorteil bei der GPU-Skalierung, der Bildschirm selbst bekommt einfach garnix zum Skalieren.
Das kann man per Screenshot nicht zeigen, denn dann hast du ein 1024x768 Screenshot ;) (Das ist das angesprochene Aufnahmeproblem bei alten Games die direkt keine modernen hohen Auflösungen können und sich das auch nicht aufzwängen lassen, dann kannst du nur bem konvertieren hochrechnen lassen auf 1080p für YouTube, das wiederum macht das Bild aber nicht unbedingt besser denn dabei wird ja wieder gestreckt und noch dazu wegen komprimiererei die Qualli versaut)

Ich könnte RTCW die Tage mal wieder installieren, dann Schiesse ich ein Foto mit meinem Xperia Ray, wo man sehen kann das ich Vollbild hab, im Menü sind 1024x768 eingestellt, die "Info-Taste" meines Asus24t1E wird aber per OSD auf dem Bildschirm anzeigen das der 1920x1080p @60HZ bekommt über DVI ;)
Einfach weil die Grafikkarte bevor sie das Bild ausgibt auf die native Auflösung des Bildschirmes skaliert, also in 1920x1080 die 1024x768 ausgibt, das versaut auch das Bild in keinster Weise, weil da Höhe und Breite quasi verdoppelt werden.

Ob das auf der Windows-Oberfläche greift hab ich noch nie ausprobiert.

Gruss Dennis50300
 
Und wieso sollte das so sein?
Die Schaltzeit des Panels ist unabhängig von der Anzahl der angezeigten Pixel, zumal ja -ausgenommen von pixelgenauer Darstellung- genausoviele Pixel und sehr ähnliche Bildinhalte angezeigt werden.
Lediglich ein stärkerer Overdrive (den man genauso bei einer höheren/nativen Auflösung anwenden kann) könnte die Flüssigkristalle "überreden" sich schneller zu bewegen.

Die Verzögerung durch die Elektronik ändert sich -pixelgenaue Darstellung wieder ausgenommen und selbst dort ist es fraglich- auch nicht wirklich, bei monitorinterner Skalierung wird sie tendentiell aber sogar noch höher.

Danke für die Theorie aber, 1. Habe ich es getestet, 2. Ist es logisch das bei geringerem Aufwand alles flotter voran geht.
 
Wie, womit und was genau hast du gemessen? Ich hoffe mit dem selben Testsetup und denselben Einstellungen, sonst sind die ganzen Messungen für die Katze.

Ja, bei geringerem Aufwand kann die Elektronik schneller ein Bild abbarbeiten, -pixelgenaue Wiedergabe wieder ausgenommen- bleibt die Rechenarbeit aber gleich. Ob nun "native" oder "gpu-skalierte" Pixel ist egal, weniger werden es nicht, bei monitorinterner Skalierung ist der Rechenaufwand noch höher, da eben die Skalierung hinzukommt.
Mal abgesehen von der Elektronik, bleiben die Schaltzeiten des Panels glücklicherweise konstant, eine schnellere Ansteuerung würde in den allermeisten Fällen nämlich nur zu (noch) hässlichen Artefakten führen.
 
Natürlich bei gleicher FPS-Rate. Damals hatten einige Monitore ja das bekannte 1920*1080 Problem heute sind das einige 1440p Monitore die in dieser Auflösung langsam werden.

Prad.de:
Der Monitor ist letztlich aber nur ein Einzelteil in einer Kette von Komponenten, die alle ihre jeweiligen Latenzen aufweisen. Maus und Tastatur erzeugen z.B. mechanisch bedingte Verzögerungen. Auch die Bildverarbeitung im Computer kann durch Zwischenspeicherung und Synchronisationstechniken erhebliche Verzögerungen bewirken. Die Signalverzögerung durch den Monitor sollte zwar gering sein, die Verzögerungszeit des Gesamtsystems wird aber in vielen Fällen wesentlich größer sein.
 
Zuletzt bearbeitet:
Die FPS-Rate ist dabei einer der unwichtigsten Einflüsse, ob nun 60 oder 30 Bilder zugespielt ändert ja nichts an der Geschwindigkeit, mit der die Bilder monitorintern verarbeitet werden können.
Geht man nun aber von einer gleichen Framerate aus, fällt sogar der Vorteil eines früher ausgegebenen Bildes weg.

Bei der Verzögerung des Monitors spielt eher das Bildmaterial (sieht man schön in den unterschiedlichen Reaktionszeiten bei s/w und GtG), die verwendeten Einstellungen am Monitor und auch der verwendete Anschluss eine Rolle.
Das alles hat aber gar nichts -mal das Bildmaterial ausgenommen, das ähnelt sich von den Farben und der Intensität aber sehr stark- mit skaliertem oder unskaliertem Bildmaterial zu tun und somit hat es keine Auswirkung auf die Signalverzögerung durch die Elektronik und die Schaltzeiten des Panels.

Wenn das Signal unskaliert, also mit niedrigerer Auflösung, am Monitor ankommt muss man unterscheiden.
1. Der Monitor skaliert:
Das funktioniert je nach Monitor gar nicht, sieht (sehr) schlecht aus und/oder erhöht die Signalverzögerung (mininal), weil noch skaliert werden muss.
2. Der Monitor gibt das Bild pixelgenau aus:
Hier kann die Signalverzögerung der Elektronik abnehmen.
Die pixelgenaue Darstellung beherrscht aber nicht jeder Monitor, man verschenkt dabei viel Bildfläche und das Ganze hat nichts mit Skalierung zu tun.
 
Zuletzt bearbeitet:
Ich bin mir nicht sicher ob es zu 100% Physik ist. Zum Bildmaterial möchte ich noch dazu sagen, wenn du am Monitor einen zu hohen Kontrast eingestellt hast wird das BIld langsamer und schliert. Das könnte jetzt jeder testen.

Das mit dem Anschluss weiß ich weil ich es selber getestet habe und nutze HDMI. Damit geht sogar das 4:4:4 YbCCr Pixelformat.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh