Spielen in Ultra HD sinnvoll, wenn Spiele nicht für UHD entwickelt?

newbie123

Enthusiast
Thread Starter
Mitglied seit
18.11.2007
Beiträge
485
Hallo

ich stelle mir UHD Auflösung in Spielen sehr schön vor. Allerdings frage ich mich noch nach dem Sinn, z.B. Battlefield 4 auf UHD zu stellen, wenn die Grafik eventuell nur für Full HD entwickelt wurde. Ist es nicht so, dass ich dann statt z.B. einem grünen Pixel, dann vier grüne Pixel habe? Was soll das bringen. Wenn das Ganze was bringen soll, müssten die Entwickler doch auch den Detailgrad der Grafik über Full HD hinaus bis Ultra HD entwickeln?! Ich kann mir kaum vorstellen, dass das bei einem bisher erschienenen Spiel geschehen ist, weil das Aufwand doch beträchtlich sein dürfte und nicht im Verhältnis stehen dürfte zu der derzeitigen Käufermenge die überhaupt UHD nutzt?!

Habe ich einen Denkfehler bei der ganzen Angelegenheit? Ich meine, mir ist schon klar, dass man bereits viele Spiele auf UHD stellen kann (in der Auflösungsoptionen), aber wie gesagt, kann ich mir nicht vorstellen, dass der Detailgrad dadurch steigt. Und was bringen mir nun 4 statt 1 grüne Pixel?!

Vielleicht kann mir ja jemand erklären, was der derzeitige Vorteil von UHD in Spielen sein könnte.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
spiele werden in echtzeit berechnet. die auflösung ist völlig egal.

wenn du ein 4k display anschließt dann wird auch 4k gehen bei den meisten games sofern die das unterstützen.

ob das jetzt 100% korrekt von mir ist glaub ich nicht :d

der vorteil? wenn du ein display hast, welches eine native auflösung von 4k hat, dann hast du ein schärferes bild. was sonst?^^

das problem -> es gibt noch keine grakas, die das schaffen bis auf Titan SLI oder triple bei grafikaufwendigen games wie bf, crysis, usw..-..

detailsgrad steigt nicht nur durch die auflösung. das bild wird einfach nur schärfer, klarer und flimmerfreier.

bessere grafik erhält man nur durch fleisige entwickler die bessere texturen und mehr objekte in eine spielwelt einfügen. außerdem durch bessere engines und darstellung von objekten durch mehr polygone usw...
 
Zuletzt bearbeitet:
Die allermeisten modernen Spiele haben mit einer Skalierung auf UHD keine Probleme. Im Gegenteil, oft profitieren sie stark. Selbst ein Dragon Age: Origins, das nicht gerade ein Grafikfeuerwerk abbrennt, sieht enorm viel besser aus, weil die Texturen von der höheren Auflösung merklich "geschärft" werden und das Ganze an Detailreichtum gewinnt.

Tatsächlich treten Details also deutlich stärker hervor - einen ähnlichen Effekt würdest du mit Downsampling auf einem 1080p-Monitor erreichen, wenn eine native Berechnung auch meist etwas schneller und damit effizienter sein dürfte (Entsprechendes gilt für SSAA, das ja auch nichts anderes als eine "mehrfache" Berechnung der eigentlichen Auflösung bewirkt).

Probleme können indes beim HUD auftreten. BF3 etwa skaliert sein Interface nicht vollständig korrekt. Spiele wie Crysis 3 etwa haben hier aber keine Probleme (nicht verwunderlich - wenn Crytek schon keine Spiele mit Tiefgang entwickeln kann, Technik können die Damen und Herren vom Main definitiv).

Die Nachteile, die du dir vorstellst sollten jedenfalls nicht auftreten.

Beachtet werden muss natürlich: Um überhaupt anständig spielen zu können, braucht es eine High-End-Grafikkarte - besser mehrere davon. Aber das sollte ja eigentlich klar sein.
 
Zuletzt bearbeitet:
Ganz vereinfacht dargestellt:

Spiele werden zunächst ohne Pixel berechnet und dann abfotografiert. Und wenn man mit mit mehr Megapixel fotografiert, bekommt man ein schärferes Bild. Nur das man hier nicht einfach Lichtinfos aufnimmt sondern jedes Pixel dann einzeln überprüft werden muss welche Farbe es denn nun hat und das ist das was dann die Rechenleistung ausmacht. Und wenn die Szene theoretisch Dateiliter genug ist, sieht man dann das auch bei Texturen, sonst eben nur bei bei den Objekten die feiner dargestellt werden können.

Mit SSAA und Downsampling kann man ka 4k Bilder schon heute auf FullHD Monitoren betracheten.
 
Zuletzt bearbeitet:
Noch ein kleiner Vergleich zur Verdeutlichung:

Bitmapgrafiken enthalten Farbinformationen für jeden einzelnen Pixel. Vergrößert man solch eine Grafik, wird die Pixelstruktur bei gleichbleibendem Betrachtungsabstand immer deutlicher.

Vektorgrafiken hingegen enthalten Beschreibungen der in ihr enthaltenen Objekte, etwa Anfangs- und Endkoordinaten einer Linie. Man kann deshalb solche Grafiken ohne Ende vergrößern, ohne das je so etwas wie eine Pixelstruktur sichtbar ist.

Moderne Grafikengines ähneln da in ihrem Verhalten eher letzterem.

Ist klar, was ich mit diesem Vergleich sagen will?

Viele Grüße,
Ezeqiel

*edit*: Ich habe da auch mal eine Frage zu UHD-Displays: Würde ich mir auf solch einem Display normales HD-Material ansehen, dürfte es doch eigentlich zu keinen, wie soll ich sagen, Interpolationsartefakten kommen, oder? Für ein Pixel HD würden doch schlicht 4 Pixel UHD zusammengefasst. Ich könnte mir nämlich gut ein Szenario vorstellen, bei dem ich solch ein Display im Desktopbetrieb in UHD betreibe, jedoch mangels 3D-Grafikleistung der Grafikkarte in HD spiele. Oder mache ich da einen Denkfehler?
 
Zuletzt bearbeitet:
@NilsonNeo4
Selbst das ist nur sehr vereinfacht dargestellt. Oftmals arbeiten die Vergrößer mit Näherungswerten benachbarter Pixel. Du hast dann nicht 4 gleichfarbige Pixel auf dem Bildschirm. Selbst wenn das der Fall wäre, wären diese 4 Pixel nur wenig größer als bei Full-HD-Auflösung auf einem 24"-Bildschirm.
 
Erstmal Dank an alle, habe alle gelesen.

Ganz vereinfacht dargestellt:

Spiele werden zunächst ohne Pixel berechnet und dann abfotografiert. Und wenn man mit mit mehr Megapixel fotografiert, bekommt man ein schärferes Bild. Nur das man hier nicht einfach Lichtinfos aufnimmt sondern jedes Pixel dann einzeln überprüft werden muss welche Farbe es denn nun hat und das ist das was dann die Rechenleistung ausmacht.

Also das ist es sozusagen, was mir nicht klar ist. Die Grundlage der Bilder von Spielen. Also das "Musterbild" was hinter jedem Bild steht, was man auf dem Monitor sieht.
Du schreibst, die Bilder werden zunächst ohne Pixel berechnet und dann "abfotografiert". Das kann ich mir so nicht vorstellen. Wie können die Programmierer Bilder ohne Pixel programmieren?

Ich kann ja mal meine bisherige Vorstellung nennen: Bisher habe ich es mir so vorgestellt, dass die Entwickler die Bilder in Spielen jeweils in 1920x1080 entwerfen. Daher hatte ich auch den Einwand, dass eine Vervierfachung der Pixelanzahl, aus meiner Sicht, so dann nichts bringen könnte, da man ja nur "hochskalieren" (was nicht ob das hier der treffende Begriff ist) würde. Was dann ja sogar ein schlechteres Bild ergeben würde, da man nun mehr Zwischenräume zwischen den Pixeln hat, einfach weil es mehr Pixel gibt. Und statt einem grünen Pixel nun vier exakt gleichfarbige Pixel, würde ja überhaupt nichts bringen...

Aber zurück zu deiner Beschreibung. In welcher Auflösung programmieren Entwickler denn die Bilder in Spielen? Oder muss ich mir das ganz anders vorstellen. Aber müsste es für die Entwickler nicht deprimierend sein, wenn sie viel detailliertere Bilder entwerfen und dann mit FullHD-Auflösung nur ein schwacher Abklatsch auf die Bildschirme kommt? Vor allem was haben die Entwickler selbst für Bildschirme um jeweils das "Originalbild" sehen zu können?

Mir ist klar, dass ich da irgendwo einen Denkfehler/fehlendes Wissen habe. Würde es aber gern verstehen.

Noch ein kleiner Vergleich zur Verdeutlichung:

Bitmapgrafiken enthalten Farbinformationen für jeden einzelnen Pixel. Vergrößert man solch eine Grafik, wird die Pixelstruktur bei gleichbleibendem Betrachtungsabstand immer deutlicher.

Vektorgrafiken hingegen enthalten Beschreibungen der in ihr enthaltenen Objekte, etwa Anfangs- und Endkoordinaten einer Linie. Man kann deshalb solche Grafiken ohne Ende vergrößern, ohne das je so etwas wie eine Pixelstruktur sichtbar ist.

Moderne Grafikengines ähneln da in ihrem Verhalten eher letzterem.

Ist klar, was ich mit diesem Vergleich sagen will?

Nee, ist mir leider nicht ganz klar. Ich kann es nur ahnen.
Vielleicht kann man als Beispiel einen Kreis nehmen. Ich denke ein Kreis wäre vielleicht ein gutes Beispiel um den Vorteil von FullHD auf UHD zu verdeutlichen?!
Wie schon gesagt, habe ich es mir bisher immer so vorgestellt, dass sich die Programmierung der Bilder in Spielen an Pixel hält, also dass sozusagen jeder Pixel pro Bild eine bestimmte Zuordnung erhält, ohne dass "dahinter" noch ein Musterbild steht, dass anders aussieht (wobei ich davon ausgegangen bin, dass das "Originalbild" in FullHD entwickelt wird).

Ich kann irgendwie ahnen, was du meinst. Meinst du z.B. dass Vektorgrafik bedeutet, dass ein Kreis als exakter Kreis berechnet wird, wobei die Darstellung wiederum natürlich niemals ein exakter Kreis sein kann, einfach aufgrund der Pixeldarstellung auf dem Monitor.
Wenn das so sein sollte, kann ich mir natürlich den Vorteil von UHD zu Full-HD schon vorstellen, da z.B. die überflüssigen "Kanten" pro Pixel am Kreis geringer würden.

Ist es dann so wie "Scrush" schreibt, dass das Bild nicht detaillierter wird, nur schärfer?
So ganz vorstellen, kann ich mir das Ganze bei einem komplexen Bild wie z.B. aus einem Autorennspiel leider noch nicht.

- - - Updated - - -

Ich habe gerade mal bei wikipedia unter Vektorgrafik geschaut. So wie ich es dem Artikel entnehme, wird Vektorgrafikprogrammierung für heutige Spiele aber eher selten verwendet?!
 
Jedes Spiel besteht im wesentlichen aus 2 Elementen, die jeweils definieren, was wir letztlich sehen.
Das ist zum einen die Geometrie: Diese besteht aus mehr oder weniger vielen Dreiecken, die durch 3 Punkte im Raum definiert werden. Diesen Vektoren ist die Auflösung vollkommen egal, da die Spielwelt eh ihre eigenen Bezugsgrößen hat.
Dann gibt es da noch die Texturen, die auf diese Dreiecke gelegt werden. Auch hier ist nicht ist nicht Monitorgröße ausschlaggebend, sondern die Nähe des Spielers zum Objekt. Die Größen können von 512x512 bis 8192x8192px und mehr reichen. Welche Variante du wann siehst, entscheidet die Grafikengine auf Basis der Nähe zum Objekt, deiner gewünschten Auflösung und so weiter. Dann wird dieses Bild "abfotographiert" und zum Monitor geschickt.

Da laufen natürlich noch weitere Prozesse ab, aber auf die möchte ich eigentlich nicht weiter eingehen.

Du kannst es dir so vorstellen, daß du mit deiner Kamera durch die Welt läufst, alles was du siehst abfotografiert. Der Bildinhalt ist immer gleich, nur die Bildpunkte werden immer mehr.
 
Also das ist es sozusagen, was mir nicht klar ist. Die Grundlage der Bilder von Spielen. Also das "Musterbild" was hinter jedem Bild steht, was man auf dem Monitor sieht.
Du schreibst, die Bilder werden zunächst ohne Pixel berechnet und dann "abfotografiert". Das kann ich mir so nicht vorstellen. Wie können die Programmierer Bilder ohne Pixel programmieren?


Stell Dir vor die Programmierer würden Drahtmodelle (polygone) bauen und diese dann mit Tapeten bekleben (texturen). Das wird dann abfotographiert, wahlweise mit einer 1080p oder 4k Kamera. Die Polygone sehen Auflösungsunabhängig immer gut aus, bei den Texturen kommt es darauf an wie fein sie aufgelöst sind. Das ist vom Sichabstand abhängig. Je höher Deine Auflösung ist, desto größer ist der Abstand zum Objekt an dem die Textur dann matschig wirkt. Das ist aber keine Problem, die nahen Objekte sehen dann halt einfach nur so gut oder schlecht aus wie bei 1080p, weiter entfernte objekte sehen immer besser aus.
 
Jedes Spiel besteht im wesentlichen aus 2 Elementen, die jeweils definieren, was wir letztlich sehen.
Das ist zum einen die Geometrie: Diese besteht aus mehr oder weniger vielen Dreiecken, die durch 3 Punkte im Raum definiert werden. Diesen Vektoren ist die Auflösung vollkommen egal, da die Spielwelt eh ihre eigenen Bezugsgrößen hat.
Dann gibt es da noch die Texturen, die auf diese Dreiecke gelegt werden. Auch hier ist nicht ist nicht Monitorgröße ausschlaggebend, sondern die Nähe des Spielers zum Objekt. Die Größen können von 512x512 bis 8192x8192px und mehr reichen. Welche Variante du wann siehst, entscheidet die Grafikengine auf Basis der Nähe zum Objekt, deiner gewünschten Auflösung und so weiter. Dann wird dieses Bild "abfotographiert" und zum Monitor geschickt.

Da laufen natürlich noch weitere Prozesse ab, aber auf die möchte ich eigentlich nicht weiter eingehen.

Du kannst es dir so vorstellen, daß du mit deiner Kamera durch die Welt läufst, alles was du siehst abfotografiert. Der Bildinhalt ist immer gleich, nur die Bildpunkte werden immer mehr.

Verstehe ich das richtig, dass die Dreiecke sozusagen "Vektor"-Dreiecke sind, also nicht in Pixeln berechnet werden und die Texturen aber in Pixeln berechnet werden?
Würde das nicht bedeuten, dass bei um die Texturen "perfekt", also im Original, darzustellen ein Monitor gebraucht würde, der die Pixelanzahl der Textur darstellen kann (also bei einer 8192x8192 Textur ein Monitor mit 8192x8192 Auflösung)? Und würde das nicht auch bedeuten, dass ein Monitor mit Pixelauflösung über diese Grenze hinaus, bzgl. der Darstellung der Texturen keinen Sinn mehr machen würde?
Wohingegen ein Monitor für die Darstellung der Dreiecke nie genug Pixel haben könnte, da die Dreiecke in Vektorgrafik berechnet würden?

Entschuldigung, wenn die Ausdrücke alle vielleicht nicht passend sind, ich versuche mich dem hier nur zu nähern.
 
Zuletzt bearbeitet:
UHD macht meiner meinung nach aktuell im gaming bereich genau dann sinn wenn ein spiel kein ordentliches antialiasing bietet und downsampling nicht oder nur schwer umsetzbar ist.
 
Stell Dir vor die Programmierer würden Drahtmodelle (polygone) bauen und diese dann mit Tapeten bekleben (texturen). Das wird dann abfotographiert, wahlweise mit einer 1080p oder 4k Kamera. Die Polygone sehen Auflösungsunabhängig immer gut aus, bei den Texturen kommt es darauf an wie fein sie aufgelöst sind. Das ist vom Sichabstand abhängig. Je höher Deine Auflösung ist, desto größer ist der Abstand zum Objekt an dem die Textur dann matschig wirkt. Das ist aber keine Problem, die nahen Objekte sehen dann halt einfach nur so gut oder schlecht aus wie bei 1080p, weiter entfernte objekte sehen immer besser aus.

Ich glaube ich werde mich mal näher mit Polygonen und Texturen beschäftigen um das zu verstehen. Ich kenne die Begriffe ja eigentlich, so aus Spielezeitschriften, habe mir aber nie Gedanken darüber gemacht.
 
Verstehe ich das richtig, dass die Dreiecke sozusagen "Vektor"-Dreiecke sind, also nicht in Pixeln berechnet werden und die Texturen aber in Pixeln berechnet werden?
Genau!

Würde das nicht bedeuten, dass bei um die Texturen "perfekt", also im Original, darzustellen ein Monitor gebraucht würde, der die Pixelanzahl der Textur darstellen kann (also bei einer 8192x8192 Textur ein Monitor mit 8192x8192 Auflösung)? Und würde das nicht auch bedeuten, dass ein Monitor mit Pixelauflösung über diese Grenze hinaus, bzgl. der Darstellung der Texturen keinen Sinn mehr machen würde?
Wohingegen ein Monitor für die Darstellung der Dreiecke nie genug Pixel haben könnte, da die Dreiecke in Vektorgrafik berechnet würden?

Wenn du jemals die Textur 1:1 in voller Größe auf dem Monitor sehen würdest: ja. Das ist aber nicht der Fall. Du bekommst entweder eine kleinere Version davon oder du muss so nah an das Objekt herangehen, daß du jetzt war alle Details der Textur siehst, dafür aber der Bildausschnitt nicht mehr reicht, um sie ganz zu sehen. Und genau darum geht es ja: Für alle Eventualitäten etwas passendes zu haben.
 
Verstehe ich das richtig, dass die Dreiecke sozusagen "Vektor"-Dreiecke sind, also nicht in Pixeln berechnet werden und die Texturen aber in Pixeln berechnet werden?
Würde das nicht bedeuten, dass bei um die Texturen "perfekt", also im Original, darzustellen ein Monitor gebraucht würde, der die Pixelanzahl der Textur darstellen kann (also bei einer 8192x8192 Textur ein Monitor mit 8192x8192 Auflösung)? Und würde das nicht auch bedeuten, dass ein Monitor mit Pixelauflösung über diese Grenze hinaus, bzgl. der Darstellung der Texturen keinen Sinn mehr machen würde?
Wohingegen ein Monitor für die Darstellung der Dreiecke nie genug Pixel haben könnte, da die Dreiecke in Vektorgrafik berechnet würden?

Entschuldigung, wenn die Ausdrücke alle vielleicht nicht passend sind, ich versuche mich dem hier nur zu nähern.

Die Dreiecke sind Vektordreiecke, ja. Die Texturen werden allerdings nicht in Pixeln "berechnet".
Die Texturen lädt die Grafikkarte aus einer Bilddatei, diese Bilddatei hat allerdings eine begrenzte Auflösung (bei dir: 8192x8192).
Wenn die Grafikengine jetzt festgelegt hat, welches Dreieck wo liegt, kann die Grafikkarte die Dreiecke mit Texturen belegen.
Dann wird errechnet, in welchem Bildschirmbereich die Textur zu sehen ist (also Position, Größe, Winkel zum Betrachter und evtl. welcher Texturausschnitt).
DAbei wird natürlich auch klar wieviele Monitorpixel für die Textur zur Verfügung stehen. In der Regel sind das weniger als die Textur tatsächlich hat.

Wenn eine 8000x8000 Textur also im Spiel sehr weit weg ist (und damit auf dem Monitor sehr klein), dann bräuchtest du schon eine extrem hohe Auflösung um dem vollen Detailgrad darzustellen.
In deinem Fall gehst du davon aus, das du senkrecht auf eine Wand schaust, das ist ja nicht immer der Fall :fresse:
 
Zuletzt bearbeitet:
Bei den Texturen kommt es auch noch drauf an, wie die platziert werden bzw. wie man sie betrachtet. Steht man direkt vor einer Wand ist die Auflösung wichtiger als wenn man die gleiche Wand von der Ferne betrachtet.

Aber wie gesagt, die Polygone, Physik, Licht, also alles was auf Vektoren beruht ist unabhängig von der Auflösung. Beste Bsp. dafür sind die Schriftgrößen. Egal wie groß man ihn wählt er hast immer glatte Kanten. Nur das ausgeben auf Pixel verursacht dann Ecken und zwar je mehr desto geringer die Anzahl der Pixel.
 
Vielen Dank. Hat mir alles schonmal sehr geholfen.
Warten werde ich wohl noch so 3 Jahre bis ich auf UHD in Spielen umsteige. Wird wohl vorher einfach zu teuer sein.
Das UHD-TV Bild mit UHD-Bildmaterial fand ich schonmal extrem beeindruckend.
 
Zuletzt bearbeitet:
Na ja, beim ranzoomen sieht man den Unterschied schon deutlich. Ich schätze das wird sich auch auf das Gesamtbild merklich auswirken, also schon relativ deutlich wahrnehmbar sein.
Aber ist das Video denn so aussagekräftig, wenn die UHD-Version runterskaliert wurde. Müsste die Original-UHD Version nicht dann noch besser aussehen?
Ich finde diese HD-Videos von z.B. Gameseiten sowieso immer wenig aussagekräftig, weil ich das Gefühl habe, auch wenn ich auf HD stelle, dass das Bild trotzdem nicht so scharf wie üblicherweise HD ist. Es sieht immer schlechter/schwammig aus. Von daher ist es im Allg. vielleicht auch schwer im Gesamtbild einen Unterschied zwischen der runterskalierten UHD und der HD-Version zu sehen.


Noch eine Frage zu der Texturendarstellung in UHD im Gegensatz zu FullHD: Müssten die Texturen nicht auch detaillierter dargestellt werden, d.h. müsste das Gesamtbild in UHD nicht auch detaillierter gegenüber FullHD sein, da ja UHD mehr Pixel der "Originaltextur" darstellen kann? D.h. das Bild müsste insgesamt nicht nur schärfer sein, sondern auch detaillierter?! Weil anfangs hier jemand schrieb, dass das Bild nicht detaillierter, sondern nur schärfer wird.
 
Zuletzt bearbeitet:
Nur mal schnell und ohne große Begründung meine visuellen Eindrücke, denn ich habe derzeit einen 24 Zoll 4K Dell neben meinen beiden 24 Zoll 1920x1200 HP stehen. Für mich ist Gaming in 4K zumindest mit 24 Zoll nicht der Rede wert, und die Geldausgabe bzw. den massiven FPS-Drop erst recht nicht! Ich sehe aus ca. 70 Zentimeter Sitzabstand zu den Bildschirmen nur einen sehr sehr geringen Unterschied mit natürlich leichten Vorteilen des 4K-Screens! Ich ziehe aber weiter ein gepflegtes Downscaling von 2560x1600 oder 2880x1800 auf 1920x1200 vor. Ich würde für die 4K Büchse derzeit keinen Cent ausgeben, ist auch nur geliehen, das Teil - alles wie immer total überhypt, der 4K-Pixelkram äh Pixelwahn!;)
 
Zuletzt bearbeitet:
Interessant.
Wie sieht es mit Filmen in 4k aus (auf deinem 24 Zöller)? Lohnt sich das? Aber Original-4k Filme gibt es ja wohl auch noch nicht?! Nur so hochskalierte?!
Ich hatte wenn, dann an 27 Zoll 4k gedacht. In 3 Jahren wird das mit den FPS-Drops vielleicht schon besser sein.
 
Zuletzt bearbeitet:
Ich habe mir zumindest mal den echten 4K-Trailer von Elysium drauf angeschaut, auch hier zählt, das ist allerdings nur meine subjektive Meinung, ebenfalls nicht der Rede wert! Aus einem Meter Abstand betrachtet, ich sehe keinen Unterschied, wenn ich auf ca. 30 - 40 Zentimeter Abstand ran gehe, erst dann fällt mir der Auflösungsvorteil auf, aber auch nicht so, das ich jetzt boah ey schreien würde. ;) Man muss eben bedenken, bei 24 Zoll Größe und mit aktueller Full-HD Auflösung sieht das menschliche Auge ab ca. 90 - 92 cm schon keine Pixel mehr, was bei 100 Prozent Sehkraft auf beiden Augen zählt, aber wer hat die schon. UHD ist nur was für große Bildschirmdiagonalen, ich konnte auch schon meinen Pioneer Kuro 5090 50 Zoll Full-HD Fernseher mit einem LG 55LA9659 UHD nebeneinander im Direktvergleich begutachten, ratet mal, wer kein Land gesehen hat? ;) Lasst euch von dem 4K-Kram nicht kirre machen von der Industrie, mein Tipp!
 
Ja wenn man weiß wo, gibt es wirklich schärfere Darstellung, aber insgesamt fällt der unterschied auf den ersten Blick nicht auf :)

Naja, ich finde der Unterschied beim Zocken zwischen 1080p und 1440p fällt schon extrem auf.
 
Extrem, tja, so sollte sich wohl jeder lieber immer sein eigenes Bild machen. Ich finde 1440p downgesamplet auf einem 24 Zoll sieht besser aus, als 1440p auf einem echten 27 Zoll mit nativer 1440p Auflösung - so ist das Sehempfinden eines jeden eben sehr unterschiedlich.
 
Extrem, tja, so sollte sich wohl jeder lieber immer sein eigenes Bild machen. Ich finde 1440p downgesamplet auf einem 24 Zoll sieht besser aus, als 1440p auf einem echten 27 Zoll mit nativer 1440p Auflösung - so ist das Sehempfinden eines jeden eben sehr unterschiedlich.

Ich glaub das ganz normal. Das Auge erkennt weniger Pixel und empfindet das Bild als schöner. Mir fällt das immer auf kleinen Tablets auf, wenn ich YouTube Videos von Skyrim sehe. Schaue ich die auf meinem 1440p 27zoll, merke ich erst, wie hässlich die doch eigentlich sind.
Trotz allem würde ich heute nicht mehr 1080p spielen wollen! Dafür sieht das Bild zu gut aus, gegenüber 1080p. Einfach nicht so verwaschen!
 
Ja liegt sicher immer im Auge des Betrachters. 1440p downsampling auf 1080p hab ich nie probiert, UHD downsampling auf 1440p fällt aber weniger auf als der wechsel von 1080 zu 1440 physikalisch... jedenfalls gehts mir da so.
 
Noch ein kleiner Vergleich zur Verdeutlichung:

Bitmapgrafiken enthalten Farbinformationen für jeden einzelnen Pixel. Vergrößert man solch eine Grafik, wird die Pixelstruktur bei gleichbleibendem Betrachtungsabstand immer deutlicher.

Vektorgrafiken hingegen enthalten Beschreibungen der in ihr enthaltenen Objekte, etwa Anfangs- und Endkoordinaten einer Linie. Man kann deshalb solche Grafiken ohne Ende vergrößern, ohne das je so etwas wie eine Pixelstruktur sichtbar ist.

Moderne Grafikengines ähneln da in ihrem Verhalten eher letzterem.

Ist klar, was ich mit diesem Vergleich sagen will?
Nee, ist mir leider nicht ganz klar. Ich kann es nur ahnen.
Vielleicht kann man als Beispiel einen Kreis nehmen. Ich denke ein Kreis wäre vielleicht ein gutes Beispiel um den Vorteil von FullHD auf UHD zu verdeutlichen?!
Wie schon gesagt, habe ich es mir bisher immer so vorgestellt, dass sich die Programmierung der Bilder in Spielen an Pixel hält, also dass sozusagen jeder Pixel pro Bild eine bestimmte Zuordnung erhält, ohne dass "dahinter" noch ein Musterbild steht, dass anders aussieht (wobei ich davon ausgegangen bin, dass das "Originalbild" in FullHD entwickelt wird).

Ich kann irgendwie ahnen, was du meinst. Meinst du z.B. dass Vektorgrafik bedeutet, dass ein Kreis als exakter Kreis berechnet wird, wobei die Darstellung wiederum natürlich niemals ein exakter Kreis sein kann, einfach aufgrund der Pixeldarstellung auf dem Monitor.
Wenn das so sein sollte, kann ich mir natürlich den Vorteil von UHD zu Full-HD schon vorstellen, da z.B. die überflüssigen "Kanten" pro Pixel am Kreis geringer würden.
Es ist ja auch mehr eine Analogie. In Wahrheit ist es, wie die folgenden Posts gezeigt haben, ja noch komplizierter. Im wesentlichen werden in aktuellen Game-Engines die Räume in Form von Geometriedaten berechnet und erst dann auf die gewünschte Auflösung beispielsweise des verwendeten Monitors gewissermaßen projeziert.

Viele Grüße,
Ezeqiel
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh