Warum macht 4K bei einem Monitor Sinn?

4K ist fatal für Windows 7 User. Microhard hat der beliebten Windows Altversion einen für WQHD und UHD passenden Update der Skaliermöglichkeit für den Desktopfont verweigert. Mit dem Max-Wert von 150% bleibt die Schrift unleserlich klein, selbst bei 32 zoll Monitoren. Um so mehr bei 27 zoll oder noch kleineren. Dazu kommt die völlig unnötige Betriebslast bei 3D und bei Filmen. Nicht nur bei der Vor- und Aufbereitung sondern natürlich auch im Ram und auf der Festplatte. Das provoziert also auch noch überall Folgekosten.

Von 4k profitieren nur die Hersteller. Für die macht es kaum Mehrkosten ob ihr z.B. 27 zoll Display-Substrat eine 1, 2 oder 4K Pixeldichte besitzt. Besser noch, die Pixelfehler fallen weniger auf. Merkwürdig ist bei dieser Frage überigens das sich die Pixelfehlerklassen nach ISO 9241-307 nie geändert haben. Die Hersteller verkaufen/garantieren dir also nun 4 mal soviele/weniger Pixelfehler bei gleicher Pannelgröße da die Pixelfehlerklassen nach wie vor als "maximal zulässige Fehler pro 1 Mio. Pixel" berechnet bleiben.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Interessante Bemerkung. Die Hersteller versuchen eh überall zu schummeln. Genauso ist es mit der Reaktionszeit (G-T-G). Da hat ja jeder Hersteller so seine eigenen Messverfahren ;)
 
IPS Panels sind totaler Schrott: https://www.google.de/search?q=BLB+...ved=0ahUKEwiAo7WI77jKAhVCURoKHW58C-IQ_AUIBygC
und TN Panels sind nicht Blickwinkelunabhängig
mal ganz davon abgesehen das wie hier schon erwähnt wurde nur VA Panels richtiges Schwarz haben und durch höheren Kontrast mehr Farbstufen haben
Jein. Es gibt in der Produktion eine erhebliche Streuung der Eigenschaften. Die großen Monitorhersteller kaufen Chargen von 10- 30.000 Panels und sortieren dann nach Bedarf aus. Im Eizo ColorEdge CG277 ist z.b. technisch gesehen genau das gleiche Pannel verbaut wie im Dell UltraSharp U2713H. Der eine Monitor kostet über 1800 €, der andere ~500 €. Bei einem 500 € Moni ist es ein Glücksspiel ob er perfekt ist, bei dem Eizo für fast 2000 € ist das Pannel selbstverständlich auserlesen.

P.S.: Und wenn du einen besonders günstigen Moni kaufst, z.B. die auf ebay feilgebotenen koreanischen Modelle die es hier sonst nirgends im Versandhandel gibt, kannst du ziemlich sicher sein das da ein Pannel drin ist was einem Markenhersteller zu schlecht war. Da musst du dich nicht wundern wenn du beim Prüfen vom reinen Schwarz im Dunkeln helle Wolken oder gar Balken findest.
 
Zuletzt bearbeitet:
An den grundlegenden problemen der IPS-technik (IPS Glow und miese Kontraste) ändert ein handverlesener 2000€ Monitor aber auch nix mehr leider.

Ich muss ehrlich sagen, selbst verglichen mit der guten alten Röhre sind auch VA Panels in Sachen Schwarzwert ziemlich mies, aber sie sind noch erträglich. Dieses satte schwarz, wie wir es von OLED kennen, gibt dem ganzen Bild erst richtig Brillanz.
 
Zuletzt bearbeitet:
Finde die Schwarzwerte und die Farben von meinem Monitor(Eizo Foris FG2421) mit VA Panel sehr gut.
Für mich ist bei diesem Monitor Schwarz auch wirklich Schwarz.

Ein Unterschied habe ich damals als ich von TN zu diesem Monitor gewechselt habe direkt gemerkt.
Mit OLED habe ich jetzt keine Erfahrung, daher kann ich nur mit meinem alten Monitor vergleichen.
 
Zuletzt bearbeitet:
An den grundlegenden problemen der IPS-technik (IPS Glow und miese Kontraste) ändert ein handverlesener 2000€ Monitor aber auch nix mehr leider.

Ich muss ehrlich sagen, selbst verglichen mit der guten alten Röhre sind auch VA Panels in Sachen Schwarzwert ziemlich mies, aber sie sind noch erträglich. Dieses satte schwarz, wie wir es von OLED kennen, gibt dem ganzen Bild erst richtig Brillanz.

Das sehen die Profies bei Prad anscheinend anders:
Fazit

Zitat: "Superlative sollte man sparsam verwenden, sonst nutzen sie sich ab. Der Eizo CG277 ist dennoch unsere neue Referenz im 27-Zoll-Bereich"
Test Monitor Eizo CG277 Teil 15
OLED muss sich erst noch belegen. Derzeit haben die z.B. Probleme mit "Einbrennen", die allerdings nach einigen Stunden Mischbetrieb wieder verblassen. Vermutlich gibt es auch deswegen noch keine PC-Monitore mit OLED. Der Windows-Balken und deine Icons sind vermutlich erst weg wenn du einige Stunden fullscreen gespielt hast. Das würdest du doch nach 2 Tagen Test wieder zurückschicken um dir dann doch wieder ein VA- oder IPS-Pannel zuzulegen.
 
Zuletzt bearbeitet:
Kann diesen UHD Hype bei Monitoren absolut nicht nach vollziehen - ich hatte einen 27'' mit 4K, das geht zur normalen Arbeit überhaubt nicht da die Schrifft dann so abartig klein wird. Wenn die Anwendung es mit macht (und das macht bei weitem nicht jede) kann man dort die Schriftgrößen abändern oder man fährt runter auf 1440P aber dann hätte man sich den monitor auch gleich sparen können.

Mir war das ganze zu umständlich bzw. praxisuntauglich und habe mich von dem Monitor getrennt. Bedenkt bei 4k sind 4x FHD Monitore quasi in den 27'' gequetscht, und entsprechend wird alles seeeeehr klein.

Dazu kommt beim Spielen das die VGA auch entsprechend mehr leisten muss als bei FHD oder WHD. Eine entsprechend starke & teure VGA ist also Pflicht und von > 100fps in aktuellen Titel kann man sich auch verabschieden.

Habe jetzt einen 27'' in 1440P auf der Arbeit - meiner Meinung nach die perfekte Auflösung für 27'' und auch noch sehr gut handelbar.

Zum zocken habe ich weiterhin FHD mir sind viele frames wichtiger als eine hohe Auflösung.
 
Zuletzt bearbeitet:
@schapy
Du tust ja so, als ob es UHD nur in 27Zoll geben würde.
Ja, >160ppi ist sehr fein aufgelöst und erfordert bei Texten zuweilen einiges an Gefrimel in den Skalierungsoptionen.
Aber auf 32Zoll oder sogar 40Zoll ist UHD eine tolle Sache.
…und eine starke bzw. teure GraKa ist überhaupt nicht Pflicht.
Mein Laptop wuppt 2x UHD im Schnarchmodus an der HD4600.
Nicht jeder PC ist nämlich eine Daddelkiste. Und nicht jedes Ausstattungsmerkmal muss sich an seinen Gamingfähigkeiten messen lassen.
-> wie Du ja geschrieben hast, ist Dein Arbeitsplatz-Moni (und wohl auch der ganze PC) nicht unbedingt das, was Du für Dein heimisches Game-Set einsetzen würdest.
 
Zuletzt bearbeitet:
Ich tue nicht so als ob es UHD "nur" in 27'' geben würde - was natürlich quatsch ist. Ich hab geschrieben das ich mir einen 27'' in UHD geholte hatte und diese Erfahrung entsprechend gemacht habe.
Und wenn daddeln ein teil seines Anforderungsprofil ist, dann ist natürlich die grafikkarte ein limitierender Teil bei wachsender Auflösung (schon immer gewesen). Gerade wer von FHD kommt wird merken, das bei UHD die VGA ganzschön ins Schwitzen kommt - logischerweise da ja die 4 fache Anzahl der Pixel gegenüber von FHD dargestellt werden muss.

Für mich persönlich ist auch 27'' so ziemlich das größte was ich zum gamen haben wollte, weswegen ich dort 1440P als perfekt und maximum ansehe.

Eine 32'' oder 40'' auf dem Schreibtisch ... als Arbeitsplatz ja könnte ich mir vorstellen, zu hause zum daddeln --> Nein.
 
Um vor dem Monitorkauf zu testen ob die Grafikkarte schnell genig ist für 4k, kann man im Spiel auch die Auflösung auf 1920x1080 stellen und in den Optionen oder per Treiber noch 2x2 SSAA zuschalten.

Ich will mir ebenso einen 4k Bildschirm zulegen. Scheitert momentan aber noch an meinen Anforderungen. Die Leistung von selbst der aktuellen Titan erlaubt nur für ein paar wenige aktuelle Titel eine Darstelung von 60FPS mit vollen Details. Im Regelfall muß man Details wieder zurücknehmen, was mMn. dem Sinn und Zweck von 4k zuwiderläuft. Da fällt es schon fast nicht mehr ins Gewicht, daß es noch keinen einzigen brauchbaren 32" 4k Bildschirm gibt.
 
Also schapy, Du hattest einen UHD@27Zoll-Moni, fandest ihn nicht tauglich und münzt diese Deine Erfahrung auf alle UHD-Monis.
Dein Zitat: ‚Ich kann diesen 4k (hihi) Hype ja so gaaarnich‘ nachvollziehen…, weil ich ja auchmal einen hatte und der ging garnicht…‘
Ergo: Du tust so, als ob UHD untauglich sei, weil Dir der eine UHD-Moni, den Du da mal hattest, nicht zusagte.
Und Du wiederholst Dich auch in Deiner Bewertungsmethode:
ich nix gamen gut mit UHD-Moni = alle UHD-Monis nutzlos

@hellbilly
Nein, der Sinn und Zweck von UHD ist es nicht ‚Details‘ zurückzunehmen. Ganz im Gegenteil.
Ansonsten scheitert nicht der UHD-Moni an Deinen Anforderungen, sondern die Übertragungsbandbreite von DP1.2 tut es.
Und auch alle 32zölligen UHD-Monitore sind im hohen Maße brauchbar.
Man muss seinen Beurteilunghorizont nur dahingehend erweitern, dass es auch Kriterien an einen Moni gibt, sie sich nicht auf Gamer-Belange beziehen.
 
Zuletzt bearbeitet:
Hast du was an der Birne? Das ist meine persönlich Meinung und sicherlich münz ich die auf alle 27'' Monitore mit UHD Auflösung :fresse2:

Wenn einer eine andere Meinung hat ist doch OK, für mich ist es nicht praktikabel aus den von mir aufgezählten und selber erlebten Gründen und das gebe ich jedem zu bedenken der sich so etwas anschaffen will :shake:

Warum du da jetzt so eine Welle raus machst - k.A.

PS: Warum ich mich auf den 27'' beziehe? Weil der TO mit den gedanken spielt in seinem Eingangspost sich so etwas zu kaufen - mir dir rede ich eigentlich gar nicht ;)
 
Zuletzt bearbeitet:
Ich bin vor einem Monat aus eine Laune heraus auf 4K umgestiegen.
27" - Monitor angeschlossen, Auflösung und Skalierung von Win10 geprüft, korrekt erkannt und schon auf 150% gestellt.
daneben steht noch der 2. 24" FHD wovon ich früher 2 hatte.

Ich möchte ihn nicht mehr missen, gerade die gestiegene Schärfe auf der "kleinen" Diagonalen ist für mich hier ein großer Pluspunkt.
Sogar ein simpler Wordtext sieht gut aus :d
Unlesbar/winzig erscheint es mir nicht. der Rückschritt auf FHD viele mir mittlerweile doch schwer.

Klar sollte sein, dass 4K für Spiele eine ziemliche Herausforderung darstellt (gerade bei einem Freesync Modell, wo noch ein potente Pixelbeschleuniger fehlt)
genauso dass viele Menüs/Oberflächen nicht an die Hohe Auflösung angepasst sind (MWO Menu zB sieht in 4k ganz witzig aus)

Um Bilder von der Knipse zu beurteilen ists genial - ohne (zuweit) reinzoomen schon erkennem ob das Bild scharf oder nur fast scharf ist :love:
 
Ich bin vor einem Monat aus eine Laune heraus auf 4K umgestiegen.
27" - Monitor angeschlossen, Auflösung und Skalierung von Win10 geprüft, korrekt erkannt und schon auf 150% gestellt.
daneben steht noch der 2. 24" FHD wovon ich früher 2 hatte.

Ich möchte ihn nicht mehr missen, gerade die gestiegene Schärfe auf der "kleinen" Diagonalen ist für mich hier ein großer Pluspunkt.
Sogar ein simpler Wordtext sieht gut aus :d
Unlesbar/winzig erscheint es mir nicht. der Rückschritt auf FHD viele mir mittlerweile doch schwer.

Klar sollte sein, dass 4K für Spiele eine ziemliche Herausforderung darstellt (gerade bei einem Freesync Modell, wo noch ein potente Pixelbeschleuniger fehlt)
genauso dass viele Menüs/Oberflächen nicht an die Hohe Auflösung angepasst sind (MWO Menu zB sieht in 4k ganz witzig aus)

Um Bilder von der Knipse zu beurteilen ists genial - ohne (zuweit) reinzoomen schon erkennem ob das Bild scharf oder nur fast scharf ist :love:

Hey,

welches Programm benutzt Du denn, um Deine Bilder zu beurteilen? Mit Photoshop Light Room soll es ja richtige Skalierungsprobleme geben.

Danke soweit!
 
@fullHDade
Kannst mich Unwissenden ja mal aufklären. Welcher 32" 4k Bildschirm hat denn

- 'ne gleichmäßige Ausleuchtung
- Schwarzwert <= 0,18cd/m² (schlechter als mein derzeitiger Bildschirm solls nun auch nicht werden)
- keine PWM-Hintergrundbeleuchtung
- Latenz <= 16ms (Grund siehe den für Schwarzwert)
- G2G Wechselzeit <= 5ms

Mein Anwendungsfall ist neben programmieren, Office, surfen und Videos schauen eben auch das Gaming. Da habe ich kein Problem damit, auch 2000,- für 'nen Bildschirm hinzulegen. Das ist eine gute Investition für meine Augen, denn so ein Bildschirm ist nun mal die meistgenutzte Peripherie eines Desktoprechners und wird so schnell auch nicht ausgetauscht.

Nur wer bissle Office macht und surft, kann tatsächlich auf die meisten genannten Punkte verzichten.

DP1.2 ist übrigens völlig ausreichend für 4k @ 60Hz.
 
@hellbilly
Du schreibst in #43, der Kauf eines UHD-Monis scheitert an Deinen Anforderungen.
Naja, es scheitert aber eher an der Leistung der GraKa und den Limitierungen des DP1.2-Standards.
Das daraus resultierende Drehen an den Schräubchen der Game-Engine ist nicht Schuld des UHD-Monitors.
Ja, UHD@60Hz geht und ist für Anwendungen völlig ausreichend. Aber übliche Gaming-Zutaten für einen Moni sind neben Sync auch 144Hz-Technologie und man erwartet nebenbei, dass mit einer 1070/1080 auch alles schön fluffig läuft.
Es ist mittlerweile zu einer verbreiteten Grundhaltung geworden, UHD als untauglich zum Gamen zu bezeichnen, weil es die ja nichteinmal mit 120Hz gibt und ansonsten beim gamen schnell stottern, was ja ursächlich an der GraKa liegt. Einzig mit Sync kann man neueren UHD-Monis noch ein Gaming-Feature abringen.

Und ja, 32Zöllige UHD-Monitore sind, wie ich bereits schrieb, sehr tauglich.
Ich verdiene meine Brötchen vornehmlich mit CAD und heftig ausladenen Tabellenkalkulationen am PC. Naja, Textverarbeitung und Internet gehört sowieso dazu.
Der CAD-Hintergrund ist schwarz. Und bei meinem 32zölligen BenQ BL3201PT (UHD@IPS) als auch meinem 40 zölligen Philips BDM4065UC (UHD@VA) stört mich keiner der von Dir genannten Punkte.
Schön wäre natürlich ‚flickerfree‘, was meine Monis wohl nicht haben.
Das Schwarz des BenQ ist natürlich etwas blasser als beim VA-Panel und Lichthöfe sind nicht ganz auszuschliessen, aber es stört bei AutoCAD trotz pechschwarzem Hintergrund nicht.
Latenz und g2g sind mir Banane.
Wer gamen möchte, möchte natürlich all die tollen Gamer-Zutaten auf der Spec-Liste haben, aber es geht nicht.
Aber solange es GraKa-mäßig sowieso nur mit gewaltigem Aufwand (z.B. 2x1080) und Detail-Reduzierung möglich ist an UHD zu zocken, braucht es auch kein 144Hz, 1ms g2g und 4ms Latenz.
Und wer das explizit für sein Gaming-Vergnügen braucht, landet sowieso meist (ja, es gibt auch Gaming-IPSler) beim TN-Panel.
 
Hey,

welches Programm benutzt Du denn, um Deine Bilder zu beurteilen? Mit Photoshop Light Room soll es ja richtige Skalierungsprobleme geben.

Danke soweit!
Lightroom (6/CC) geht unter Win10 eigentlich ohne Probleme in Hinblick auf die Skalierung.
Mit älteren Windows Versionen wär ich da sehr sehr sehr Vorsichtig
 
Naja, es scheitert aber eher an der Leistung der GraKa und den Limitierungen des DP1.2-Standards.
Ah ok. Ja klar, so kann man das natürlich auch sehen und ist genauso richtig.

Aber übliche Gaming-Zutaten für einen Moni sind neben Sync auch 144Hz-Technologie und man erwartet nebenbei, dass mit einer 1070/1080 auch alles schön fluffig läuft.
Darauf kann ich dankend verzichten. Bis es Single-Chip Karten gibt, die 4k mit >60FPS dauerhaft schaffen, vergehen noch mindestens 5 Jahre, zumal die Kurve der Performancezuwächse pro Zeiteinheit langsam aber stetig abflacht. Auch G-Sync und FreeSync überzeugen mich nicht, denn je nachdem wie viel länger die Berechnung eines Frames dauert, fällt die Ausgabeverzögerung doch wieder auf. Eine konstante Bildrate wäre wesentlich sinnvoller. Und das geht nur mit nackter Gewalt, sprich Rechenleistung. Ein Teufelskreis...

Es ist mittlerweile zu einer verbreiteten Grundhaltung geworden, UHD als untauglich zum Gamen zu bezeichnen, weil es die ja nichteinmal mit 120Hz gibt und ansonsten beim gamen schnell stottern, was ja ursächlich an der GraKa liegt. Einzig mit Sync kann man neueren UHD-Monis noch ein Gaming-Feature abringen.
Vermutlich reden wir aneinander vorbei. Es gilt hier denke ich zwei Punkte zu unterscheiden:
1) Leistungsmäßig liegts nicht an den UHD Bildschirmen selbst, sondern an der zum Gaming in 4k nötigen Rechenleistung, an der es z.Zt. noch gewaltig mangelt.
2) Davon unabhängig hege ich immer noch Zweifel an der Verfügbarkeit guter und auch (für mich) spieletauglicher 4k Bildschirme. Damit meine ich alle vorgenannten Features, jedoch ohne Sonstwas-Sync.

Und bei meinem 32zölligen BenQ BL3201PT (UHD@IPS) als auch meinem 40 zölligen Philips BDM4065UC (UHD@VA) stört mich keiner der von Dir genannten Punkte.
Laut dem Prad Review soll der BL3201PT flimmerfrei sein. Lediglich die Ausleuchtung hat mich bislang von einem Kauf abgehalten. Die restlichen Eigenschaften passen aber.

Und wer das explizit für sein Gaming-Vergnügen braucht, landet sowieso meist (ja, es gibt auch Gaming-IPSler) beim TN-Panel.

Mit TN kannst mich jagen. So einen hab ich als Zweitbildschirm schon in 24" Ausführung. Da seh ich stets die sich zu den Rändern hin verändernden Farben. Dürfte bei 32" nur noch deutlicher ausfallen. Glücklicherweise bin ich aber kein Hardcoregamer. Das bisschen natürliche Bewegungsunschärfe, was ein guter Nicht-Gaming-Bildschirm noch bringt, kann ich aushalten und dazu das Motion Blur "Feature" in den Spielen abdrehen ;)

Find ich ohnehin daneben daß die Spieleindustrie meint, die eigentlich überlegene Erzeugung von Frames von Spielen mit Artefakten zu versehen, die sich ausschließlich aus den Nachteilen von Filmaufzeichnungen ergeben (Lens Flare, Motion Blur usw.). Egal, ich komm wieder vom Hundertsten ins Tausendste.
 
Ja, für das reine Spielen gibt es keinen Sinn, einen 4K-Monitor oder Fernseher zu bekommen. Ich habe einen 4K-Fernseher, und mit dem Desktop in 4k 60hz ist super. Und 4k Demos und Filme sind nur wahnsinnig detailliert. Aber Spiele sind einfach zu anspruchsvoll, um bei 4k zu laufen. Wenn es um 4K BluRay geht, verstehe ich wirklich nicht, wie sie es vermasseln werden. Der BD-Player erledigt die gesamte Verarbeitung und muss über die neuesten Codecs verfügen, an denen er gerade arbeitet. Solange der Fernseher über HDMI 2.0 und HDCP 2.2 verfügt, unterstützt er mindestens 4k 24p. Das Problem mit einigen 4k-Fernsehern und Monitoren ist jetzt in der Lage zu sein, 4k bei 60Hz mit voller 4: 4: 4 Chroma zu machen. Aber alle 4k-Fernseher unterstützen 4k bei 30Hz und der neue BD-Standard wird wahrscheinlich 4k 24p / hz.
Sie können hier die besten finden - https://www.4kmonitor.net

Danke!
 
Mit der Zeit kommen halt höhere Auflösungen: Schärferes Bild, Größere Entfernungen Erkennbar, Bewegungen sehen schärfer aus

Man kauft eben einen Monitor nicht "nur" wegen der Auflösung, HDR wird auch ein Thema sein wenn das Zukunft hat
 
Zuletzt bearbeitet:
…Aber Spiele sind einfach zu anspruchsvoll, um bei 4k zu laufen.
Das war doch aber schon immer so: Jede neue Game-Generation muss spürbar phantastischer und ‚realer‘ wirken als die vorherige, was zwangsläufig jedesmal mehr Leistung/Performance von der Hardware abverlangt. Diese Formel gilt seit ‚Pong‘.

Deine ganze Argumentationskette tanzt vornehmlich um das Thema ‚Übertragungsbandbreite‘ herum.
Da bildet UHD(‚4k‘) eher zufällig eine unsichtbare Grenze.
Alle paar Jahre werden neue Regeln für Übertragungsstandards verabschiedet. Mal sind es nur Erweiterungen (oder etwas Schlangenöl, wie z.B. HDMI bis Version 1.4, was nur ein dünnes Süppchen aus DVI-I + Ton + HDCP darstellt), mal wird alles in die Tonne gekloppt und was Neues kommt daher.
(HDCP ist ja kein technisch notwendiger Bestandteil der Bild-/Tonübertragung. Es ist ein Kopierschutzmechansichmus, damit die bunte Welt der HDMI-Inhalte brav im ausgedachten Universum der Multimedia-Konzerne eingesprerrt bleibt.)

Als der Monitor-Übertragungsstandard namens DisplayPort ersonnen wurde, bot dieses Protokoll genug ‚Platz im Kabel‘ sowohl für die Kapazitäten der damals verwendeten Monis, als auch den folgenden Geräten mit mehr Auflösung/Hz/Farbtiefe etc. .
Viele denken ja das ‚neue‘ HDMI mit der stolzen ‚2‘ im Namen -> 2.0/2.2 sei !mehr! als das uralte DisplayPort =DP mit der pifigen Versionsnummer 1.2.
Is‘ aber nich‘ so.
Während also DP den Zuwachs an Bandbreite, den ein Moni verlangt, über Jahre bedienen konnte, werkelt HDMI schon immer an der Grenze dessen, was halt gerade dem Konsumer als ‚Schöne Neue Welt‘ verkauft werden soll.
Man soll glauben, man brauche für HDR zwangsläufig ‚4k‘ , aber das ist nicht so. Es ist nur die Strategie der Konzerne, HDR fest mit ‚4k‘ zu verbandeln, damit sich diese gegenseitig hypen können. Technisch gibt es keinen Zusammenhang, im Gegenteil: ‚4k‘ + HDR ist das absolute Ende der Fahnenstange von HDMI2.x .

Egal ob es HDready, fullHD, ‚4k‘ , HDR oder Tonformate für den räumlichen Klang ist, alles war oder ist die Zukunft der just gehypten multimedialen Welt.
Und ausgerechnet hier beist sich HDMI mit ‚4k‘ in den eigenen Schwanz.

Wir beurteilen vornehmlich Sachen, die wir sehen.
Wir sehen das TV-Set oder den Moni, und dabei vornehmlich das Panel.
Also wird gefolgert:
-Panele können technisch nur ‚4k‘ haben. ->Nö.
-Der Übertragungsstandard kann nicht mehr bieten. ->Nö, das Flickwerk HDMI mit seiner Eisenkugel namens HDCP am Fußgelenk hängt den technischen Möglichkeiten der Hardware um Jahre hinterher.
-‚4k‘ bringt nix am PC. Nö. ->Nicht jeder PC ist ‚ne Daddelkiste, und schon immer musste der Gamer Wege/Kompromisse finden, die Anforderungen der Game-Engine und der, seinem Geldbeutel angepassten, Hardware aufeinander abzustimmen.
Da ist UHD nur eine weitere Variable, die, wie bereits erwähnt, eher zufällig die Abhängigkeit von Bildwiderholung zu Auflösung aktueller Übertragungsprotokolle berührt.

Wenn es um 4K BluRay geht, verstehe ich wirklich nicht, wie sie es vermasseln werden.
Das Problem sind nicht die Codex. Erstes und vorrangiges bestreben der neurotischen Multimediaindustrie ist es den heiligen Gral ‚HDCP‘ als Kopierschutzmechanismus am Laufen zu halten, dagegen sind höhere Auflösungen, erweiterte Raumräume etc. nachrangig.
 
Zuletzt bearbeitet:
Aber Spiele sind einfach zu anspruchsvoll, um bei 4k zu laufen.

Und Du meinst, das hat tatsächlich und hauptsächlich was mit der Auflösung zu tun? Ich behaupte mal, dass das eigentliche Problem eher 30cm vor dem Monitor sitzt.

 
Zuletzt bearbeitet:
Und Du meinst, das hat tatsächlich und hauptsächlich was mit der Auflösung zu tun? Ich behaupte mal, dass das eigentliche Problem eher 30cm vor dem Monitor sitzt.

Hardware-Seiten testen meistens die Auflösung, und Games-Seiten die Settings, manche Settings fressen 20-30% Leistung
 
Zuletzt bearbeitet:
Aber das Problem 30cm vor dem Monitor hat alle Settings in der Hand. Es liegt an dem Problem 30cm vor dem Monitor welche Settings ihm wichtig sind, die Ansprüche die es an FPS und Bildqualität stellt.

Es ist das Problem 30cm vor dem Monitor das etwas davon erzählt das "Spiele gehen nicht in 4K", weil seine Ansprüche nicht erfüllt werden.
Und dem versuche ich halt den Spiegel vors Gesicht zu halten, indem ich sagen: Deine Ansprüche werden ja nicht mal in FHD erfüllt, warum schiebst Du es auf 4K.
 
Zuletzt bearbeitet:
Und Du meinst, das hat tatsächlich und hauptsächlich was mit der Auflösung zu tun? Ich behaupte mal, dass das eigentliche Problem eher 30cm vor dem Monitor sitzt.

Was ist den da kaputt, 1080p im CPU Limit und 2160p im GPU Limit?
Da nimmt man ja freiwillig das GPU Limit! :cool:

Mit einem 1080p TV sehe ich selbst bei deinem GTAV 4K Bild noch Treppen Effekte...
 
Du Verdreher^^
Aber ansonsten bringst Du es genau auf den Punkt.
 
Ich liebe dein Beispiel HisN, es umgeht das eigentliche Problem so schön ohne das du es merkst. Traurig irgendwie, aber Zeitgleich sehr amüsant.
 
Die Frage ist halt, was man als eigentliches Problem definiert^^
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh