EIZO präsentiert den FlexScan EV2485 mit USB-C-Anschluss

[…] dass echtes HDR und FALD nur in der absoluten und unbezahlbaren High-End-Klasse wirklich umgesetzt werden. Der durchschnittliche Gaming-Monitor kriegt davon genauso wenig mit wie der durchschnittliche Office-Monitor […]
Ja ja, der Endkunde als Cashcow und EVP als Totschlagargument…
…irgendwo diffus zwischen Early-Adopter-Trophäe und globalem Chipmangel wegen falscher Einkaufsstrategien durch Corona eingewebt...

Also mal abgesehen vom winzigen Markt für UHD@120Hz@HDR, wo wir bei 2500€ (2018) anfingen und jetzt bei 3500€ angelangt sind?
Ich teile nicht die Auffassung, dass das UHD@120Hz@HDR-Segment 'winzig' ist.
Es ist halt nur noch nicht raus, ob es als OLED oder in klassischer Bauweise millionenfach gefertigt werden soll.
Nicht zuletzt habe ich die GraKa-Industrie im Verdacht, dass die UHD@120Hz-Preise nur deshalb so hoch bleiben, bis die dafür tauglichen Daddel-GraKas erschwinglich sind.
Wenns Bild ruckelt, ist es besser der GraKa die Schuld dafür in die Schuhe zu schieben, als denn dem Moni.
Also ich -als Global-Moni-Manufacturer- würde mir denken: Eh der Kunde meinen superduper-Moni verteufelt, soll er sich lieber gewohnheitsmäßig an der GraKa abarbeiten, belasse meine Monis überteuert und friemle solange, sozusagen als Fingerübung, a bisserl an HDR rum.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So genau hab ich mir das noch gar nicht zusammengereimt. Aber dann mach ich das jetzt einfach mal :d

Must Have (In willkürlicher Reihenfolge):
- HDMI 2.1 Port (es gibt scheinbar immer noch Hersteller, die ausschließlich auf 2.0 bzw. DisplayPort 1.4 mit DSC setzen)

Wer zum Geier nutzt noch HDMI im PC Bereich? Beim TV okay, dort sind die Datenmengen auch nicht so groß.
 
Wer zum Geier nutzt noch HDMI im PC Bereich?
Leider immernoch viel zu Viele…

Als User müsste man schon alle Übertragungsbandbreiten der gängigen Videoformate im Kopf haben -was ja in sich erstmal nur staubtrockene Zahlen sind- um sie mit den Anforderungen der Bildquelle zu vergleichen. Da verlässt es 99,99% aller Anwender.
Der HDMI-Werbezirkus schafft es immerwieder sein Steckerformat so geschickt zu platzieren, dass sich HDMI nach mehr anhört, als DP.
'Guck, alle Devices haben HDMI, Monis und TV-Geräte, also musses viel besserer als wie DP sein.'
@benneq 's Wunschmoni (UHD@144Hz@10-14Bit) braucht kein HDMI2.1. Ein DP1.4-Anschluss ist ausreichend.
(Naja, außer vielleicht er möchte einen 8k-Receiver ohne DP-Buchse aus seinem Multimediakabinet an den Moni stöpseln. Problem: Bis dahin wäre eine eventuell verbaute HDMI2.1-Buchse im Moni ebenfalls längst veraltet.)

Beim TV okay, dort sind die Datenmengen auch nicht so groß.
Lass das besser nicht die Jungs vom OLED-Forum lesen…:hwluxx:
 
Zuletzt bearbeitet:
Mit DisplayPort 1.4 ist also lossy compression mit DSC nötig. Mit HDMI 2.1 kann man darauf verzichten.
Ich zocke ja nicht, schon garnicht am Rande des DP1.4-Limits, aber ich bin der festen Überzeugung, dass die Entwickler resscourcenfressender Computerspiele das DP1.4-Limit fest im Blick haben.
(Und wer weiß, vielleicht ist DSC via DP1.4 ja garnicht so verlustbehaftet gräßlich.)
Meine Argumentation: Wäre in 2021 die ~26 Gbit/s-Grenze eine liederliche Spaßbremse, ließe sich der -bereits vor zwei Jahren veröffentlichte- DP2.0-Standard mit rund 77 Gbit/s verwenden. Auch so von wegen 'an die Zukunft denken'.
Also: statt HDMI2.1 als Sehnsuchtstechnologie anzusehen, lieber auf DP2.0 warten.
Das Problem: Millionen -ach was- Milliarden! Daddler werden DP2.0 zuverlässig mit HDMI2.0 verwechseln.

Mein Verdacht: Nicht der Monihersteller scheut DP2.0, sondern die diversen GraKa-Buden. Denn hätten deren Lötbasteleien DP2.0 an Bord, so müssten sie diese Bandbreite auch bespaßen können.
Drum verlöten sie lieber das grottenlahme HDMI2.1 auf ihre Platinchen.:d
 
Zuletzt bearbeitet:
Ich zocke ja nicht, schon garnicht am Rande des DP1.4-Limits
Was hat das mit Zocken zu tun? Auch seine Desktop Applikationen kann man auf einem 4K Bildschirm mit butterweichen 144 Hz betreiben. Und auch mit 8 bit Farbtiefe landet man immer noch über 31 Gbit/s, und ist dann auf DSC angewiesen. Es gäbe natürlich theoretisch auch noch Chroma Subsampling, um die Bitrate zu drücken, aber das will man auf dem Desktop garantiert nicht haben.

Auch so von wegen 'an die Zukunft denken'.
Welche Zukunft? Bis 8K irgendjemanden interessiert werden noch viele Jahre vergehen. Und dann sitzt du da mit deinem 8K 120Hz 10bit Bildschirm und wirst feststellen, dass man dafür über 130 Gbit/s braucht und das Warten auf DP 2.0 mit seinen 77 Gbit/s umsonst war. Also doch lieber gleich auf DisplayPort 3.0 warten. :d
Und selbst bei DP 2.0 weiß doch keiner wann da überhaupt passende Geräte auf den Markt kommen. Der Standard existiert seit 2 Jahren. Aber es gibt weder Bildschirme noch Grafikkarten, die das können. Gut möglich, dass nicht mal die nächste Generation das kann, weil es bis dahin immer noch keinen Bedarf an mehr als 48 Gbit/s gibt. Also noch 4 Jahre warten? Viel Spaß dabei.

Mir ist relativ latte welchen Standard ich nutze, solang er die benötigte Bandbreite liefert und sonst keine gravierenden Nachteile mit sich bringt. Und es gibt halt gerade nichts besseres als HDMI 2.1, und wann man DisplayPort 2.0 tatsächlich in der Praxis einsetzen kann, ist ungewiss.
 
Zuletzt bearbeitet:
Auch seine Desktop Applikationen kann man auf einem 4K Bildschirm mit butterweichen 144 Hz betreiben. Und auch mit 8 bit Farbtiefe landet man immer noch über 31 Gbit/s, und ist dann auf DSC angewiesen.
Ach komm. 'Deskop Applikationen' mit UHD@144HZ@10bit sind schon ziemlich geklimmtzugt.
Sämtliche Grafiker, selbst die, die keine Gedanken auf so Banalitäten wie 'Anschaffungskosten' verschwenden brauchen, sitzen an Monis von Eizo oder NEC. Und die werkeln durch die Bank mit 60Hz. So auch das Topic-Device: Eizo@WUXGA@60Hz.

Es gäbe natürlich theoretisch auch noch Chroma Subsampling, […] , aber das will man auf dem Desktop garantiert nicht haben.
Dumme Frage: Was machst Du beruflich?
Denn: Als Du in diesen Thread eingestiegen bist, gings Dir um 'gelegentliches zocken'.
Und die Büromonis in der Firma sind verstaubte 08/15 24Zöller aus der Besenkammer.

Und selbst bei DP 2.0 weiß doch keiner wann da überhaupt passende Geräte auf den Markt kommen.
Ersetze 'Geräte' durch 'GraKa' und Du hast den Schuldigen.
 
Zuletzt bearbeitet:
'Deskop Applikationen' mit UHD@144HZ@10bit sind schon ziemlich geklimmtzugt.
Dasselbe kannst du auch zu 120Hz Handys und Tablets sagen. Aber es ist halt einfach ein Stück angenehmer für die Augen. Ich sage nicht, dass es unbedingt nötig ist. Auch 4K ist nicht nötig, man kann auch ständig hin und her scrollen. Oder einen 15" Bildschirm nehmen und mit 'ner Lupe davor kleben. Geht alles. Aber es geht eben auch angenehmer. Das ist der Punkt. Ich seh's nicht ein meine Arbeitszeit unangenehmer zu machen als sie sein müsste.

Was machst Du beruflich?
Denn: Als Du in diesen Thread eingestiegen bist, gings Dir um 'gelegentliches zocken'.
Ich arbeite beruflich mit sehr viel buntem Text, Graphen, gelegentlich Grafiken und Animationen.
Und gerade bei Text verliert man deutlich an Schärfe, Kontrast und Klarheit durch Chroma Subsampling. Kannst es ja einfach mal im Grafiktreiber umschalten und 8 Stunden damit arbeiten.
Für's Zocken wäre mir das auch egal. Da merkt man davon nichts.

Und die Büromonis in der Firma sind verstaubte 08/15 24Zöller aus der Besenkammer.
Offensichtlich verschluckt dein Bildschirm wertvolle Informationen, oder es muss eine Brille her.

Ersetze 'Geräte' durch 'GraKa' und Du hast den Schuldigen.
Henne-Ei-Problem
 
Ich arbeite beruflich mit sehr viel buntem Text, Graphen, gelegentlich Grafiken und Animationen.
Eine Freundin von mir ist Kindergärtnerin. Die könnte das auch behaupten -jedesmal wenn sie Fingerfarbe austeilt. Naja, jedenfalls wird sie wohl nie über Chroma Subsampling klagen…

Kannst es ja einfach mal im Grafiktreiber umschalten und 8 Stunden damit arbeiten.
Einen Teufel werde ich.🤣

Offensichtlich verschluckt dein Bildschirm wertvolle Informationen […]
Nö. Ich habe Dich schlicht verwechselt.
Nungut, Du verwendest einen 27"@WQHD@60Hz-Moni von Eizo.

Nicht unbedingt.
Der Satz: 'Es wär toll, wenn es zu meiner GraKa auch einen passenden Moni gäbe…' ist mir selten untergekommen.
(Meist sind es Zocker, die das Ruckeln auf den Moni schieben, weil man 'sieht' das Ruckeln und man 'sieht' den Moni, also muss das ja wohl vom Moni kommen.)
Richtigerweise lautet der Satz: 'Es wär toll, wenn es zu meinem Moni auch eine passende GraKa gäbe…'
 
Der Satz: 'Es wär toll, wenn es zu meiner GraKa auch einen passenden Moni gäbe…' ist mir selten untergekommen.
Das heißt nicht nie ;) Und vergiss nicht, dass man dann auch noch ein passendes Kabel braucht. Die Heilige Dreifaltigkeit

Hier kannst du dir mal Bilder von Chroma Subsampling mit Text ansehen. Sind natürlich durch die Farbwahl teils extreme Beispiele:
4:4:4: https://i.rtings.com/assets/pages/eh5HDv8m/text-chroma-4k-60hz-pc-mode-large.jpg
4:2:2: https://i.rtings.com/assets/pages/eh5HDv8m/text-chroma-4k-30hz-large.jpg
4:2:0: https://i.rtings.com/assets/pages/eh5HDv8m/text-chroma-4k-60hz-large.jpg
Quelle: https://www.rtings.com/tv/learn/chroma-subsampling

Auch unten in der Leiste, wo man den perfekten Schwarz-auf-Weiß Fall hat, verliert man an Schärfe und Qualität, weil die Schriftglättung vom Betriebssystem Zwischenwerte erzeugt, die durch's Chroma Subsampling versaut werden.
 
Zuletzt bearbeitet:
Und vergiss nicht, dass man dann auch noch ein passendes Kabel braucht.
Ein Gedanke, der mich wahrscheinlich nie umtreiben wird.
Ich verwende einfach das DP-Kabel, das dem Moni beigelegt wurde.

Hier kannst du dir mal Bilder von Chroma Subsampling mit Text ansehen.
Ich habe mich noch nie mit den Themen Chroma Subsampling und 4:4:4 vs 4:2:2 vs 4:2:0 beschäftigt, also auch jetzt nicht.

Meine Faustformel -aus alten CAD-Zeiten: 2 hoch 8 = 256. 2.56 x 256 x 256 = 16,7 Mio. = 16,7 Mio. mögliche Farbabstufungen pro Pixel, umgangssprachlich 8bit. Und dies pro sechzigstel Sekunde.
Bei 2 hoch 10 erhält man 1.024 Farben pro Kanal und kommt auf rund 1 Mrd. Farbabstufungen = 10bit.
Aaaaber: 8bit hat ja nicht weniger Farben, sie sind halt nur nicht so fein gerastert.
Nicht mein Problem, wenn da irgendeine Sampling-Routine was verbockt.
Es gilt: Nix 10bit im Quellmaterial, nix 10bit auf dem Screen.
 
Wann trennen sich die Hersteller mal komplett von 60Hz?
Sogar Phones kommen mit 90/120Hz und das sogar schon in der Einstiegsklasse ~150€.
Mehr Hz sind einfach nicht nur fürs zocken gut.

Eizo hat hier mal wieder übertrieben,wer kauft das denne?
Die lange Garantie gut,aber das war es bei Eizo auch schon,die sind schon lange nicht mehr das was sie mal waren.
Ka wovon die Nachts träumen aber der aufgerufene Preis ist ein Witz.

Aber wie ich den lahmen Monitormarkt kenne werden wir wohl noch in 5Jahre 60Hz Schüsseln sehen sowie FullHD Monitore.
Langsam müssten wir mal aus de "Steinzeit" raus^^.
 
Nicht mein Problem, wenn da irgendeine Sampling-Routine was verbockt.
Thema verfehlt. Sechs. Setzen. Das Subsampling macht exakt das was es soll.
Es ging um eine Möglichkeit die benötigte Bandbreite zu senken, damit man irgendwie seine Auflösung, Farbtiefe und/oder Wiederholfrequenz durch's Kabel bekommt. Das ist halt ein möglicher Preis den man mit DisplayPort 1.4 aktuell zahlen muss, aber mit HDMI 2.1 nicht - und damit ein vernünftiger Grund auch am PC auf HDMI zu setzen.

Bei 2 hoch 10 erhält man 1.024 Farben pro Kanal
Und auch das ist nicht korrekt. Was aus den 10 bit gemacht wird, hängt vom gewählten Standard bzw. Encoding ab. Z.B. bei Rec 2020 fallen 146 der 1024 Wert pro 10-bit-Farbkanal weg.

Selten so viel Unsinn am Stück gelesen :d
 
@Blood1988
Dem ist kaum etwas hinzuzufügen. Im iPad Pro gibts ein 2500(!) Zonen 120Hz High-Res-Panel MIT leistungsstarkem AR-Coating, alternativ gibts im Samsung Tablet auch ein 12,4" 1600p 120Hz OLED (Leider unbeschichtet, aber immerhin nicht matt).
Bei den Fernseher auch, 4K120 gibt für 1000€ als OLED oder für minimal mehr als Quantum-Dot-LCD mit Mini-LED-FALD. Beides natürlich ebenfalls mit effektiven AR-Coatings.
TN ist in diesen Märkten übrigens gar kein Thema mehr, bei den Monitoren schon. Selbst in Notebooks findet man bessere Panels als im PC-Bereich. Nicht nur OLEDs, auch QLEDs, ebenfalls mit tlw. echt guten Coatings.

Also ich fürchte uns werden die matten 60Hz 1080p noch lange erhalten bleiben. Es bleibt am PC echt nur der Wechsel zu einem der kleinen Fernseher, dann muss man eben den Sitzabstand erhöhen.
 
Also ich fürchte uns werden die matten 60Hz 1080p noch lange erhalten bleiben. Es bleibt am PC echt nur der Wechsel […]
Was für Scheuklappen muss man eigentlich tragen, um alles zwischen 1080p@60Hz- und UHD@144z@10bit-Monis rückstandslos auszublenden?
Smartphones (vor allem iPhones), Tablets und TV-Sets sind nur bedingt mit der weiten Welt der Monis zu vergleichen, weil Smartphones&Co. nur in einer abgeschlossenen und vordefinierten HW/SW-Welt funktionieren brauchen.
Wenn apple merkt, dass eine neue Hurra-Funktion nicht zuverlässig funzt, na dann lassen sie halt das tolle Feature weg. As simple as that.
Aber beim Moni ist man gleich in der 'Steinzeit' gelandet, wenn er nicht alles umfassend mitbringt, was der Daddelmarkt hergibt.
 
Ich zocke ja nicht, schon garnicht am Rande des DP1.4-Limits, aber ich bin der festen Überzeugung, dass die Entwickler resscourcenfressender Computerspiele das DP1.4-Limit fest im Blick haben.
(Und wer weiß, vielleicht ist DSC via DP1.4 ja garnicht so verlustbehaftet gräßlich.)
Meine Argumentation: Wäre in 2021 die ~26 Gbit/s-Grenze eine liederliche Spaßbremse, ließe sich der -bereits vor zwei Jahren veröffentlichte- DP2.0-Standard mit rund 77 Gbit/s verwenden. Auch so von wegen 'an die Zukunft denken'.
Also: statt HDMI2.1 als Sehnsuchtstechnologie anzusehen, lieber auf DP2.0 warten.
Das Problem: Millionen -ach was- Milliarden! Daddler werden DP2.0 zuverlässig mit HDMI2.0 verwechseln.

Mein Verdacht: Nicht der Monihersteller scheut DP2.0, sondern die diversen GraKa-Buden. Denn hätten deren Lötbasteleien DP2.0 an Bord, so müssten sie diese Bandbreite auch bespaßen können.
Drum verlöten sie lieber das grottenlahme HDMI2.1 auf ihre Platinchen.:d

Ich würde die Anschlüsse nicht anhand der Bandbreite bewerten.

Beide haben ihre Daseinsberechtigung, weil es eben mehr als nur Bild und Ton gibt.

Im TV Bereich ist der nutzen Sinnvoll , dass man via HDMI extrerne Geräte steuern kann mit TV Fernbedienung und HDMI LAN fähig ist ,sofern Geräte dies unterstützen .

DP ist halt für den Multimonitor und auch wenn man externe Grakas verwendet interessant und natürlich Nvidia Gsync geht nur via DP.

Schön wäre es , wenn es einen Standard geben würde , aber denke dieses wird nicht mehr geschehen.

Daher ist es schonmal positiv , dass Grakas in heutiger Zeit beides haben.
 
Zuletzt bearbeitet:
Schön wäre es , wenn es einen Standard geben würde , aber denke dieses wird nicht mehr geschehen.
Daher ist es schonmal positiv , dass Grakas in heutiger Zeit beides haben.
Mit der Formel: HDMI fürs Multimediaensemble und DP für den Computer, kann man die Anschlüsse eindeutig in seinem Haushalt zuorden.
Wer allerdings partout der Meinung ist, dass ausgerechnet HDMI2.1 seinen Moni, oder je nach Usercase Fernseher, den notwendigen Boost verleihen kann, der wird wohl auch in Zukunft GraKas vornehmlich nach der Anzahl verbauter versionstauglicher HDMI-Buchsen beurteilen.
Bei Manchen verursacht HDMI Kaufreiz, bei Manchen -so auch mir- verursacht HDMI Würgreiz.
 
Zuletzt bearbeitet:
Naja die einen wollen HDMI 2.1 weil sie ihren TV anschließen wollen , weil es aktuell günstiger ist als Monitore die ähnliches können .

Ist bedingt durch die LG Oleds .

Mit DP 1.4 + DSC kommt man ja auf das selbe hinaus .

Kann sogar interessanterweise sogar 4k 144hz und 12 bit RGB bei meinem Monitor einstellen ohne einen Bildverlust zu bekommen bei DP 1.4.

Habe es nicht länger getestet und fahre 4k 144hz @ 10 bit wie vorgegeben im HDR Mode.
 

Anhänge

  • PG32UQX 2.jpg
    PG32UQX 2.jpg
    553,7 KB · Aufrufe: 68
Naja die einen wollen HDMI 2.1 weil sie ihren TV anschließen wollen , weil es aktuell günstiger ist als Monitore die ähnliches können.
Ist bedingt durch die LG Oleds.

OLEDs machen bestimmt einen tollen Bildeindruck, allerdings sind mir deren Rattenschwänze bezüglich technischer Belange zu lang.
(Ich denke hier an einen bestimmten User im OLED-Forum, der mehr Inhalt in einem einzigen Post packt, als ich im ganzen Leben TV-Geräte-Manuals-Seiten gelesen habe.)
Aber wahrscheinlich ist es wie mit dem Smartphone: telefonieren ist zur Unterfunktion geworden, so wie fernsehen beim Fernseher.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh