[Kaufberatung] 24" für meine Zwecke

Displayport? Habe ich wieder was verpasst? :hmm: Also HDMI sollte es eben m.M. nach wegen der FullHD Auflösung haben. Aber wurde ja glaube ich schon erwähnt das dies nicht zwingend notwendig ist. Was ich mit meinem knowhow was Monitore betrifft zwar nicht nachvollziehen kann, es aber zu stimmen scheint. Denn ansonsten würde ja Dell darauf nicht verzichten wollen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie gesagt, fullHD hat nichts mit HDMI zu tun. DVI konnte damals schon mehr als fullHD verarbeiten. Man hat eben, wie gesagt, HDMI nur entwickelt, da man was brauchte, was für andere Aplikationen taugt und auch DAU fähig ist.

Ich habe hier ein paar TFTs, welche mehr als FullHD machen (1920x1200) und diese haben kein HDMI, also alles easy. (ich habe ja nun breit erklärt, was geht und was nicht geht)

DVI Ist ja nun bekannt. Displayport soll DVI im PC Bereich ablösen, da es mehr Bandbreite zulässt und auch so noch ein paar Vorteile bietet. Um es überspitzt zu sagen, es kann sein, dass du in 5 Jahren nur noch TFTs bekommst, welche Displayport haben. (wird nicht passieren, fallback wird noch ne ganze Weile möglich sein)
 
Kommt drauf an, was man spielt. Es gibt sicherlich Spiele, da steht die Farbenvielfallt im Vordergrund und da kann ich mir schon vorstellen, dass man bei mehr als 250k Farben einen besseren Eindruck bekommt. Ansonsten denke ich, dass es völlig ausreichend ist.

In der beschreibung vom dell u2312hm steht dass er 16,7 millionen farben bietet (quelle amazon). Das müssten dann doch 24 bit sein und nicht 18 oder?

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Du hast ein 18Bit Panel, damit macht es wenig Sinn hier auf einen erweiterten Farbraum bei der Übertragung zu setzen. Das ist erst sinnvoll, wenn man Panels einsetzt, welche mehr als 8Bit pro Farbe auflösen.
Jein. Zunächst muss man sich darüber klar sein, dass die maximale Farbtiefe in der Zuspielung derzeit mit einigen Verrenkungen (!) auf 10bit pro Kanal beschränkt ist. Unabhängig von bestimmten Werbeaussagen der Kartenhersteller ist das zudem aktuell nur mit non Consumer Karten möglich (ATI FirePro, nVidia Quadro) und auf vglw. wenig Anwendungen beschränkt, die das auch explizit nutzen. Die native Panelansteuerung ist in dem Zusammenhang gar nicht so entscheidend. Denn echte 10bit Panels sind auch unter den High-Endern extrem selten, auch wenn gerne schnell mit diesen Begrifflichkeiten gearbeitet wird*. Wichtig ist die Präzision in den Verarbeitungsschritten vor der eigentlichen Panelansteuerung (LUT >= 10bit). Damit vermeidet man Tonwertverluste gegenüber dem Eingangssignal (vernünftige FRC-Implementierungen sind dann für den Übergang zum Panel die Regel). Gerade bei den heute üblichen RGB-Signalen mit 8bit pro Kanal ist das wichtig. Der Unterschied zwischen nativem 8bit und 10bit Panel ist visuell faktisch nicht vorhanden. Sogar von der angesprochenen Zuspielung in 10bit pro Kanal profitiert man in vergleichbarem Umfang.

Selbst ein natives 6bit Panel kann, gekoppelt mit präziser Verarbeitung, erstaunlich gute Ergebnisse erzielen. Ein Beispiel wären bestimmte Computerbildschirme von Eizo mit 6bit C-PVA/ PLS-Panel und 10bit LUT. Tonwertverluste gegenüber der Zuspielung mit 8bit pro Kanal werden auch hier vermieden und das FRC Dithering bleibt "unauffällig gefällig".


Gruß

Denis

*
Insbesondere da das FRC inzwischen meist panelintern umgesetzt ist
 
Zuletzt bearbeitet:
@duskfall
Es ist nur ein (3x) 6Bit Panel, welches die Zwischenfarben interpoliert. Damit erzeugt man den 16mio Farbeindruck, hat aber letztendlich nur die 250k. An sich kein Nachteil, nur nicht ganz so präzise.

Wenn man solche Panels einsetzt, mußte man sich fragen, welchen Wirkung es hat, hier größere LUTs und damit größere zu übertragende Farbtiefen zu setzen.

Sicherlich ist es sinnvoll, bei der Übertragung ein möglichst großes Maß an "Auflösung" zu fahren. Sehe aber bei mehr als 24Bit nur in Einzelfällen einen Vorteil. Das angesprochende 4k Display von Eizo setzt auf die (von Sailor) angesprochenen großeren LUTs. (wie gesagt, ich denke, die fahren mit 48Bit)

Es ist also wie immer eine Frage der Nutzung. Im professionellen Umfeld ist HDMI keine Alternative und hier wird nachwievor auf DVI gesetzt. (langsam abgelöst durch DP)
 
Zuletzt bearbeitet:
Wenn man solche Panels einsetzt, mußte man sich fragen, welchen Wirkung es hat, hier größere LUTs und damit größere zu übertragende Farbtiefen zu setzen.
Die Bittiefe der LUT kann man erstmal von der Präzision in der Panelansteuerung "abkoppeln". Die EBV-Bildschirme nutzen aus guten Gründen Tabellen mit, wie von dir angesprochen, 16bit Präzision pro Kanal (bzw. inzwischen häufig eine 3D-LUT), während ganz am Ende der Verarbeitungskette i.d.R. weiterhin "nur" ein 8bit Panel steht. Vorteile sind, wie angedeutet, die Vermeidung von Tonwertverlusten gegenüber dem Eingangssignal und eine möglichst exakte Einhaltung der gewünschten Charakteristik. Bei den erwähnten Midrange Eizos mit 6bit Panel und 10bit LUT ist das nicht anders. Tatsächlich bleibt der volle Tonwertumfang des Eingangssignals erhalten, unabhängig von den Einstellungen über das OSD.

Gruß

Denis
 
Zuletzt bearbeitet:
Was das bringt weiß ich auch, die Frage ist, welche Wirkungs es hat, hier eine Präzision X zu fahren. In der Regel sind es im übrigen nur 6-8Bit Panels, da darf die Wirkung einer 16Bit LUT schon stark angezweifelt werden.
Es bringt nämlich keine Vorteil hier ein übermäßige Genauigkeit zu fahren, während hinten "nichts" rauskommt.

Der überwiegende Teil der User hier werden wohl 6Bit Panels einsetzen und da ist eine 8Bit LUT schon ausreichend, eine 10Bit LUT dürfte da nur noch begrenzt Vorteile bieten, eine 16er kann man dann als Voodoo bezeichnen.
 
@duskfall
Es ist nur ein (3x) 6Bit Panel, welches die Zwischenfarben interpoliert. Damit erzeugt man den 16mio Farbeindruck, hat aber letztendlich nur die 250k. An sich kein Nachteil, nur nicht ganz so präzise.

Wenn man solche Panels einsetzt, mußte man sich fragen, welchen Wirkung es hat, hier größere LUTs und damit größere zu übertragende Farbtiefen zu setzen.

Sicherlich ist es sinnvoll, bei der Übertragung ein möglichst großes Maß an "Auflösung" zu fahren. Sehe aber bei mehr als 24Bit nur in Einzelfällen einen Vorteil. Das angesprochende 4k Display von Eizo setzt auf die (von Sailor) angesprochenen großeren LUTs. (wie gesagt, ich denke, die fahren mit 48Bit)

Es ist also wie immer eine Frage der Nutzung. Im professionellen Umfeld ist HDMI keine Alternative und hier wird nachwievor auf DVI gesetzt. (langsam abgelöst durch DP)

Hm wieso steht in den beschreibungen dann eigentlich 16,7 millionen farben? Habe ich mit dem dell sehbare unterschiede im vergleich zu einem 24bit panel? Und sehe ich nun 16,7 mio farben oder nur 250k? Kenn mich nicht mehr aus ;)

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Keine Ahnung warum sie das hinschreiben. Würdest du nicht hinschreiben, dass ein Produkt über tausend Umwege und Tricks eine bestimmte Fähigkeit hat? Du willst doch was verkaufen.

Das Panel kann real nur 18Bit darstellen, ist aber in der Lage durch geschickte Interpolation einen erhöhten Farbraum vorzuspielen, für das menschliche Auge. Es wird also die Unzulänglichkeit ausgenutzt, analog zu den bekannten "25" Bildern pro Sekunde. Die Bewegung ist eigentlich nicht flüssig, sieht aber, aufgrund der "Unfähigkeit" der Augen, so aus als ob.

Daher kannst du dich fragen, was siehst du nun wirklich. Dargestellt nur 18Bit werden, zu erkennen du glaubst 24Bit, würde Joda sagen.

http://de.wikipedia.org/wiki/Dithering_(Bildbearbeitung)

Beschreibt das ganze etwas.

EDIT:
Mach dir keinen Kopf um deinen TFT, der ist nicht von schlechten Eltern.
 
Zuletzt bearbeitet:
Ich frag mich eben weil die farben auf meinem alten lcd tv deutlich kräftiger erscheinen als auf dem dell... Zum beispiel sehen die gelben ordner auf dem dell blasser aus als auf dem lcd tv. woran könnte das liegen?

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Das kann viele Gründe haben, falsch eingestellt Farbtiefe oder falsche Kalibrierung des neuen oder des alten TFTs. Mach dazu dann einen neuen Thread auf. Das ist wohl weit vom Thema neuer TFT oder Schnittstelle weg.
 
So, habe nun weiter verglichen und gelesen und gelesen und gelesen... Scheint wohl wirklich nichts über die vorgeschlagenen DELL Modelle (UD2412 bzw. UD2312HM) zu gehen. Hätte dazu nun paar Fragen.

- Werde vorerst die Onboard Grafik der Z77 Boards benutzen (womit ich dann auch BluRay Filme gucken möchte) und die besitzen ja nur DVI und HDMI. Würden Unterschiede im Punkto Bildqualität entstehen wenn ich da ein Adapter dazwischen klemme, oder einfach DVI benutzen und gut is?

- Wie in der 1.Frage schon geschrieben, möchte ich Filme/Spiele in Full HD Auflösung gucken/spielen. Da wäre dann doch eine 16:9 (original Full HD) besser oder nicht? Wobei auch hierbei zugunsten des Gamers 16:10 und zum Vorteil des Filmliebhabers 16:9 empfohlen wird auflsungs6nh.jpg

Anknüpfend dazu: Ist ein Film noch ansehnlich wenn an der original Auflösung von Full HD "rumgespielt" wird und es anstatt 1920x1080 auf 1920x1200 läuft?

Alles in einem beruht sich meine Entscheidung auf folgenden Text von Prad.de (entnommen aus dem Test zum DELL U2312HM)

Alles in allem lohnt sich der Aufpreis für den U2412M nur, wenn man das 16:10-Seitenverhältnis wirklich braucht. In den meisten anderen Bereichen liefert der U2312HM gleichwertige oder sogar bessere Ergebnisse und kann als echter Allrounder bezeichnet werden. Auch der Preis dürfte sehr interessant werden: Erste deutsche Händler listen den Monitor derzeit für 220 €. Wenn das Gerät erst einmal in ausreichenden Mengen verfügbar ist, dürfte der Straßenpreis noch etwas niedriger liegen. Mehr Leistung wird man für dieses Geld nur schwerlich finden.

Was meint ihr? günstige Alternative zum U2412 mit bisschen kleinerem Display (fällt das überhaupt auf einer Entfernung 50-60 cm zum Bildschirm auf?) oder doch lieber die größere Variante mit saftigen 80 € Aufpreis?
 
Wie gesagt, digital ist digital. WEnn du nicht gerade 20 dieser Adapter nimmst, ist alles das gleiche. (aber warum hin und her adaptieren?)
Der TFT hat DVI, du hast ein DVI Kabel dabei, was willst du mit HDMI?

Du kannst auf beiden TFTs gamen und videoen. Beim Video hast du dann halt oben und unten einen zusätzlich schwarzen Rand von 60px
Es wird also nix gezogen oder sowas.

Vorteil von 16:10 du hast mehr Workspace, zum Arbeiten, etc. (auch past mehr auf die Browserseite für zB HWL)

Ich würde mir keinen 16:9 TFT kaufen zB, ich arbeite aber auch mit den Teilen und da brauche ich Platz und das sind immer Pixel, je mehr Pixel, desto besser. Ob du den Preis bezahlen möchtest, keine Ahnung. Ich habe 4x HP Compaq LA2405wg, 24" (NL773AT/NL773AA) | Geizhals.at Deutschland und würde ihn jederzeit wieder kaufen.
 
In der Regel sind es im übrigen nur 6-8Bit Panels, da darf die Wirkung einer 16Bit LUT schon stark angezweifelt werden.
Ersteres ist in jedem Fall korrekt. Hatte ich ja auch vermerkt. Echte 10bit Panels sind die Ausahme, auch bei den High-Endern – selbst wenn mit einem 10bit Panel geworben wird. Letzteres hat auch damit zu tun, dass das FRC heute meist panelintern statt in einer Stufe davor (Scaler) umgesetzt ist. Ob es gleich eine 16bit LUT sein muß, ist eine andere Frage, aber in dem Bereich heute üblich. Ab einer 12bit LUT ist man eigentlich grundsätzlich auf der sicheren Seite. Wie auch immer: Der Unterschied in Bezug auf die Panelansteuerung danach ist für den Benutzer ziemlich transparent, und ein Blindtest würde selbst bei einer Zuspielung mit jeweils 10bit pro Kanal in solchen Setups keine eindeutigen Vorteile für das native 10bit Panel bringen. Man profitiert in vergleichbarem Umfang.

Der überwiegende Teil der User hier werden wohl 6Bit Panels einsetzen und da ist eine 8Bit LUT schon ausreichend, eine 10Bit LUT dürfte da nur noch begrenzt Vorteile bieten,
Bringt schon deutliche Vorteile. Schau dir wirklich mal die erwähnten Eizo-Modelle (EV2333, FS2331, FS2332) an. Es kommt trotz 6bit Panel zu keinen sichtbaren Tonwertverlusten gegenüber der Zuspielung, egal was du im OSD einstellst. Gradations- und Neutralitätseigenschaften sind für diese Klasse ebenfalls sehr gut.

Gruß

Denis

*
 
Zuletzt bearbeitet:
Ok, habe mich jetzt für den U23HM entschieden. Soll jetzt nicht wegen dem einen Zoll Unterschied dran scheitern. Das Teil wird wohl meinen Multimedia Anforderungen gerecht ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh