[Kaufberatung] 24" für meine Zwecke

H@koSaN

Enthusiast
Thread Starter
Mitglied seit
24.11.2005
Beiträge
2.937
Hallo zusammen,

suche einen 24" Monitor das folgendes bieten sollte;
- Sehr gute bis gute Spiele- sowie Filmtauglichkeit (Blu-Ray)
- HDMI Anschnluss und Full HD
- Lautsprecher, Webcam etc. kann von mir aus weg bleiben (is sogar wünschenswert)
- Marke, LED oder kein LED ist mir ehrlich gesagt egal, hauptsache das Beste was in meinem Budget von 200€ drin ist. Wobei es jetzt hier auch nicht auf den einen oder anderen € ankommt. Aber da ich vorhabe das Komplette System zu ändern, wäre es schön wenn es nicht zu weit über die geplanten 200 € hinaus schießt.

Und IPS Panel etc. ist auch nicht zwingend notwendig, da ich meistens nur direkt davor sitzen werde. Habe mich schon vorab versucht bisschen selber schlau zu machen und mir ist dabei folgendes Modell aufgefallen: Acer S243HLAbmii

Kriegt man hier schon das beste für sein Geld, oder geht es besser?

Gruß und Danke im voraus
H@ko :wink:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das Modell von BenQ sieht interessant aus :) wie sieht es mit dem Gerät in punkto Filme gucken in FullHD aus? Und laut BenQ soll das Teil ja eher für Strategiespiele gedacht sein, nicht man dann dadurch irgendwie Nachteile gegenüber anderen Geräten hat.

Jnd Prad hat ja den Test zu diesem Gerät leider noch nicht veröffentlicht :( und woanders konnte ich auch nichts zum lesen finden.
 
Das Modell von BenQ sieht interessant aus :) wie sieht es mit dem Gerät in punkto Filme gucken in FullHD aus? Und laut BenQ soll das Teil ja eher für Strategiespiele gedacht sein, nicht man dann dadurch irgendwie Nachteile gegenüber anderen Geräten hat.

Jnd Prad hat ja den Test zu diesem Gerät leider noch nicht veröffentlicht :( und woanders konnte ich auch nichts zum lesen finden.

Ja es ist in erster Linie für Strategiespieler gedacht, da es eine entsprechende Voreinstellung gibt. Es gibt auch ein anderes Modell von Benq, den XL2420HT, der in erster Linie für Ego Shooter gedacht ist, hat allerdings auch 120Hz und 3D, kostet aber auch ca. 370€. Guck dir eventuell einige Tests und Reviews zum Benq auf Youtube an.

Ich kann dir jedenfalls sagen, dass mir hier im Forum der Dell U2312HM empfohlen wurde. Vor 2 Tagen ist er angekommen und ich bin begeistert. Eignet sich trotz 8ms sehr gut für Spiele und das IPS Panel sorgt für Filmgenuss und intensive Farben, die DEUTLICH besser als bei einem TN Monitor sind. Aber es kommt natürlich auf den persönlichen Geschmack drauf an. Ich benutze den Monitor wahrscheinlich für die selben Zwecke wie du, spirch Filme/Multimedia und vor allem Zocken. Anfangs war ich skeptisch, aber ich kann dir sagen, dass der Monitor der Hammer ist!!^^
 
Wäre die fehlende HDMI-Schnittstelle ein Nachteil in Punkto Bilduqlität? Weil HDMI deckt ja soviel ich weiss mit 5 Gb Übertragungsrate schon mit Full HD Auflösung schon fast am Limit ist und DVI und VGA da mit HDMI ja noch lange nicht mitkommt.

Wie gesagt, glaube ich zumindest dass das ungefähr so ist.
 
Wäre die fehlende HDMI-Schnittstelle ein Nachteil in Punkto Bilduqlität? Weil HDMI deckt ja soviel ich weiss mit 5 Gb Übertragungsrate schon mit Full HD Auflösung schon fast am Limit ist und DVI und VGA da mit HDMI ja noch lange nicht mitkommt.

Wie gesagt, glaube ich zumindest dass das ungefähr so ist.

Ich hab mich anfangs auch gefragt aber hier im forum wurde mir versichert dass der einzige unterschied zwischen hdmi und dvi der sound ist. Da der dell aber sowieso keine integrierten lautsprecher hat dürfte das kein problem sein.

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Bei FullHD ist die Aussage richtig. Bei 1600p nicht. Da hat HDMI Vorteile, DVI und VGA gegenüber..
 
Bei FullHD ist die Aussage richtig. Bei 1600p nicht. Da hat HDMI Vorteile, DVI und VGA gegenüber..

Beim minitor müsste der unterschied nur in der audioübertragung und ggf. HDCP liegen. Die qualität ist bei dvi und hdmi selbst bei full hd absolut identisch.

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Zitat aus der C't:

Zudem bringt HDMI mit der jüngst erschienenen Revision 1.3 einige Neuerungen wie beispielsweise eine höhere Bandbreite, ein neues Farbraummodell und 48 statt 24 Bit Farbtiefe mit sich. Darauf müssten Sie verzichten, wenn Sie Ihren HD-Zuspieler mittels HDMI-DVI-Adapter an den Monitor anschließen oder ein Gerät mit einer HDMI-1.1- oder -1.2-Schnittstelle besitzen. (spo)

---
Demnach liefert HDMI mehr, als DVI
 
Zuletzt bearbeitet:
Zitat aus der C't:

Zudem bringt HDMI mit der jüngst erschienenen Revision 1.3 einige Neuerungen wie beispielsweise eine höhere Bandbreite, ein neues Farbraummodell und 48 statt 24 Bit Farbtiefe mit sich. Darauf müssten Sie verzichten, wenn Sie Ihren HD-Zuspieler mittels HDMI-DVI-Adapter an den Monitor anschließen oder ein Gerät mit einer HDMI-1.1- oder -1.2-Schnittstelle besitzen. (spo)

---
Demnach liefert HDMI mehr, als DVI

Hm das war mir neu... wenn ich nun einen HDMI Adapter an mein DVI-D Kabel stecke und ihn mit meiner Grafikkarte verbinde, habe ich dann alle Vorteile eines HDMI Kabels? (außer Ton)
 
Das mit dem Adapter weiss ich jetzt auch nicht so genau... Und das was Dozer geschrieben hat, habe ich auch auf der Seite von Hardwareluxx bei diesem einen Thunderbolt-Bericht von Intel gelesen. Das war der Punkt wo die Unterschiede zwischen HDMI, Thunderbolt etc. näher erläutert weurden. Da wurde dann auch auf diese näheren Werte wie 5 GB Übertragungsrate eingegangen.

Will deshalb schon vornherein HDMI sicherheitshalber mit an Board haben. Habe dann auch nebenbei weiter recherchiert und folgendes gefunden: Samsung SyncMaster S24A350H - Preis ab €162,50 - CHIP Online

Was meint ihr? Kann auch ein spiegelndes Display mit diesen kräftigeren Farben sein (mag ich sogar eher mehr, aber kein muss) da ich wie gesagt direkt davor sitze und das Bildschirm keiner direkten Sonneneinstrahlung ausgesetzt ist. Werde auch eher Nachts vorm PC sitzen, da ich tagsüber nur unterwegs bin.
 
Leute Leute :) .. es gibt alleine bei der Signalqualität keine unterschiede, das könnt mir mir glauben :) ..
 
Die Aussagen der CT sind zwar korrekt, führen aber zur Verwirrung.

Man muß bei DVI zwischen Single Link und Dual Link unterscheiden.

Eine Single Link Verbindung entspricht dem, was wir unter HDMI kennen. Genauer gesagt bis 1.2. Dies gilt für die elektrische Beschaffenheit der Signale. Was man in diese Signale packt ist eine völlig andere Sache.
DVI wurde als TFT Schnittstelle entwickelt und daher wurde dort auch kein Sound vorgesehen. HDMI ist eine Multimediaschnittstelle und basiert auf DVI (warum das Rad neu erfinden). Man hat dort aber das essentielle Feature Sound "nachgerüstet". Dies wird dabei einfach in den Daten mit implementiert. Die Signale und die Rahmen, die die Daten transportieren, sind die Gleichen.

Somit kann man auch diese Signale in einen DVI Stecker packen und die, bei Bedarf, auf HDMI adaptieren und zb an den TFT bringen. Das machen heute alle GPUs. (da es, wie gesagt keinen Unterschied HDMI-DVI gibt)
Bei der Entwicklung von DVI hatte man das Problem, dass die Kabel damals nur begrenzt hohe Frequenzen vertragen hatten. Um aber entsprechend hohe Auflösungen zu bringen, hat man einfach 2x DVI gemacht, wenn man so will.
Das ist Dual Link. Damit kann man 1600p fahren und auch 48Bit. (wahlweise)

HDMI geht da einen anderen Weg, bis einschließlich 1.2 war das, wenn man so will, eine normale Single Link DVI Verbindung. Aber wie auch bei DVI, gibt es auch bei HDMI einen erhöhten Bedarf an Bandbreite. Dies wurde mit 1.3 Rechnung getragen, auf zweierlei Wegen.

Zum einen hat man das wie DVI gemacht (ka warum man HDMI am Anfang nur auf Single Link spezifiziert hat, hätte man also auch einfacher und früher haben können), durch den Einsatz von Dual Link. Dafür gibt es einen extra Stecker, welcher einfach nur der normale Stecker ist, nur breiter, weil er noch 8(glaube ich) Pins mehr hat. Man hat sich da also wieder bei DVI bedient, wenn an so will. (was die Technik an sich betrifft) Der andere Weg und hier hat man "Glück" beim Stecker, man hat einfach die Taktrate verdoppelt.

Im Grunde also Verdopplung der Bandbreite durch Verdopplung der Datenpfade oder Taktrate. (im Extremfall könnte man das auch kombinieren, sprich Vervierfachung)
Problem ist, dass sich der gesamte Bereich(der Endgeräte) auf diese Typ A HMDI Stecker (die "Normalen") eingeschossen hat, daher wird es schwer den neuen Stecker einzuführen, wodurch er bisher wenig Bedeutung hat.

Wir halten also Fest, dass man mit 1.3 doppelte Taktrate (340MHz) gegenüber HDMI 1.2 bzw DVI fährt. DVI wurde dafür nicht ausgelegt und ich denke nicht, dass man hier diese Taktrate fahren kann.

Demnach liefert HDMI mehr, als DVI
Daher ist diese Aussage einfach falsch. DVI und HDMI 1.3 können genau das Selbe. Beide bieten 1600p oder (wahlweise) 48bit Farbraum.
CT hat lediglich das aufgezählt, was 1.3 mehr als 1.2 kann. (DVI konnte es aber schon vorher, damit war DVI HDMI(1.2) überlegen)

Schränk man DVI auf Single Link ein, dann passt das wieder, DVI ist aber mehr als SL.

Nehmen wir also an, man hat eine GPU welche ein HDMI Signal mit 340MHz(HDMI1.3) bringt. Dann könnten man dies auf 2 Wegen rausführen. 1. HDMI Stecker 2. DVI Stecker.
Da der DVI Stecker das nicht schafft (müßte man mal testen), führt das zu einem Problem.
Wenn man, so wie Duskfall, das über HDMI macht und dann auf DVI adaptiert, dann hat man wieder das Problem, dass DVI das nicht packt.

Halten wir also wieder fest:
Bis fullHD nehmen sich HDMI und DVI nicht viel. (60Hz)
>fullHD, >60Hz, >24Bit wirds ein Problem. Entweder DL DVI oder HDMI 1.3.

Problem bei HDMI 1.3 ist, dass die Kabel erstmal die 340MHz packen müssen und das ggf. über längere Stecken, das ist ein Problem. DVI ist da Pflegeleichter. Die Kabel sind 10Jahre alt und haben sich bewährt.

@Duskfall
Es gibt keinen Unterschied zwischen DVI und HDMI Kabel. (wenn wir bei den klassischen Varianten bleiben) Beide Kabel sind genau gleich aufgebaut, lediglich der Stecker ist anders. Was du auf diesen Kabel überträgst ist auch egal, weil das Kabel nicht mitbekommt, was du da machst. Du kannst also HDMI und DVI so adaptieren wir du willst, es wird immer passen, auch was den Ton betrifft.

Problemfall sind in der Regel die Signalquellen und -senken. Diese sind oft nicht in der Lage entsprechende Features bereitzustellen. So ist es zB nicht immer möglich über jeden DVI Port einer GPU ein Soundsignal zu holen, oder man kann auch nicht immer eine HDMI quelle über einen DVI Stecker an einen TV oder TFT anschließen. Hier sind entsprechende erwartete Bildraten der Geräte zu beachten.

@hakosam
Spiegelnd würde ich mir nur antun, wenn du wirklich in einem gänzlich abgedunkelten Zimmer sitzt OHNE andere Lichtquellen und ohne reflektierende Elemente im Hintergrund. (ich habe nen glareTFT hier und sowas ist echt ein graus)
 
Zuletzt bearbeitet:
Danke für die gute Erläuterung.. ist gespeichert. :)
Dann bleibt lediglich der Vorteil des ggf. längeren/flexibleren Kabels.
 
Ähm, die Kabel sind die genau die Gleichen. Es ist der selbe Aufbau usw.

Was nun für nen Stecker dran ist, ist dabei egal. Querschnitt und auch Beschaffenheit, sprich Flexibilität, ist das Gleiche. Dadurch, dass die Kabel im Laufe der Zeit verbessert wurden, denke ich auch, dass man DVI auf mehr als 10m fahren kann, wenn man die passenden(guten) Kabel hat.
 
Mmh, also gibt es auch "flexible" DVI Kabel? Aha..
 
Klar, das ist immer davon abhängig welche Qualität man fährt. Kabel bei TFTs zB, sind immer relativ billig und sehr dünn und damit auch flexibel.
 
Meins hier ist dick und starr.
Hab dank für die gute Erläuterung.
 
Welcher Moni sollst denn jetzt nun sein? :fresse: Ist das oben verlinkte Samsung i.O.?

Habe mal nochmal alles durch gerechnet und bei mir wäre wirklich nicht mehr als 200 - 220€ für ein Monitor drin, da ich ein komplettes System aufbaue und das Geld nun mal überall "verplant" ist. Werde mir sowieso schon die Grafikkarte später kaufen da das Budget knapp ist, da will ich jetzt auch nicht wieder irgendwo mehr ausgeben :-[
 
Die Aussagen der CT sind zwar korrekt, führen aber zur Verwirrung.

Man muß bei DVI zwischen Single Link und Dual Link unterscheiden.

Eine Single Link Verbindung entspricht dem, was wir unter HDMI kennen. Genauer gesagt bis 1.2. Dies gilt für die elektrische Beschaffenheit der Signale. Was man in diese Signale packt ist eine völlig andere Sache.
DVI wurde als TFT Schnittstelle entwickelt und daher wurde dort auch kein Sound vorgesehen. HDMI ist eine Multimediaschnittstelle und basiert auf DVI (warum das Rad neu erfinden). Man hat dort aber das essentielle Feature Sound "nachgerüstet". Dies wird dabei einfach in den Daten mit implementiert. Die Signale und die Rahmen, die die Daten transportieren, sind die Gleichen.

Somit kann man auch diese Signale in einen DVI Stecker packen und die, bei Bedarf, auf HDMI adaptieren und zb an den TFT bringen. Das machen heute alle GPUs. (da es, wie gesagt keinen Unterschied HDMI-DVI gibt)
Bei der Entwicklung von DVI hatte man das Problem, dass die Kabel damals nur begrenzt hohe Frequenzen vertragen hatten. Um aber entsprechend hohe Auflösungen zu bringen, hat man einfach 2x DVI gemacht, wenn man so will.
Das ist Dual Link. Damit kann man 1600p fahren und auch 48Bit. (wahlweise)

HDMI geht da einen anderen Weg, bis einschließlich 1.2 war das, wenn man so will, eine normale Single Link DVI Verbindung. Aber wie auch bei DVI, gibt es auch bei HDMI einen erhöhten Bedarf an Bandbreite. Dies wurde mit 1.3 Rechnung getragen, auf zweierlei Wegen.

Zum einen hat man das wie DVI gemacht (ka warum man HDMI am Anfang nur auf Single Link spezifiziert hat, hätte man also auch einfacher und früher haben können), durch den Einsatz von Dual Link. Dafür gibt es einen extra Stecker, welcher einfach nur der normale Stecker ist, nur breiter, weil er noch 8(glaube ich) Pins mehr hat. Man hat sich da also wieder bei DVI bedient, wenn an so will. (was die Technik an sich betrifft) Der andere Weg und hier hat man "Glück" beim Stecker, man hat einfach die Taktrate verdoppelt.

Im Grunde also Verdopplung der Bandbreite durch Verdopplung der Datenpfade oder Taktrate. (im Extremfall könnte man das auch kombinieren, sprich Vervierfachung)
Problem ist, dass sich der gesamte Bereich(der Endgeräte) auf diese Typ A HMDI Stecker (die "Normalen") eingeschossen hat, daher wird es schwer den neuen Stecker einzuführen, wodurch er bisher wenig Bedeutung hat.

Wir halten also Fest, dass man mit 1.3 doppelte Taktrate (340MHz) gegenüber HDMI 1.2 bzw DVI fährt. DVI wurde dafür nicht ausgelegt und ich denke nicht, dass man hier diese Taktrate fahren kann.


Daher ist diese Aussage einfach falsch. DVI und HDMI 1.3 können genau das Selbe. Beide bieten 1600p oder (wahlweise) 48bit Farbraum.
CT hat lediglich das aufgezählt, was 1.3 mehr als 1.2 kann. (DVI konnte es aber schon vorher, damit war DVI HDMI(1.2) überlegen)

Schränk man DVI auf Single Link ein, dann passt das wieder, DVI ist aber mehr als SL.

Nehmen wir also an, man hat eine GPU welche ein HDMI Signal mit 340MHz(HDMI1.3) bringt. Dann könnten man dies auf 2 Wegen rausführen. 1. HDMI Stecker 2. DVI Stecker.
Da der DVI Stecker das nicht schafft (müßte man mal testen), führt das zu einem Problem.
Wenn man, so wie Duskfall, das über HDMI macht und dann auf DVI adaptiert, dann hat man wieder das Problem, dass DVI das nicht packt.

Halten wir also wieder fest:
Bis fullHD nehmen sich HDMI und DVI nicht viel. (60Hz)
>fullHD, >60Hz, >24Bit wirds ein Problem. Entweder DL DVI oder HDMI 1.3.

Problem bei HDMI 1.3 ist, dass die Kabel erstmal die 340MHz packen müssen und das ggf. über längere Stecken, das ist ein Problem. DVI ist da Pflegeleichter. Die Kabel sind 10Jahre alt und haben sich bewährt.

@Duskfall
Es gibt keinen Unterschied zwischen DVI und HDMI Kabel. (wenn wir bei den klassischen Varianten bleiben) Beide Kabel sind genau gleich aufgebaut, lediglich der Stecker ist anders. Was du auf diesen Kabel überträgst ist auch egal, weil das Kabel nicht mitbekommt, was du da machst. Du kannst also HDMI und DVI so adaptieren wir du willst, es wird immer passen, auch was den Ton betrifft.

Problemfall sind in der Regel die Signalquellen und -senken. Diese sind oft nicht in der Lage entsprechende Features bereitzustellen. So ist es zB nicht immer möglich über jeden DVI Port einer GPU ein Soundsignal zu holen, oder man kann auch nicht immer eine HDMI quelle über einen DVI Stecker an einen TV oder TFT anschließen. Hier sind entsprechende erwartete Bildraten der Geräte zu beachten.

@hakosam
Spiegelnd würde ich mir nur antun, wenn du wirklich in einem gänzlich abgedunkelten Zimmer sitzt OHNE andere Lichtquellen und ohne reflektierende Elemente im Hintergrund. (ich habe nen glareTFT hier und sowas ist echt ein graus)

Danke füe die ausdührliche erklärung. Hab ich das richtig verstanden dass dvi dual link genau das selbe wie hdmi bietet was signal und bilqualität betrifft? Auch auf einer auflösung von full hd?

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Definiere Signal und Bildqualität.

Es gibt, von der Signalaufbereitung her, keinen Unterschied zwischen DVI und HDMI. Beide basieren auf dem TMDS Standard von Silicon Image. Beide sind in der Lage full HD zu liefern. (eigentlich etwas mehr)
Beide bringen 24Bit Farbraum (ggf. auch 48Bit bei HDMI 1.3)

Die Signalqualität ist von den Treiberstufen abhängig. Dort gibt es zwar entsprechende Grenzwerte in den SPECs, aber ein Chip ist mal besser als der andere. Eine Bildqualität gibt es in diesem Sinne nicht mehr, es werden immer die selben Bits für einen bestimmten Bildpunkt übertragen. Das sieht völlig gleich aus, und werden bei der Übertragung auch nicht verfälscht, wie es zB bei VGA der Fall wäre. Daher ist Rot immer Rot und nicht wie bei VGA ggf. nur nen bisschen Rot, weil der Pegel manipuliert wurde.
 
Definiere Signal und Bildqualität.

Es gibt, von der Signalaufbereitung her, keinen Unterschied zwischen DVI und HDMI. Beide basieren auf dem TMDS Standard von Silicon Image. Beide sind in der Lage full HD zu liefern. (eigentlich etwas mehr)
Beide bringen 24Bit Farbraum (ggf. auch 48Bit bei HDMI 1.3)

Die Signalqualität ist von den Treiberstufen abhängig. Dort gibt es zwar entsprechende Grenzwerte in den SPECs, aber ein Chip ist mal besser als der andere. Eine Bildqualität gibt es in diesem Sinne nicht mehr, es werden immer die selben Bits für einen bestimmten Bildpunkt übertragen. Das sieht völlig gleich aus, und werden bei der Übertragung auch nicht verfälscht, wie es zB bei VGA der Fall wäre. Daher ist Rot immer Rot und nicht wie bei VGA ggf. nur nen bisschen Rot, weil der Pegel manipuliert wurde.

Also ist es im prinzip das selbe ob ich dvi-d benutze oder hdmi. wenn ich jetzt hdmi anstatt dvi nehmen würde, würde ich keine qualitätsverbesserungen feststellen? Wie weiss ich ob mein dvi kabel 48bit farbraum bietet?

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Zuletzt bearbeitet:
Es gibt wie gesagt bei Digital keinen Qualitätsunterschied und damit auch keine Verbesserung.

Für 48Bit Farbraum brauchst du Dual Link DVI, dazu brauchst du ein 24+x Kabel. Dort muss jeder Konrakt des großen Kontaktfeldes durchkontaktiert sein.
Aber was erhoffst du dir daruch? Ist deine GPU in der Lage ein 48Bit Bild zu generieren? Kann dein TFT 48Bit Farbtiefe(mehr als 24Bit) darstellen?

Nicht alles was möglich ist, ist auch nutzbar.
 
Zuletzt bearbeitet:
Es gibt wie gesagt bei Digital keinen Qualitätsunterschied und damit auch keine Verbesserung.

Für 48Bit Farbraum brauchst du Dual Link DVI, dazu brauchst du ein 24+x Kabel. Dort muss jeder Konrakt des großen Kontaktfeldes durchkontaktiert sein.
Aber was erhoffst du dir daruch? Ist deine GPU in der Lage ein 48Bit Bild zu generieren? Kann dein TFT 48Bit Farbtiefe(mehr als 24Bit) darstellen?

Nicht alles was möglich ist, ist auch nutzbar.

Der Dell U2312HM,den ich habe, müsste Dual Link sein. Dieser ist am DVI-I Eingang meiner Radeon HD 7970 angeschlossen. Wie kann ich den überprüfen ob dies möglich ist?
 
Überprüfen dass was möglich ist?

Du hast ein 18Bit Panel, damit macht es wenig Sinn hier auf einen erweiterten Farbraum bei der Übertragung zu setzen. Das ist erst sinnvoll, wenn man Panels einsetzt, welche mehr als 8Bit pro Farbe auflösen.
 
Überprüfen dass was möglich ist?

Du hast ein 18Bit Panel, damit macht es wenig Sinn hier auf einen erweiterten Farbraum bei der Übertragung zu setzen. Das ist erst sinnvoll, wenn man Panels einsetzt, welche mehr als 8Bit pro Farbe auflösen.

Mich würde mal interessieren, welche Panels mit 48Bit Farbraum arbeiten bzw. was ist das "Normale" und am gängigsten?
 
Ganz einfach:
normale TFTs 18Bit
bessere TFTs 24Bit
highend TFTs 30Bit

24Bit ist Truecolor, sprich 16mio Farben. 30Bit sind 1mio Farben. Es macht irgendwann keinen Sinn mehr hier höchere Farbtiefen zu errechnen und zu tranferieren. 18Bit sind für normale Arbeiten an TFTs völlig ausreichend. Das sind aber auch nur ~250k Farben, also nicht sonderlich viel. Daher sind diese bei Arbeiten "mit" Farbe nicht mehr ausreichend. Da muß dann also min. 24Bit her. Für echte Bildbearbeitungsprofis führt kein Weg an 30Bit TFTs vorbei, da man hier davon ausgehen kann, dass Rot auch wirklich Rot ist und man sämtliche Abweichungen "erkennt".

Selbst der 4k TFT von Eizo, den man getrost als Highend bezeichnen darf, kann nur 30Bit darstellen. (kann aber wohl 48Bit verarbeiten, müßte man mal nachlesen)
 
Fürs zocken und multimedia zwecke und filme dürften dann 18bit wohl vollkommen ausreichen oder? Ist überhaupt ein "spürbarer" unterschied zwischen 18 und 24 bit bei oben genannter nutzung?

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
 
Kommt drauf an, was man spielt. Es gibt sicherlich Spiele, da steht die Farbenvielfallt im Vordergrund und da kann ich mir schon vorstellen, dass man bei mehr als 250k Farben einen besseren Eindruck bekommt. Ansonsten denke ich, dass es völlig ausreichend ist.
 
@Hako
Was ist denn mit 16:10 und 16:9?
Warum muß der TFT HDMI können?
Was ist mit Displayport als zukünftige Schnittstelle?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh