Monitore nur noch ein fauler Kompromiss?

Qimple

Enthusiast
Thread Starter
Mitglied seit
12.09.2009
Beiträge
709
Hallo Community,

ich habe von einer GTX 560 auf eine RX 480 gewechselt. Dann kamen Probleme die ich vorher nicht hatte.
Habe einen Ultrasharp 2312hm mit IPS Panel.

1. Tearing
2. Flimmern

Da stellt sich mir die Frage, wieso jetzt? Hatte ich vorher als die GTX 560 neu war, doch auch nur 40-60 FPS.
Flimmern kannte ich bisher gar nicht, hab mich schon gefragt wieso Monitore Flickerfree sein müssen.

Auf mich wirkt das wie ein konstruiertes Problem, wofür man zufälligerweise eine Lösung in der Schublade hatte. *Verschwörungstheorie ende*

Sei es drum, eine Lösung muss gekauft werden. Nur welcher?

Mal abgesehen von der Paneltechnik und ihren Vor- und Nachteilen. Sieht es doch so aus, das in der Theorie einen das eine Panel gefällt, aber dann durch Produktionstreuung oder generellen Konstruktionfehlern,
direkt wieder uninterssant wird.

Ich kann mich nicht erinnern, das ich jemals vor einem Monitorkauf so verunsichert war wie heute. Dazu kommt noch die Preisspirale die mich an die 90er Jahre erinnert, als ich für einen IYAMA 17" 1500DM bezahlt habe,
der passende 486 war in etwa genauso teuer. Mit dem unterschied ich wusste Streifenmaske ist besser als Lochmaske, die hauchdünnen 2 Linien, die bei IYAMA dabei waren, hat man fast nicht gesehen ( konnte man nur bei komplett weißen Hintergrund sehen) und in Kauf genommen.

Die LCD Technologie ist Segen und Fluch zugleich. Hat man uns doch weiß gemacht, das 60Hz genügen, weil man ja keine 100Hz mehr bräuchte damit es Flickerfree ist.

1. Sache die direkt aufgefallen ist zum alten CRT war der Mauszeiger, der über den Desktop ruckelte. Schwarzwert? Lächerlich zum CRT.
2. Gibt es mitlerweile schon 240/480Hz TFT´s. Komisch 60Hz sollten doch genügen. War nur eine Marketinglüge.

OLED sieht am vielversprechensten aus. Dumm nur, das man nach 5 Jahren pech haben kann, weil das organische Material dann ausbleicht.

Ganz ehrlich, man hat zwischen CRT und TFT nur eines wirklich verbessert, das ist die Größe und Tiefe. Schwarzwerte wurden jetzt mit OLED endlich nach 15 Jahren erreicht.

120 Hz hat mein CRT in Super VGA auch schon geschafft. Natürlich haben wir jetzt keine runden Ecken mehr und auch höhere Auflösungen.

Trotz alledem kann man sich nur auf Kompromisse einlassen. Geschwindigkeit, Farbtreue, Schwarzwert oder eine Mischung mit Abstrichen aus allem.

Und das beste daran, es gibt ein Wettrennen, wer die Probleme die TFT mitgebracht hat, nach 20 Jahren endlich ausmerzt zu einem stolzen Preis.

MfG
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Amen! :hail: ;)

Da sind viele gute Gedanken dabei und vor allem simple Beobachtungen, wenn man die ganze Zeit aktiv miterlebt hat.
 
"
Die LCD Technologie ist Segen und Fluch zugleich. Hat man uns doch weiß gemacht, das 60Hz genügen, weil man ja keine 100Hz mehr bräuchte damit es Flickerfree ist. "

Bisschen was bringst du hier aber durcheinander, die vielen Hertz hast du bei CRT gebraucht, damit es nicht flimmert, richtig. Aber ein LCD würde auch mit 1Hz nicht flimmern, da es ein Hold-Type Display ist, welches das Bild nicht ständig wieder aufbauen muss.
Die vielen 144Hz Bildschirme richten sich vorrangig an Gamer für flüssigere Bewegungen, haben aber absolut nix mit Flimmern zu tun.

"2. Gibt es mitlerweile schon 240/480Hz TFT´s. Komisch 60Hz sollten doch genügen. War nur eine Marketinglüge."

Das hat nix mit Marketinglüge zu tun, 60Hz reichen auch immer noch aus, nur der geneigte Zocker wird halt mehr wollen. Ich komme auch beim Zocken immer noch prima mit 60Hz zurecht, da von mir gewünschte Features nur von 60Hz Monitoren erfüllt werden.

Und von CRT hat sich nicht nur Größe und Tiefe verbessert sondern vorallem Bildschärfe(!), digitale Pixel-für-Pixel Anzeige, Bildhelligkeit, Flimmerfreiheit, bessere Entspiegelung, geringerer Stromverbrauch und die fehlende Einbrenngefahr. Besonders zum Arbeiten ist ein LCD einem CRT massiv überlegen. OLED fügt nur die perfekten Schwarzwerte, perfekte Blickwinkel hinzu sowie die massiv besseren Reaktionszeiten, das ist aber beides nur für Gaming/Video interessant, also eher im Fernseherbereich oder dann später im Gaming-Monitor-Bereich. Das geht dann aber zulasten der Einbrenn-Freiheit, die OLED-Telefone zeigen das ja schön, was das für ein Problem ist. Ach und bei Vollweiß (Also Office, surfen und co) entwickeln sich die schönen OLEDs zu echten Stromfressern. Merke ich auch schön an meinem Galaxy S7, bei voller Helligkeit und weißen Webseites ist der Akku so schnell leer, das hab ich noch nie erlebt bei einem vergleichbaren LCD-Telefon.
 
Zuletzt bearbeitet:
Bisschen was bringst du hier aber durcheinander, die vielen Hertz hast du bei CRT gebraucht, damit es nicht flimmert, richtig. Aber ein LCD würde auch mit 1Hz nicht flimmern, da es ein Hold-Type Display ist, welches das Bild nicht ständig wieder aufbauen muss.
"Diese Technologie beseitigt vollständig das Bildschirmflimmern durch die Integration von DC-Modulation der LED-Backlights." Auszug für die Bedeutung Flickerfree.

Das hat nix mit Marketinglüge zu tun, 60Hz reichen auch immer noch aus, nur der geneigte Zocker wird halt mehr wollen.
Die Technologie war zu diesen Zeitpunkt einfach noch nicht ausgereift. Hätten die rangeschrieben, das 60Hz nicht so flüssig sind wie 100-120Hz CRT beim Zocken, dann hätte es kein Gamer gekauft.

Das geht dann aber zulasten der Einbrenn-Freiheit, die OLED-Telefone zeigen das ja schön, was das für ein Problem ist
(CRT)und die fehlende Einbrenngefahr
Merkst selbst oder? Da korrigiert man den Schwarzwert mit den Schwächen der älteren CRT Technologie.

Wenn Tearing stört dann die Vertikale Synchronisation kurz V-Sync im Treiber/Spiel aktivieren. Wenn damit der Input Lag stört dann hilft ein FreeSync Monitor.
Hab zum Spaß gestern mal meinen IYAMA angeschlossen und brauche kein V-Sync, habe kein Tearing und es läuft flüssig. Und das Teil ist schon über 25 Jahre alt.

Flimmerfreiheit wurde ja mit schlechter LED Hintergrundbeleuchtung verlagert.

Worauf ich hinaus will, das die TFT Technolgie viele Vorteile mitgebracht hat, aber leider auch mit vielen Extras die Schwächen ausbügeln muss zu einen stolzen Preis. Und das mit Problemen die man vorher nicht kannte. :d
 
Es ist diese Grundhaltung alles in ‚schwarz…weiß‘ , ‚gut…böse‘ , ‚Vorteil…Nachteil‘ kategoriesieren zu wollen.
Aber es ist halt sehr subjektiv.
Ein Rennauto ist sehr schnell, aber man kriegt kein Klavier rein.
In einen Lieferwagen passt ein Klavier, ist aber lahm.
Denke: 'Warum bauen die nicht einfach mal nur noch Autos, die beides können.
Na, wenn da mal nicht die ………………………. (<-Platz zum Ausfüllen, je nach Gemütslage oder Weltanschauung) was dran gedreht haben, von dem wir nix wissen dürfen.‘

TFT-Panels und CRT-Mattscheiben sind grundverschiedene Technologien.
Wir picken uns nun was heraus, was unser Auge als ‚Eigenschaft‘ der Einen oder der Anderen Technologie wahrnimmt, bewerten es -> ‚gut‘ oder ‚schlecht‘…
und stellen wahllos einzelnde bewertete, also subjektive, Eigenschaften gegenüber.
Ja, ein CRT hat tolles ‚schwarz‘. Einfach weil von hinten überhaupt kein Licht auf diese Stelle der Mattscheibe trifft.
Beim TFT nun ist die gesamte Fläche hinter dem Panel hell!!! ausgeleuchtet. Die armen TFT-Pixel im Panel müssen sich anstrengen möglichst ‚undurchsichtig‘ zu werden, während im Lichtkasten ein gleißend weißes Licht strahlt.
Aber dank unserer Vorteil-Nachteil-Liste lässt sich doch glasklar fordern: ‚Warum machen die TFT-Hersteller es nicht einfach so, wie damals bei den CRTs? Es braucht doch einfach nur ‚schwarz‘ zu sein, wenn es schwarz sein soll.‘

Man bewertet also die eine oder andere bauarttypische CRT-Eigenschaft als positiv und folgert, dass das ganze TFT-Gelumpe sowieso nur halbgares Zeuch der Industrie ist, mit denen die uns abspeisen wollen.
 
Zuletzt bearbeitet:
Stört dich das "Flimmern" denn überhaupt aktiv?
Weil 400Hz Flimmern und mehr ist absolut kein Vergleich zu einer flimmernden 50Hz Röhre. Ich habe ein paar Displays, die nicht "flickerfree" sind, man sieht es auch gut in der Kamera, mein Fernseher pulsiert in der Kamera zB massiv. Stört es mich? Kein bisschen, ich sehe es nicht. Mein Laptop ist flickerfree, merke ich was davon? Auch kein Stück. Manche Leute sind empfindlich, aber wer nicht empfindlich ist, für den braucht das eigentlich kein Kriterium sein.

Und die "60Hz reichen aus" bezog sich auf das Arbeiten mit diesen Monitoren, gerade zu Anfangszeiten der LCDs war Gaming keine große Zielgruppe der Industrie.

Ich möchte auf jeden Fall mein 40" 4K entspiegeltes VA-Panel gegen kein CRT oder OLED dieser Welt tauschen, völlige Einbrennfreiheit bei grundsoliden Schwarzwerten sowie hoher Helligkeit und 100% Bildschärfe. Mehr brauche ich nicht. Bin allerdings nur ein Gelegenheitsspieler.

Ich sehe den ganzen Gaming-TN-Kram und vorallem IPS mit dem massiven Glow und BLB eher als Rückschrittlich. Generell empfinde ich den Gaming-Trend als richtiges Gift für die Bildqualität. Ja, das Bild ist flüssig und synchronisiert, aber wo ist gute Schwarz hin? Wo sind die guten Farben und stabile Blickwinkel hin? Wo sind die guten Bildschirmentspiegelungen hin? Aber gut, das ist meine persönliche Meinung, brauch ich ja nicht kaufen.

Wenn du CRT so toll findest, nutze ihn doch? Steht dir doch frei.
 
Zuletzt bearbeitet:
Es ist diese Grundhaltung alles in ‚schwarz…weiß‘ , ‚gut…böse‘ , ‚Vorteil…Nachteil‘ kategoriesieren zu wollen.
Aber es ist halt sehr subjektiv.
Ein Rennauto ist sehr schnell, aber man kriegt kein Klavier rein.
In einen Lieferwagen passt ein Klavier, ist aber lahm.
Denke: 'Warum bauen die nicht einfach mal nur noch Autos, die beides können.
Man bewertet also die eine oder andere bauarttypische CRT-Eigenschaft als positiv und folgert, dass das ganze TFT-Gelumpe sowieso nur halbgares Zeuch der Industrie ist, mit denen die uns abspeisen wollen.

Hat die Industrie nicht genau das getan?

HD Ready > FullHD (Bluray und das microruckeln) > FullHD 24p > 4K > demnächst 8K also quasi das angedachte wie bei FullHD und HD Ready.

*überspitzter Sarkasmus an*
Man stelle sich eine E-Auto vor, welches leider nur ESP, ASR oder ABS haben kann. Alle drei zusammen gehen nicht, liegt halt an der Technik. Aber dafür schont es die Umwelt. Das will ich sehen, wie das die Autoindustrie hätte verkaufen wollen.
*Sarkasmus aus*

Ich hätte interesse an den C24FG70. Schade das er einen Blaulichtfilter hat und Flickerfree angepriesen wird, aber leider auf Grau blau/lila flimmert (Panel-Lotterie). Das Overdrive und Freesync sich aushebeln dürfte bei mir nicht weiter auffallen da ich keine 20 mehr bin. So 300€ ist echt ein Limit für einen Monitor. FullHD reicht mir ja auch völlig aus bei der Größe. Dann kann ich wenigstens in Mobas die 144Hz ausnutzen.
 
Hat die Industrie nicht genau das getan?

HD Ready > FullHD (Bluray und das microruckeln) > FullHD 24p > 4K > demnächst 8K also quasi das angedachte wie bei FullHD und HD Ready.

Sorry, aber das finde ich zu kurz gedacht, 4K als Zwischenschritt zu 8K zu sehen im TV-Bereich. Was sehr viele vergessen ist, dass sich die Augen der Menschen eben nicht weiterentwickeln und die Leute tendenziell immer noch viel zu kleine TV-Geräte zu kaufen, um wirklich von höheren Auflösungen zu profitieren. Ich selber habe eine, ich würde sagen, sehr gute Sehkraft, arbeite an einem 14" FHD Notebook ohne Skalierung (150% sind von Windows empfohlen). Ich besitze einen 55er Fernseher mit Full HD Auflösung, der etwa 3m von meinem Sitzplatz steht und merke absolut keinen Nachteil von Full HD, obwohl ich 4K von meinem PC-Bildschirm kenne. Mit 55 befinde ich mich sogar schon fast in der Oberklasse der TV-Größen, die wenigstens haben 60" und mehr, meistens eher 40-50". Damit 4K richtig Sinn macht, bräuchte es mindestens einen 65er und etwa 2 Meter Sichtabstand (bei meiner guten Sehkraft). Und du kommst dann mit "4K reicht nicht und ist nur ein Zwischenschritt". Wo soll 8K noch was bringen? Im Kinobereich bei riesigen Leinwänden vielleicht, aber im TV-Bereich kannst du das vergessen, keiner wird sich 85 Zöller und größer kaufen und sich dann 2 Meter davor setzen. Und 85" wären auch zu klein, 110" wären dann schon das Minimum.

Ein vernünftiger Full HD Fernseher reicht bei einer Größe <65" auf jeden Fall voll aus, sofern man sich nicht gerade nen Meter davor hinsetzt.
8K Am Fernseher ist genauso sinnig wie 4K am Handy.

Und das war jetzt übrigens davon ausgehend, dass alle Displays mit hochwertigem, nativen Videomaterial gefüttert werden, was schon bei 4K fast ein Ding der Unmöglichtkeit ist, wenn man nicht gerade UHD BDs kauft.
 
Zuletzt bearbeitet:
@Qimple
zu Deinem ‚Sarkasmus-Beispiel‘:
Wie uns die Industrie/Werbebranche ‚das‘ verkaufen kann?

Ganz einfach: Man schreibe soviel (Phantasie-)Features auf die Verpackungen und in die Spezifikationslisten, bis man komplett vergessen hat, auf was man eigentlich achten wollte, um zu erkennen, was das Gerät nicht! hat/kann.
Gerade wenn man sich vor Kauf ewig mit dem Warenangebot herumschlägt, gerät die anfänglich übersichtliche und vermeindlich objektive ‚Wunschliste‘ vollkommen in den Hintergrund und man trifft irgendwann eine emotionale Kaufentscheidung.
Nicht selten kommen dann so Tricks wie ‚amazon-1-Click-Purchase/Prime-Deal/halber-Preis/Cash-Back-Offer/0%-Finanzierung‘ zum tragen.
-----------------------
Egal ob s/w-fernsehen->Farb-PAL->HDready->FullHD->‘4k‘/UHD->8k…,
alles sind natürlich Zwischenschritte der Zeit; dem Stand der Technik geschuldet.
Die Intervalle werden halt, vielleicht auch nur gefühlt, immer kürzer.
Aber, naja… manchmal frage ich mich wo die letzten zehn Jahre geblieben sind, aber meine frühkindliche Errinnerung an den ersten wohnzimmerlichen Farbfernseher ist fest in meinem Hirn verankert.

Das HDready in den Nuller-Jahren war nur ein Getrickse die aufkommenden Flachbildschirme mit 720p an den Kunden zu bringen, als es noch keine Full-HD-Inhalte gab und ‚echte‘ FullHD-Fernseher Messe-Neuheiten waren.
Was sich mit ‚4k‘ wiederholt: Erneut gibt es End-Geräte, bevor Inhalte mit dieser Auflösung leidlich verbreitet sind. Wobei selbst am Technik-Horizont ‚4k‘-fernsehen nicht auf den üblichen Wegen wie Satellit/Kabel/Antenne empfangbar sein wird.
Neben der reinen Auflösung gibt es noch eine ganze Reihe weiterer moderner Techniken rund um Bild und Ton. Und damit diese ‚Zukunftstechniken‘ nicht schon mit dem FullHD-Standard verheizt werden, werden sie fest mit dem ‚4k‘-Standard verknüpft.
Aber viel wichtiger ist natürlich die ‚Produktionsseite‘. Nämlich die Entwicklung/Herstellung praktikabler Aufnahmegeräte für ‚4k‘/‘8k‘.
‚4k‘ wird also auf nicht absehbare Zeit von den Hochglanz-Hollywood-Produktionen, also von den durchgestylten und finanzorientierten Mainstream-Global-Playern, verbreitet.
Wer also sagt: ‚Ich will ‚4k‘ (oder später mal ‚8k‘) haben‘ der kann auch gleich sagen: ‚Ich bin Mainstream-Opfer.‘

Ich würde sagen: Mit gut eingestellter Brille, die ich ja immer trage, bin ich gem. Optiker-Sehtest normalsichtig.
Dito zu SynergyCore:
Ein guter FullHD-Fernseher mit sinnig gewählten Einstellungen macht, bei üblichem Sehabstand, ein rattenscharfes Bild.
Ja, die Film-Schleifen, die auf den ‚4k‘-Fernsehern bei MediaMarkt&Co. laufen, sind schon beeindruckend. Aber nach 3 Minuten Flug durch nächtliche HDR-illuminierte MegaCities oder über wildromantische Naturschauplätze, habe ich eigentlich genug ‚4k‘. Viel ‚Optik‘ aber kein Inhalt.
Es ist wohl so, dass unsere Augen irgendwo zwischen FullHD und ‚4k‘ nicht mehr bewusst die immer feinere Auflösung wahrnehmen können, aber ‚4k‘-Inhalte auf dem 2D-Panel zuweilen und irgendwie räumlicher wirken.
 
Zuletzt bearbeitet:
Aber viel wichtiger ist natürlich die ‚Produktionsseite‘. Nämlich die Entwicklung/Herstellung praktikabler Aufnahmegeräte für ‚4k‘/‘8k‘.
‚4k‘ wird also auf nicht absehbare Zeit von den Hochglanz-Hollywood-Produktionen, also von den durchgestylten und finanzorientierten Mainstream-Global-Playern, verbreitet.
Wer also sagt: ‚Ich will ‚4k‘ (oder später mal ‚8k‘) haben‘ der kann auch gleich sagen: ‚Ich bin Mainstream-Opfer.‘
Lol... Man hat aber auch keinen Nachteil durch einen 4K Bildschirm.
Ich würde jedenfalls keinen 50" Fernseher mit FHD mehr kaufen, es sei denn er wäre wirklich 50% günstiger - das ist er aber eben nicht, weil inzwischen die Produktionskosten zwischen FHD und 4K bei weitem nicht so weit voneinander entfernt sind.
Also kann man mit gutem Gewissen, das beste Fordern was auf dem Markt ist und ins Budget passt.
 
Doch, DragonTear, Du hast einen Nachteil:

Um wieder FullHD als Grundlage zu nehmen:
Hatte man sich gleich zu Anfang der FullHD-Ära und für viel Geld einen FullHD-Fernseher zugelegt, war er bald veraltet. Denn bald danach kamen Smart-TVs auf, wo praktisch monatlich irgendein Hersteller mit einem noch größeren Funktionsumfang und mehr Bedienerfreundlichkeit warb.
Zu der Zeit wurde in den gehobenen Serien auch gerne mit Phantasie-Hertz-Zahlen geworben was heute kaum noch der Fall ist.

Gleiches wird bei ‚4k‘-TV-Sets passieren. Eine Vielzahl neuer Funktionen wird wohldosiert in den Markt eingeführt. Beispiele: HDR10 wird gehypt, die neuen Dolby-Tonformate, verschiedene 3D-Technologien gehen in die nächste Runde und buhlen um Marktanteile…

So mancher heute gekaufter ‚4k‘-Fernseher wird sich bereits technisch ‚überholt‘ anfühlen, bevor er auch nur einmal wirklich 2.160p-Inhalte anzeigen durfte.
So wie vor ein paar Jahren die damaligen FullHD-Geräte.

Nachschlag: Vergiss sogenannte ‚Produktionskosten. Die haben mit ‚Endverbraucherpreisen‘ null-komma-nix zu tun.
Der Must-Have-Effekt bestimmt den Endpreis. Die Auflösung des Panels ist bei der Herstellung völlig Banane. Der Kunde aber soll denken: ‚Mensch, 4mal mehr Auflösung als FullHD -wenn er denn soweit kommt-, aber ‚nur‘ doppelt so teuer.‘
Hö.

Herrje, noch ein Nachschlag: Ich habe mir ja mittlerweile den 4. UHD-Monitor zugelegt.
27“@TN@UHD -> 32“@IPS@UHD -> 40“@VA@UHD -> 42“@IPS@UHD.
Ich, ein kompletter Nicht-Gamer, finde UHD für meine Computeranwendungen toll und Monis können für mich garnicht groß genug sein. Und gibt es irgendwann mal Laptops mit umfänglichen DP1.4, dann hoffe ich auf große 5k/6k/8k-Monis.
->viel blabla für: ‚Ich bin ja garnicht gegen ‚4k‘/UHD und wenn ‚8k‘ kommt, werde ich -wie einst bei UHD, ganz vorne in der Early-Adopter-Schlange stehen.'
Aber zum fernsehen sehe ich auch langfristig -nur für mich und durch-und-durch bockig- keinen Grund für Auflösungen jenseits FullHD.
 
Zuletzt bearbeitet:
Der Kunde aber soll denken: ‚Mensch, 4mal mehr Auflösung als FullHD -wenn er denn soweit kommt-, aber ‚nur‘ doppelt so teuer.‘
Hö.
Der Preisunterschied ist aber eben grad NICHT so hoch!

Einen Nachteil hat man doch trotzdem nicht, selbst wenn das Gerät bald aus welchen Gründen auch immer, "veraltet" wäre. Ein FHD Schirm wäre noch "veralteter"...
Das einzige was man sagen kann, ist dass ein Umstieg von FHD nicht lohnt, aber grad Fernseher kaufen nicht wirklich viele, jedes zweite Jahr einen.

Des weiteren, absichtlich Dinge zurückhalten (falls du das andeuten willst) tut man wohl kaum, denn grad bei Bildschirmen herrscht starker Konkurenzdruck. Man kann einfach technisch nicht so schnell alles auf einmal bringen, denn alles muss erstmal entwickelt und noch dazu in ein Gerät vereint werden.

EDIT:
Allgemein veraltet Hardware nunmal. Ist auch gut so, denn wäre das nicht der Fall, würde die Entwicklung still stehen.
Um grad beim 4K Content Beispiel zu bleiben. Ohne Endgeräte würde erst recht niemand content für 4K produzieren bzw. anbieten!
Dieses Problem hat ja grade zu nem gewissen Grad die VR Industrie; nämlich dass nicht sehr viele Endkunden, entsprechende Brillen haben.

Eine der Beiden Seiten musste in Vorleistung gehen und das war nunmal die Hardwaresparte bei den Fernsehern, da wie du schon sagtest, die Auflösung, die Produktionskosten nicht maßgeblich bestimmt.


EDIT 2:
Um mal wieder zum Thema des Threads bzw. dessen Titel zu kommen:
Alles ist immer ein Kompromiss. Das perfekte Produkt gibt es schon aus physikalischen Gründen nicht.
 
Zuletzt bearbeitet:
Doch, DragonTear, der Preisaufschlag ist immens.
Ich bin irgendwann mal die letzten Monate aus Langeweile die unzähligen mediaMarkt-TV-Regalreihen abgelaufen:
Möchte man sich heute -Mitte 2017- ein Oberklasse-TV-Gerät zulegen, legt man einen heftigen ‚4k‘-Aufschlag drauf.
So wie vor 2 Jahren für ‚curved‘-Geräte, die dann als ehemaliges ‚must-have‘ , komplett an die Wand gefahren sind.
Und weil heute auch die strengst riechende CouchPotatoe die Dinger nicht mehr haben möchte, kriegst der PC-Gamer nun ‚curved‘ als ‚Feature‘ an die Backe genagelt.

Ah: Nein, ‚absichtlich zurückgehalten‘ wollte ich garnicht unterstellen.
Wie Du sagst: Der Konkurrenzdruck der Moni-/TV-Hersteller ist hoch. Was sich halbgar geradeso als neues ‚Feature‘ anpreißen lässt, wird released, wissend, dass der Konkurrent schon wenige Monate später die nächste Sau durch Dorf jagen wird.

Man kann einfach technisch nicht so schnell alles auf einmal bringen, denn alles muss erstmal entwickelt und noch dazu in ein Gerät vereint werden.
Da core. Aber der Hersteller kann es sich nicht leisten auf einer Entwicklung zu hocken, bis er auch den nächsten Schritt implementieren kann.
Ergo: Sobald sich was werbewirksam vermarkten lässt, steckt es in den Geräten der nächsten Fernost-Charge.
Schon vor vielen Jahren sagte ein Samsung-CEO (ich glaube, da hatte ich gerade meinen ersten Flachbildschirm) in einer Doku sinngemäß: ‚Während wir ganz frisch die aktuellen Geräte ausliefern, haben wir die nächste Geräte-Generation bereits so gut wie serienreif.‘
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh