Mehr Kontrast für IPS: Panasonic entwickelt neues Panel

iToms

Redakteur
Thread Starter
Mitglied seit
25.11.2011
Beiträge
2.016
<p><img src="/images/stories/logos-2013/panasoniclogo.jpg" alt="panasoniclogo" style="margin: 10px; float: left;" />Zwei LCD-Arten mit unterschiedlichen Preisbereichen dominieren aktuell den PC-Markt, zählt man Smartphones dazu, dann sind es drei Displayarten: Die TN-Displays, IPS (einschließlich Derivaten) sowie OLED. Aktuell kommen IPS-Displays eher in Produkten der Mittel- bis Oberklasse zum Einsatz und bieten eine äußerst hohe Farbtreue und Blickwinkelstabilität. Doch diese Technologie hat auch Nachteile wie beispielsweise eine längere Reaktionszeit im Vergleich zu TN oder aber auch häufig weniger Kontrast.</p>
<p>Um diese Schwächen auszumerzen, hat Panasonic eine neue Technologie entwickelt. So wird über ein zweites, zwischen Hintergrundbeleuchtung und Pixelebene eine...<br /><br /><a href="/index.php/news/hardware/monitore/41203-mehr-kontrast-fuer-ips-panasonic-entwickelt-neues-panel.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich zähle auch 3 Displayarten, allerdings ohne OLED.
Es sei denn das VA-Panel zählt zu den IPS-Derivaten.
Aber der Nachteil des IPS-Panels soll ja gerade dessen geringer Kontrast sein, was beim VA-Panel ja durchaus zu dessen Stärken gehört.
Statt dem üblichen 1.000:1-Kontrast soll es bei Panasonic nun gleich 1.000.000:1 sein.
Da hat bestimmt einer ordentlich am Gummiband ‚dynamischer Kontrast‘ gezogen.

Naja, per heute gibt es kaum einen IPS-Monitor, der keine Lichthöfe durch die Hintergrundbeleuchtung erzeugt. Und nun muss das Backlight noch weiter aufgedreht werden.
Das warte ich mal eher kritisch ab.
Und so ein Panel muss zwingend HDR und 10-bit-Farbräume aufweisen, sonst ist der ganze Aufwand um den Wunder-Kontrast auch gleich wieder zum Teufel.
Achja: kein 10-Bild ohne 10-Bit-Signal. Also auch mal die GraKa abklopfen, was da drinsteckt. Und auch gleich den Übertragungsstandard, denn die mickrigen 2-Bit mehr, wirken sich erstaunlich auf die Datenmenge aus.

Da es gem. Artikel um Monitore geht, warum werden PS4 und Xbox als Argument für die Panel-Fähigkeiten bezüglich Kontrast und HDR angeführt, die Dinger kommen doch an den Fernseher, oder mache ich da was falsch?

Auch ist OLED per heute nicht nur ein Thema bei Handys. Es gibt sie in TV-Sets, Notebooks, Tablets/Phalets, VR-Brillen.
Ja gut, bei Monitoren sieht es per heute mau aus. Aber dies wird imo nicht ursächlich technische Gründe haben.

Und außerdem brauche ich das Ganze garnicht, denn ich kann sogar mit meinem jetzigen Monitor auf den Beispielbildern bereits den Unterschied zwischen dem konventionellen und dem Neuen IPS-Panel erkennen, und das, obwohl ich nichteinmal ein IPS-Panel habe. Das ist doch toll oder?
 
Was habt ihr den immer mit diesen 10bit und der Grafikkarte?

Schon während meiner Mediengestalter Ausbildung vor 10 Jahren konnte man über die richtige Grafikkarte per DVI 10bit an einen entsprechenden Monitor weiter geben.

Das 10bit zur Zeit bei den ganzen Consumer-GPUs noch nicht so richtig funktioniert liegt eher an der Tatsache, das die Hersteller da noch kein Handlungsbedarf sehen und die 10bit einfach über den Treiber aussperren.
Nur weil ein Monitor 10bit korrekt darstellen kann ist es noch lange kein HDR-Monitor, dazu gehört noch etwas mehr wie z.B. 1000nits helle Highlights per lokalem Dimming.

Was irgendwie an der News schade ist, es gibt keine Infos über Verfügbarkeit der Panels bzw. Geräte. Am Ende greife ich lieber 2020 zu einem 42 Zoll OLED für 1.500 Euro, da mir da das Schwarz deutlich besser gefällt. Der kann auch gerne nur 8bit wiedergeben, da ich am Abend eben keine Lust habe mich jedes mal vom TV röntgen zu lassen. Da die meisten HDR-Verfahren auf ein steuerbares Backlight angewiesen sind, wird es so schnell auch keine echten HDR-OLED Geräte geben, da diese ja selber leuchten.
 
Zuletzt bearbeitet:
Fertigt Phillips die Pannel selbst?
Vll gibt es dann mal venrünftige Qualität xP
 
Ich habe ja nur nebenbei angelesendes Halbwissen und kann nicht hochschultauglich zu den Thema referieren.
Aber 10-Bit und HDR=High Dynamic Range hängen schon zusammen.
https://de.wikipedia.org/wiki/High_Dynamic_Range_Image
Die Grundlogik von 8-Bit ist es, dass die 3 Grundfarben in jeweils max. 256 Stufen gerastert werden, was die oft zu lesenden 16.8 Mio. Monitor-Farben ergibt.
Dieser Logik folgen auch übliche Digitalkameras, wodurch es ihnen an Dynamik fehlt.
HDR erweitert nun den Dynamik-Umfang und das Bild natürlicher wirkt.
Dies geschieht bei der Aufnahme und muss in der Bilddatei gespeichert sein. Da es deutlich mehr Datenfluss erzeugt, muss die Bandbreite, also was HDMI und DP zu leisten vermögen, betrachtet werden. Und da wird es im Bewegtbild recht eng im Datenkanal, drum wird wieder auf 8-Bit heruntergerechnet, was bei sehr leichten Farbverläufen diese typischen Abstufungen erzeugt.
Mag sein, dass 10-Bit nicht automatisch HDR ergibt, aber für HDR braucht es 10-Bit und folglich Bandbreite.
Da mit UHD@60Hz via DP1.2 ende Gelände ist, muss ein echter 10-Bit/HDR-Moni entweder weniger Auflösung haben oder aber mindestens DP1.3 an Bord haben.
Also: Kommen Monis mit DP1.3/4, dann kommen auch die Features, die diesen Standard benötigen.
Aber die einzigen GraKas mit DP1.3/4 sind die aktuellen Nvidia-1050-80, also reine Gamer-Teile.

@majus
Ja, Philipisis fertig die Panasonic-Pfannels selberst.
 
Zuletzt bearbeitet:
Ich bin verwirrt - Konkurrenz für teure OLED Panels durch teure IPS Panels, die so gut aber nicht besser sind, wie OLED Panels ? Da stellt sich die Frage wieso nicht gleich OLED ?
 
Ich frage mich immer wieder, ob lauter bezahlte Lobbyisten herumschwirren, oder ob die Menschen der Werbung tatsächlich völlig naiv Glauben schenken, ohne sich mal selbst zu informieren... Die OLED - Technik hat den gigantischen Nachteil, dass die LEDs unterschiedlich schnell altern, sodass die Farben auf Deutsch gesagt, nach kurzer Zeit richtig abkacken. Wahrscheinlich ist sie gerade deshalb Hoffnungsträger der Industrie, da die Produkte direkt ein eingebautes Ablaufdatum in sich tragen. Ursprünglich waren OLED- Leuchtdioden bereits nach 20.000 Stunden im Durchschnitt nur noch halb so hell, wie als Neuware, was natürlich bis auf Smartphones, nicht mal ansatzweise marktreif ist...(Und selbst bei Smartphones fühlt sich der Kunde, der sich nach 2 Jahren kein neues kauft, ziemlich ver****t, wenn sein Bild völlig vergilbt aussieht) mittlerweile setzt LG beispielsweise bereits auf WOLED, weiße LEDs, die mit Farbfiltern die einzelnen Farben erzeugen...
Also die grundsätzliche Technik wurde im Prinzip bereits wieder verworfen und eine Hybridtechnik aus altbekanntem erzeugt, wodurch immerhin die Hälfte der Leuchtkraft erst nach 40.000 Stunden eingebüßt wird. Selbst das wird nach einer gewissen Nutzungsdauer spürbar schlechtere Ergebnisse mit sich bringen, zumal Monitore viel länger pro Tag leuchten müssen, als Smartphones.

In dieser WOLED- Technik sehe ich, wenn überhaupt, ansatzweise eine Zukunft, weil die Bildschirme auch nicht wegen der Farbverschiebungen der ursprünglichen OLED- Technik ständig neu kalibriert werden müssen(schließlich bestehen sie nur aus weißen LEDs, die wenigstens in sich betrachtet, "ähnlich" schnell altern - zumindest von der Ferne her dann halbwegs homogen wirken). Insgesamt halte ich dennoch nicht viel davon. Die Technik eignet sich meiner Ansicht nach für Billigprodukte, die nur 2 Jahre halten müssen - wenn sie mal billiger als andere Techniken wäre. Das Argument, man nutze seinen Fernseher ja nicht 10 Jahre(oder 5 - für den englischen/ amerikanischen Markt eher nur 2, wenn er durchgehend läuft), zieht bei mir jedenfalls überhaupt nicht - der überwiegende Großteil der Leute, die ich kenne, nutzt ihn mindestens 10 Jahre, falls er so lange hält(bzw. sich reparieren lässt). Meinen TV habe ich jetzt auch 5 Jahre und mangels 4K- Inhalten habe ich auch keinen Grund, demnächst zu wechseln(Die ÖR haben ja gerademal mit 1080p angefangen - davor nur 720p :fresse2:)

Die VA- Technik bringt zwar einen besseren Schwarzpunkt, hat aber wie IPS auch mit Ausleuchtungsproblemen zu kämpfen, ist sehr wärmeanfällig und hat insbesondere den Nachteil, dass die Blickwinkelstabilität mies ist, weshalb sie bei größeren Bildschirmen so gut wie immer im Curved- Format vorkommt.

Um es kurz zusammenzufassen: Die IPS- Technik ist definitiv die zukunftsfähigste von allen, sie ist robust, blickwinkelstabil, bringt in sämtlichen Alltagssituationen und widrigen Bedingungen sehr ansehnliche Ergebnisse. Wenn man folglich die Farbdarstellung und den Kontrast weit genug steigern kann, um sie HDR-/Kinofähig zu machen, gibt es überhaupt keinen Grund, VA, und absolut nicht OLED, in Betracht zu ziehen.
 
Zuletzt bearbeitet:
Ich bin verwirrt - Konkurrenz für teure OLED Panels durch teure IPS Panels, die so gut aber nicht besser sind, wie OLED Panels ? Da stellt sich die Frage wieso nicht gleich OLED ?

auch die fernseher sollen diese Einbrenneffekte noch haben, auch die neuen.
 
Die OLED - Technik hat den gigantischen Nachteil, dass die LEDs unterschiedlich schnell altern, sodass die Farben auf Deutsch gesagt, nach kurzer Zeit richtig abkacken. Wahrscheinlich ist sie gerade deshalb Hoffnungsträger der Industrie, da die Produkte direkt ein eingebautes Ablaufdatum in sich tragen. Ursprünglich waren OLED- Leuchtdioden bereits nach 20.000 Stunden im Durchschnitt nur noch halb so hell, wie als Neuware, was natürlich bis auf Smartphones,
Quelle?

Wenn ich in google "aged OLED" oder "aging OLED" eingebe, kommt gar nichts. Keine Bilder von vergilbten TVs oder dergleichen.
Lediglich bei oLED burn in kommen ein paar Ergebnisse mit PS Vitas und dem OLED MURA effect. Dieser scheint bei der PS Vita besonders ausgeprägt zu sein, denn google kennt beinahe nur dieses.
Den MURA Effect hat aber schon jedes fabrikneue OLED Display und kann sich vor allem durch Falschbenutzung verschlimmern.
 
oooverclocker:
Die Technik eignet sich meiner Ansicht nach für Billigprodukte,...

Ein interessanter Denkansatz.

Das erinnert mich an den revolutionären Wankelmotor, der von Mazda zwar noch eine ganze Weile weiterentwickelt wurde, aber wegen der Materialanforderungen nicht so richtig zuverlässig/langlebig war.

Mh, Lobbyisten gibt es überall. Es ist ein Grundpfeiler aggressiver Marktstrategien. Aber der Lobbyist macht ja nicht Produktwerbung für den Endkunden, sondern er ölt fleißig im Hintergrund die großen Räder von Politik und Wirtschaft.

Ja, das OLED, die organische lichtemittierende Diode, hat ein Problem mit der Standfestigkeit ->Alterungsprozess. Und ein Heer von Ingenieuren/Wissenschaftlern in Reinraum-Laboren experimentiert an der Verbesserung dieser unerwünschten Eigenschaft.
Da hierzu eine gewisse firmeninterne Geheimhaltung gewahrt wird und uns sowieso das Detailwissen fehlt, ist es also eine Mischung aus glauben, hoffen, hören-sagen, ob man per heute dem OLED die große Zukunft voraussagt oder es als Rohrkrepierer-Technik ansieht.
Ich ‚glaube‘ den OLED-Versprechungen, einfach weil ich gerne so ein Teil mit all seinen kolportierten Eigenschaften besitzen möchte.
Aber hilfsweise sehe ich ‚OLED‘ einfach als technischen Platzhalter für eine Technik, die irgendwann mal den heutigen TFT-Screen ablöst.
 
Zuletzt bearbeitet:
Ich habe ja nur nebenbei angelesendes Halbwissen und kann nicht hochschultauglich zu den Thema referieren.
Aber 10-Bit und HDR=High Dynamic Range hängen schon zusammen.
https://de.wikipedia.org/wiki/High_Dynamic_Range_Image
Die Grundlogik von 8-Bit ist es, dass die 3 Grundfarben in jeweils max. 256 Stufen gerastert werden, was die oft zu lesenden 16.8 Mio. Monitor-Farben ergibt.
Dieser Logik folgen auch übliche Digitalkameras, wodurch es ihnen an Dynamik fehlt.
HDR erweitert nun den Dynamik-Umfang und das Bild natürlicher wirkt.
Dies geschieht bei der Aufnahme und muss in der Bilddatei gespeichert sein. Da es deutlich mehr Datenfluss erzeugt, muss die Bandbreite, also was HDMI und DP zu leisten vermögen, betrachtet werden. Und da wird es im Bewegtbild recht eng im Datenkanal, drum wird wieder auf 8-Bit heruntergerechnet, was bei sehr leichten Farbverläufen diese typischen Abstufungen erzeugt.
Mag sein, dass 10-Bit nicht automatisch HDR ergibt, aber für HDR braucht es 10-Bit und folglich Bandbreite.
Da mit UHD@60Hz via DP1.2 ende Gelände ist, muss ein echter 10-Bit/HDR-Moni entweder weniger Auflösung haben oder aber mindestens DP1.3 an Bord haben.
Also: Kommen Monis mit DP1.3/4, dann kommen auch die Features, die diesen Standard benötigen.
Aber die einzigen GraKas mit DP1.3/4 sind die aktuellen Nvidia-1050-80, also reine Gamer-Teile.

@majus
Ja, Philipisis fertig die Panasonic-Pfannels selberst.


Was du schreibst ist nur teilweise richtig. Für HDR braucht es definitiv keine 10bit. HDR hat im Grunde nicht viel mit mehr Farben zu tun, sondern mehr Kontrast. Nicht ohne Grund können viele HDR und haben dennoch nur 8bit Panels. Auch die Abstufungen sind kein Problem, FRC bzw. Dithtering hilft da.

Was die Helligkeit angeht müssen für HDR auch keine 1000nits da sein. Viele Gerät mit offiziellen HDR Logo haben weitaus weniger Helligkeit. Die 1000nits können also nicht so wichtig sein. Mein localdimming HDR Gerät hat 700nits, und da brennt es einen schon fast die Netzhaut weg, obwohl ich nur mit 50% Helligkeit fahre.
 
Zuletzt bearbeitet:
Der DXW904 mit Direct LED und Local Dimming ist/war doch schon so ein Stromfresser und das soll nochmal gesteigert werden ?
Das Teil wurde so warm, dass man auf der Rückseite mehrere Lüfter einbauen musste wodurch nach einiger Zeit Staub rein kam.
Anstatt verzweifelt die veraltete LCD Technologie zu tunen sollte man Geld investieren und auf OLED setzen oder es sein lassen !

Ja soll ein Stromverbrauchsmonster werden, sollte die Technologie überhaupt einmal auf den Endverbrauchermarkt kommen, was sie wohl niemals wird.

Tja, bleibt uns ja noch LG :p
 
Die OLED - Technik hat den gigantischen Nachteil, dass die LEDs unterschiedlich schnell altern, sodass die Farben auf Deutsch gesagt, nach kurzer Zeit richtig abkacken.

Das ist das Kernproblem. Nicht die Alterung an sich, sondern die ungleichmäßige. Kommt nicht von ungefähr, dass bei den TVs jedes Jahr neue Produkte angekündigt werden, die auf den Messen auch ein extrem schickes Bild haben, aber nix davon in den Handel kommt.

Performer ist allerdings der Meinung, dass die Probleme schon überwunden wurden, nur leider hat er noch keine Quelle dazu gepostet.

PS: "Kurze Zeit & richtig abkacken" sind relativ. Aber da die meisten ihre Monitore doch recht lange im Betrieb haben, wird da schon eine spürbare Farbverschiebung im Lauf der Jahre stattfinden. Da es sich ja um ein teures Highendprodukt handelt ist es fragwürdig, ob man sich damit abfinden will.
 
Zuletzt bearbeitet:
Naja wenn ein LED Monitor nur 2-3 Jahre halten würde hätte ich auch kein Problem mit WENN der Preis stimmen würde und man einfach an Ersatzpanels kommen könnte.
 
Auch wenn das Bild leicht vergilbt da ja eher die Blauanteile schneller de Krätsche machen sieht das Bild immer noch deutlich besser aus als bei nem IPS/TN oder VA Panel.

Mich würde das nicht so stören und man merkts auch nur wenn man nen frisches OLED Display daneben legt das dass eine halt etwas gelblicher ist.

Sehts halt als nen internen Bluelighfilter:P.

Aber eh OLED hier mal im Monitor Bereich aufschlägt mit allen schnickschnack und das zum bezahlbaren Preis dauerts eh noch ewig.
 
KA 3?

Aber halt nur Phones und die halten 3Jahre danach kommt immer was neues(nicht weils Display hin ist sonder weils mal was neues sein soll) z.b mein S3 machts immer noch und hat nen top Bild das hat schon paar Jahre aufm Buckel und wird immer noch regelmäßig benutzt.(nicht von mir)
Beim S2 ka darauf hab ich nie geachtet und mir ist auch nie was aufgefallen.
Und mein S5 was auch schon paar Jahre hinter sich hat ist nur etwas Gelblich geworden mehr nicht und das sieht man echt nur wenn man vorher auf nen zu *kaltes* Bild geschaut hat ansonsten macht sich das null bemerkbar und Farben/Contrast sind immer noch Bombe und IPS/VA weit vorraus.
(Wohlgemerkt alle auf 100% Helligkeit betrieben!)

Warums nix gibt aufm Markt ka wollen halt noch den ollen Schrott los werden und de Leute kräftig melken.
 
Zuletzt bearbeitet:
Bei Handys ist das Display selten länger als 5min eingeschaltet. Das sieht garantiert ganz anders aus, wie ein OLED TV nach 3 Jahren. Selbst wenn du mir jetzt erzählst, dass du dein Handy ganz oft und ganz lange an hattest kommt das von der Benutzung trotzdem nicht an einen Monitor heran.

Das mit dem ollen Schrott ist so unsinnig, da braucht man eigentlich nichts zu sagen.
 
Dann verrat mir doch mal wieso es immer noch kein 4K mit 144Hz gibt oder 3440x1440p und 144Hz?.

Bestimmt nicht weil se es noch erfinden müssen oder es große Prob. damit gibt....von der GPU Seite her (anschluss) liegts ja nicht.
Erstmal muss das alte Zeug Panels etc. raus dann kommt langsam mal was neues.

So isses auch mit OLED ich kann mir nicht vorstellen das nach Jahren da kein Fortschritt gemacht wurde weil schon ewig das schnelle altern und Einbrennen vors Loch geschoben wird.
Die könnten wenn se wollten aber lieber noch dick melken.
 
Zuletzt bearbeitet:
@blood
Natürlich liegt es an der GPU.
Die Power-Shooter-Fraktion schraubt sich ‘ne 1070/1080 ins Gehäuse, um ihre Games zumindest mal auf einem FHD-TN-Panel mit allen Details darstellen zu können. Und weil das immer noch nicht durchgehend ruckelfrei über die Bühne geht, muss Sync ins Monigehäuse, um der stotter-ter-de-de-den GraKa noch unter die Arme zu greifen.
Und natürlich liegt es auch an den beiden derzeit aktuellen Übertragungsprotokollen.
DP1.2 ist aus einer Zeit, da waren Auflösungen eines UHD-Monis noch reine Utopie. Der Anschluss ist also in die Jahre gekommen. Und bei HDMI2.0 geht es gleich garnicht um Übertragungsraten, sondern um die Implementierung hochkomplexer Kopierschutzmechanismen.

Nur weil nun der stolze 1070/1080-Besitzer prahlen kann er habe DP1.3/1.4 am Bord, will er natürlich auch, dass die Regale vollgestopft sind mit Monis, die diesen Standard von jetzt auf gleich komplett ausreizen können.
Und da so ziemlich jedes Games die GraKa bereits bei UHD@60Hz in eine Herdplatte verwandelt, na da müssen sich halt die GPU-Löter was einfallen lassen.

Ich verrate es Dir: Hohe Bildwiederholungsraten sind bestimmt augenfreundlich. Dieser 144Hz-Hipe ist allerdings ein reines Gamer-Feature.
Und kein Game und keine GraKa kann UHD@144Hz befeuern.
Der Gaming-Markt ist für den Monitorhersteller sicher ein wichtiges Marktsegment.
Aber stell Dir vor: Nicht alle Forschung und Entwicklung in der Panel-Technik zielt darauf ab, dass das chromglänzende Zauberschwert Deines Avatares geschmeidig und in 10-Bit-Farbtiefe über den Screen gleitet. Auch wenn so mancher Gamer den PC und den Monitor als 0,0,0-Koordinate seines Lebenszyklusses ansieht.
Und wer ist Schuld? Na, der Moni-Hersteller. Verkauft er uns doch seinen prähistorischen Ladenhüter-Schund, auf dem wir ruckelend, schlierend und kantenabreißend unseren Helden über die Schlachtfelder schleppen müssen.
 
Zuletzt bearbeitet:
Dann verrat mir doch mal [...]
Erstmal muss das alte Zeug Panels etc. raus dann kommt langsam mal was neues.

So isses auch mit OLED ich kann mir nicht vorstellen das nach Jahren da kein Fortschritt gemacht wurde [...]

Gerne! Erstens gibt es kein riesiges Lager in dem millionen von Monitoren verstaut werden, die dann über Jahre abverkauft werden müssen. Das ist gebundenes Kapital, das von den Herstellern vermieden wird. Lagerbestände wurden allgemein in den letzten Jahrzehnten immer weiter reduziert. Zweitens gibt es keinen Monitorhersteller mit Monopolstellung. Der TV/Monitormarkt ist hart umkämpft und daher versucht jeder Hersteller mit besserer Technik Marktanteile zu gewinnen. OLED wird allgemein mit hoher Bildqualität und fortschrittlicher Technik assoziiert, ich garantiere dir, dass jeder Hersteller nur zu gerne Produkte damit auf den Markt bringen würde, wenn es technisch möglich wäre.
Das sind alles simple und allgemein bekannte Marktmechanismen. Natürlich gibt es illegale Absprachen, aber sowas in diesem Umfang geheim zu halten ist extrem schwierig und es gibt dahingehend keinerlei Hinweise. Ergo gibt es auch keine Grundlage für Verschwörungstheorien nach dem Motto, die verkaufen absichtlich altes Zeug. Wer da ein eindeutiges Indiz/ ein Quelle hat nur her damit, ansonsten sind es Hirngespinste.

Wo wir schon bei den Hirngespinsten sind: "dass das chromglänzende Zauberschwert Deines Avatares geschmeidig und in 10-Bit-Farbtiefe", "unseren Helden über die Schlachtfelder schleppen müssen" "in eine Herdplatte verwandelt". Holy fuck, Drogen und Forenkommentare sind eine krasse Mischung:eek:
 
@Brummel-Maus
Das Bildnis der Herdplatte: Spätestens seit dem auf 66Mhz aufgebohrtem 486er, genannt Pentium I, ist es das! Problem aller CPUs und GPUs: Wie kriegt man erst soviel elektrische Energie in! den Rechenkern rein und wie kriegt man die dann zu 99% in Wärme umgewandelte Energie wieder heraus.
Die Kunst ist also nicht Rechenpower zu konstruieren, sondern die Energie-Umwandlung auf dem Cores zu beherrschen. (in den Nuller-Jahren hat jeder PC-Bastler, der was auf sich hielt, mindestens 5 Lüfter in sein Gehäuse reingeschraubt.)
Das Chromschwert-Bildnis: aus der Lamain geht es bei 90% aller Hardwareluxx-Monitor-Threads ums Gamen. Und von denen haben wiederum 90% nur die Themen: Wie ist das eigentlich mit 144Hz und G-/FreeSync?
Noch weit vor g2g und InputLag.
Danach werden Abstriche gemacht. Von Gamern auch gerne ‚Kompromiss‘ genannt: Auflösung, Panel-Typ, Funktionalität bei anderen Anwendungen.
Denn: Erstmal soll alles (also Games) smooth laufen.

Anmerkung: Ich habe den Bio-Kamillentee auf meinem Tisch in einer DROGErie gekauft.
 
Zuletzt bearbeitet:

Bei Kindergartenkindern ist der Versuch ihr Gegenüber mit Namensveränderungen zu provizieren sehr beliebt. Ist das das Niveau auf dem du dich bewegen willst?

Auch wenn es wahrscheinlich vergeblich ist, hier trotzdem ein paar Denkanstöße:
Seit deinem P1 sinkt der Energiebedarf in Relation zur Leistung kontinuierlich. In den letzten Generationen ist sogar der absolute Energiebedarf deutlich gesunken. "Die Kunst ist also nicht Rechenpower zu konstruieren, sondern die Energie-Umwandlung" -> BS, die Energie und Temperatur sind nur Faktoren unter vielen. Inzwischen gibt es absolute High-End-Pcs, die mit 2 Lüftern auskommen.

Wo ist das Problem an Free/G-Sync? Es ist physikalisch bedingt nunmal so, dass die Zeit zum berechnen verschiedener Bilder je nach Aufwand variiert. Daher ist es nur sinnvoll die Bildwiederholrate des Monitors anzupassen.

Alle aktuellen Grafikkarten von NV & AMD unterstützen DP1.4, selbst eine Einsteigerkarte wie die RX460 für 100€. Selbst die obere Midrange ist in der Lage 4k zu stemmen, wenn man kapiert hat, wie die Regler in den Grafikeinstellungen funktionieren.

Nja was solls, die Monitorhersteller werden bestimmt durch Chemtrails und Echsenmenschen manipuliert und verkaufen nur deshalb keine Geräte mit 8k/200hz.
 
@brometheus
Ich fand Brummel-Maus eigendlich ganz süß und versöhnlich.
Aber wenn es Dir gereicht mir damit das geistige Niveau eines Kindergarten-Kindes zu bescheinigen und es von Dir als eine unverhohlende Provokation aufgenommen wird…
Gut.
Wenn Du drauf bestehst, kann ich Dir auch das ‚Sie‘ anbieten.

Ja, ich habe nicht täglich mein Ohr am GraKa-Markt, welch tolle Feature nun in dieser oder jener GPU-Charge gerade serienreif über den Ozean geschippert wurde.
(Und Du/Sie wirst/werden auch nur einen einzigen uralten Post von mir in den GraKa-Forum finden.)

Was sagt der Satz aus, dass ‚inzwischen absolute High-End-PCs mit 2 Lüftern auskommen‘?
Was, wenn der nächste absolute High-End-PC wieder 3 Lüfter hat?
Ist Deine Argumentation dann bestätigt, oder widerlegt?

Übrigens: Sync ist genau ein Kind der Wärmevermeidungs-Strategie.
Klar, dem Kunden wird es als Anti-ruckel-Zauberpülverchen verkauft, aber ursächlich ist es ein Trick, der GraKa eine kleine Verschnaufspause zu gönnen, wenn sie zu sehr gegen den Takt des Monis ankämpfen muss.
Wie Du sagst: Ein Faktor von Vielen, aber alle mit dem gleichen Ziel: Wird weniger elektrische Energie verbraucht, muss weniger weniger Wärme abgeführt werden.
Der sinkende Strombedarf ist also kein fürsorglicher Beitrag zum Klimaschutz oder ein mildtätiger Akt zur Reduzierung unserer Stromrechnung.
Es ist das Kreuz die Wärme aus den Platinen zu kriegen. Bei teuren Monster-GraKas kommen martialische Lüfter-Pakete drauf, die eine Extra-Stomleitung zur Kühlung benötigen. Das war vor nicht langer Zeit ein untrügliches Zeichen, dass es sich um eine mächtige Gamer-GraKa handelt. Bei den billigen GPU gibt es solch schicke Behelmung nicht. Nur mittlerweile wird der Fan-Aufbau nicht mehr als so schick angesehen, weil nun auch in kleinere PC-Gehäuse die volle Gamer-Ausrüstung passen soll, und da stört der Platinen-Fön.

Durch all die Jahren der Computer-Technik, konnte das jeweils aktuelle Bildübertragungssignal mehr übertragen, als es übliche/verbreitete Monitore darstellen konnten. Selbst das Urformat VGA kann eine Auflösung von 2.048x1.536 übertragen (Quelle: wikipedia). Das hat jahrzehntelang niemanden geschert.
DisplayPort warb damit, dass man die Signale für gleich mehrere Monitore durch nur ein Kabel schicken kann.
Nun kommt es bei dem mittlerweile leicht angestaubten DP1.2-Standard zum ersten Mal dazu, dass selbst schlechte/billige Massenware-Monis die verfügbare Bandbreite komplett ausnutzen.
Es gibt UHD-Monis, aber nur bis 60Hz, und 144Hz/Sync-Monis, aber nicht in UHD.
Aber gefühlt kam DP1.3/1.4 lange nicht in die Gänge, um beide Features vereinen zu können.
Und jetzt, wo DP1.4 seit ein paar läppischen Monaten auf der GraKa verfügbar ist, werden die Monitorhersteller:
„durch Chemtrails und Echsenmenschen manipuliert“
weil sie nicht gleich mit dem nächsten Fernost-Container Monitore mit voller DP1.4-Ausreizung ausliefern.

Aber was nützt Dir DP1.4 auf der GraKa, wenn genau diese GraKa schon bei UHD@60Hz in die Knie geht, wenn man in der Game-Engine nicht ordentlich die Regler herunter dreht.
Nix.
Auch ein 8k-Moni mit 1000Hz und DP in der Wolken-Kuckkucks-Heim-Version, kann nicht mehr performen, als was aus der GraKa rauströpfelt.
 
Zuletzt bearbeitet:
Übrigens: Sync ist genau ein Kind der Wärmevermeidungs-Strategie.
Klar, dem Kunden wird es als Anti-ruckel-Zauberpülverchen verkauft, aber ursächlich ist es ein Trick, der GraKa eine kleine Verschnaufspause zu gönnen, wenn sie zu sehr gegen den Takt des Monis ankämpfen muss.

Ich glaube, Du hast da was nicht ganz verstanden: Bei FreeSync wird die Monitorfrequenz der Bildrate angepasst, die die Grafikkarte liefert. Wenn sie 1.000 FPS liefert, und der Bildschirm nur 120 Hz hat, verbraucht die Grafikkarte durch Adaptive Sync nicht weniger. Das, was Du vielleicht meinst, ist das antiquierte VSync, was die Bildrate einfach nur bei 120Hz abriegeln, und durch einen Puffer glätten würde.
Das hat aber überhaupt nichts mit dem zu tun, was man unter einem "syncfähigen Monitor" versteht, hat an den Monitor auch keine speziellen Anforderungen, sondern kann zusätzlich dazu aktiviert werden.
 
Zuletzt bearbeitet:
FreeSync wurde ursprünglich entwickelt um strom zu sparen.
Das refreshen also Neuausrichten der LCD Kristalle braucht Strom, wenn die Grafikkarte noch gar kein Bild gesendet hat ist das sinnlos also Stromverschwendung.

Die Zukunft wird evtl. OLED aber deutlich wahrscheinlicher QLEDs sein. QLEDs funktionieren zwar technisch etwas anders, aber bei QLEDs wird es genauso laufen wie OLED - keine Hintergrundbeleuchtung, sondern selbst leuchtende Pixel. Nur das QLEDs weniger Strom brauchen und deutlich haltbarer sein sollen. Ob QLED genauso schnell ist wie OLED darüber gibt es keine Infos, sollte theoretisch aber sein (da keine flüssigen Kristalle ausgerichtet werden sondern Nanokristalle angeregt werden)

Wenn also LG nicht zufällig einen richtigen Durchbruch bei den OLEDs erreicht wird Samsung mit QLEDs davon ziehen.

Ich denke dass es 2020 oder 2021 dann endlich mal OLED oder QLED Monitore gibt - welche Technologie auch immer sich dann durchgesetzt hat.


Die ersten richtigen QLED Fernseher könnten schon nächstes Jahr kommen:
Forbes Welcome

Die werden aber scheinbar immer noch eine Hintergrundbeleuchtung nutzen.
 
Zuletzt bearbeitet:
FreeSync wurde ursprünglich entwickelt um strom zu sparen.
Das refreshen also Neuausrichten der LCD Kristalle braucht Strom, wenn die Grafikkarte noch gar kein Bild gesendet hat ist das sinnlos also Stromverschwendung.

OK, das macht natürlich zum einen Sinn, allerdings praktisch für LCD noch nicht so relevant, erst recht im Gamingbereich, wo man nicht so heftige Reaktions- Einbußen hinnehmen kann.
 
Hä? Das wurde für Notebooks entwickelt, wo das LCD den meisten Strom frisst..
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh