[Sammelthread] Cinemascreen 21:9 Monitore

bin grad über die Info gestolpert, die ich schonmal irgendwo erfragt hatte(bekam keine Antwort oder habs übersehen - falls übersehen : sorry):

Now you might think, is the DisplayPort 1.2 standard able to refresh such a large resolution at 100Hz? Yes it is and it’s actually able to do it at 109Hz with a quality cable. G-SYNC does not work with any other standard than DisplayPort 1.2, so DisplayPort 1.3 or HDMI 2.0 (MHL) is not an option.
Quelle

Es geht bei der Auflösung um 3440x1440. Wird wohl keine 3440x1440-Panels mit 120/144Hz geben in naher Zukunft.
Ich muss mich jetzt entscheiden: 120Hz+ULMB+27zoll+Flat oder 100Hz+34zoll+curved...oder ist eventuell ein TN in 34+ Zoll angekündigt?


Hab dieses Werbe-Video gefunden für Acer XZ350CU

144Hz, 35", FreeSync, Curved. VA(AMVA3 laut geizhals) in 2560x1080
Was fehlt? ULMB-ähnliche Technik und ne höhere Auflösung.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hat jemand einen Schimmer, wieso der 29UM65-W von LG nicht mehr verfügbar ist? Gerade der war mein Kandidat für die Low-Budget-Variante eines 29er 21:9. Auch gebraucht ist die weiße -W-Version praktisch nicht zu kriegen. Der ist ja auch erst 1.5 Jahre auf dem Markt...
 
....
Eizo EV2736: lt. Prad "Noch erfreulicher ist allerdings der praktisch nicht vorhandene IPS-Glow-Effekt. Auch aus erhöhter schräger Sicht wird ein schwarzes Bild vollständig schwarz ohne gelbliche Aufhellungen angezeigt."
In freier Wildbahn wurde ein solcher Monitor wohl noch nicht gesichtet.
...

Aufgrund der Testergebnisse hatte ich damals auch meinen EV2736 gekauft. Das Bild bleibt aus allen Blickwinkeln annähernd schwarz. Wenn das nicht so gewesen wäre, hätte ich den Monitor sofort zurück geschickt. Da glüht also nix. Vielleicht verbaut Eizo in den Modellen mittlerweile IPS statt PLS Panels?
 
wieso gibt es keine 34-35" IPS Geräte mit ULMB in 3440x1440? Bei den VA-Modellen in 2560x1080 gibts einen Probanden...
 
Den LG 34UM67 kann ich unter Vorbehalt (Freesync wird noch getestet es sei denn das ist nicht wichtig) soweit empfehlen. Lediglich an den Rändern ist wenn man keine gescheite, muss nicht optimal sein, Sitzpostition hat, Gelbstiche beim näheren hinsehen und komplett schwarzem Hintergrund bemerkbar aber beim benutzen nicht. Die Ausleuchtung ist bei meinem sehr gut. Keine schwarzen Balken mehr bei Filmen, 2560x1080 Auflösung was man problemlos mit einer Mittelklasse Grafikkarte betreiben kann, ebenso für Spiele und keine Betriebsgeräusche. Man gewöhnt sich auch sehr schnell an das Breitbild was anfangs sehr breit erscheinen mag. Einziger Wermutstropfen, das es keine 21:9 Modelle mit allen Features und 3D gibt. Aber warten kann man lange, ich würde kaufen und bis dahin genießen.

@Darth Wayne
Bei LG und Samsung eventuell auch anderen halten die Geräte je nach Anfrage auch gerade mal 2 Jahre möchte ich meinen. Nach einem Jahr kommen die ersten Preisstürze und mit 2 Jahren oder kurz danach, gehen die Preise übertrieben hoch weil der Vertrieb eingestellt wird und die Geräte vom Neumarkt verschwinden und neue Modelle schon anstehen.
 
Zuletzt bearbeitet:
What about InputLag? Hat schon jemand diesen 4-Split-Modus bei den LG probiert? Interessant wäre für mich die 16:5 Einstellung.

Den LG 34UM67 kann ich unter Vorbehalt (Freesync wird noch getestet es sei denn das ist nicht wichtig) soweit empfehlen. Lediglich an den Rändern ist wenn man keine gescheite, muss nicht optimal sein, Sitzpostition hat, Gelbstiche beim näheren hinsehen und komplett schwarzem Hintergrund bemerkbar aber beim benutzen nicht. Die Ausleuchtung ist bei meinem sehr gut. Keine schwarzen Balken mehr bei Filmen, 2560x1080 Auflösung was man problemlos mit einer Mittelklasse Grafikkarte betreiben kann, ebenso für Spiele und keine Betriebsgeräusche. Man gewöhnt sich auch sehr schnell an das Breitbild was anfangs sehr breit erscheinen mag. Einziger Wermutstropfen, das es keine 21:9 Modelle mit allen Features und 3D gibt. Aber warten kann man lange, ich würde kaufen und bis dahin genießen.

@Darth Wayne
Bei LG und Samsung eventuell auch anderen halten die Geräte je nach Anfrage auch gerade mal 2 Jahre möchte ich meinen. Nach einem Jahr kommen die ersten Preisstürze und mit 2 Jahren oder kurz danach, gehen die Preise übertrieben hoch weil der Vertrieb eingestellt wird und die Geräte vom Neumarkt verschwinden und neue Modelle schon anstehen.
 
@-=DatHirschi=-
Du meinst die Splitscreen Technik beim Spielen? - oder einfach im Windowsbetrieb Monitorbild aufgeteilt. Dazu wird eine Software installiert die dann im Tray erscheint wo man bequem mit rechter Maustaste darauf wirklich viele Aufteilungsmöglichkeiten hat. Wenn man jetzt ein Windowsfenster anklickt und bewegt, werden je nach Aufteilen, sobald man das Fenster in den Bereich bewegt, grün markiert. Funktioniert ohne irgendwelche Verzögerungen wunderbar. Reaktionszeit kann man einstellen aber noch habe ich keine Gelegenheit gehabt den Monitor ausführlich zu testen.
 
Ja mein theoretischer Gedanke war eine Art Dual-Monitor-Setup. Quasi links das Spiel in 1080p und rechts ein Fenster für was anderes, das übrig bleibt. Dann wäre zwar der Vorteil vom Sichtfeld wieder weg, aber naja....
 

Mhhh.. Irgendwie scheiden sich an dem teil die Tester. Entweder ist der inputlag vollkommen ok mit 20ish ms. mal deutlich höher..

Der Acer Z35 wird ja das gleiche Panel haben.

Es gibts einfach nichts passendes, um meinen LG29er abzulösen. Dabei würde ich echt gern endlich mal auf 34-35 Zoll gehen. Der 29er war eigentlch von anfang an zu klein :d

Die 1440p 21:9 Panels gehen bisher nur bis 75hz, oder mit OC beim CK34 mit Gsync bis 100hz. Wobei der aber Probleme macht und ordentlich teuer ist.

Im 1080p Segment ist mir entweder der dynamische Bereich zu klein oder der PReis zu hoch :d 1100€ für einen 1080p Monitor mit VA Panel mit freesync ist echt schon eine Ansage. Im Moment versuch ich mir echt noch den LG34um67p schön zu reden. Der in Verbindung mit ner neuen Fury X ist preislich ähnlich teuer. Nur, ob mich die Entscheidung nicht irgendwann ärgert.... NErvig ;)


edit: gerade gesehen, dass der BenQ gar kein FreeSync/Gsync hat. Schade.
 
Zuletzt bearbeitet:
Der X34 ist mit neuer Firmware und BIOS absolut zu empfehlen, alle bekannten Makel sind nach der Reparatur weg!
Die Reparatur mit versenden 4Tage, wenn das kein Service ist :bigok:
Selbst wenn man jetzt Neu kauft und zum Service schicken müsste, ich würde es jedem empfehlen.
Natürlich sind die jetzt zum Verkauf stehenden überarbeitet.
 
Im Video wird es aber tatsächlich behauptet. Wohl ein Fehler! :shake:

Es wurde auch auf der BenQ Homepage damit beworben (unter Specifications) und ich wies bereits darauf hin mit screenshot, die Webseite wurde inzwischen korrigiert.
Man verwendet gerne bei Tests die vorgefertigten Werbetexte/Marketingsprüche, da war FreeSync wohl noch vor der Korrektur angegeben(displayport is 1.2nicht-a)


Wers sonst noch kurz davor den X34 zu bestellen? (wann der wohl in GR verfügbar sein wird...)
Wer ist der Meinnung die nächste Generation von Modellen abzuwarten? ich wollte eigentlich ULMB@120Hz nur wirds das in 3440x1440 nie geben und 2560x1080 für das Geld nicht akzeptabel - das Gerät will ich min 3 Jahre nutzen und in der niedrigen Auflösung wird die nächste 250€mainstreamkarte schon nicht nur fast unterfordert sein und denselben Effekt haben wie mein aktueller 1680x1050 - viel zu kleine Auflösung für aktuelle Inhalte, auch wenn Downsampling begünstigt wird lol....
 
Zuletzt bearbeitet:
Wers sonst noch kurz davor den X34 zu bestellen? (wann der wohl in GR verfügbar sein wird...)
Wer ist der Meinnung die nächste Generation von Modellen abzuwarten?

Ich warte lieber ab.

Nach dem Test des BenQ muss ich sagen das mir bereits 35" zu klein geworden sind.
Der Philips ist da echt zur Aufrüstfalle geworden. :d

Zusätzlich bin ich inzwischen nicht mehr empfindlich was inputlag und Geschwindigkeit des panels angeht, so das ich mit dem lahmen BDM leben kann.
Erstaunlich das es soweit gekommen ist, wo es doch mal Zeiten gab wo ich glaubte ohne lightboost/ULMB nicht mehr Leben zu wollen.

Dazustellen wie früher (als ich abwechselnd 3 Monitore zum Zocken nutzte) geht aufgrund des inzwischen eingeschränkten Platzangebotes auch nicht mehr.

Der Preis des Predator tut sein übrigens:
Für 1300€ sind einfach viel zu viele Kompromisse die ich für mich eingehen müsste.
 
Zuletzt bearbeitet:
DEr einzige Kompromiss für mich an dem Teil sind die 1300€. Und dass ich derzeit nur eine GTX680 noch hab, die dann auch raus muss. Ein weiterer wäre, inwieweit das im Moment noch sinnvoll ist eine GTX980 TI zu kaufen. Wann kam da was neues mit dx12? Wobei so ne INNO3D mit AiO Wakü für 720€ ist schon ne Ansage.
 
DEr einzige Kompromiss für mich an dem Teil sind die 1300€. Und dass ich derzeit nur eine GTX680 noch hab, die dann auch raus muss. Ein weiterer wäre, inwieweit das im Moment noch sinnvoll ist eine GTX980 TI zu kaufen. Wann kam da was neues mit dx12? Wobei so ne INNO3D mit AiO Wakü für 720€ ist schon ne Ansage.
sind einfach noch zu teuer und die billigere AMD-Variante hat nur 4GB RAM. Weswegen auch eine 980 mit 4GB nicht in Frage kommt.

Ja, aktuell reichen 4GB in den meisten Games, aber wer gibt 1500-2000€ um nur für 6 Monate durchzuhalten? Die nächsten Games, die viel VRAM brauchen kommen bestimmt, Konsolenports tendieren des Öfteren zu VRAM>RA - da mus man kein Mathe-Genie sein. Bei mir isses nur so daß ich nurr 3 Games intensiv spiele oder spielen werde wovon nur BlackDesert anspruchsvoll ist.
Ich würde mit 980@500€+x34@1100€ glaub ganz gut hinkommen. Nur ULMB@120Hz reizt mich ungemein für QuakeLive und andere schnellere Shooter da draussen - UT4is auch unterwegs - da wäre ULMB optimal - kommt leider nur mit dem Gsync-Modul...
 
Die TI hat ja 6GB, das sollte schon nen Moment reichen. Meine alte 680er GTX kommt jetzt leider an die Grenze, die ich mir in Verbindung von Performance und Qualität gesetzt hab. Keine Lust neue Spiele auf Low/Medium zu spielen. Die 3440x1440 sollen ja noch relativ gut beherrschbar sein denke ich. Jedenfalls hoff ich es.

Aber keine Ahnung, ob die Performance eher linear skaliert oder nicht bei 3.6mio pixeln (1440p) zu 4.9 mio pixeln (UWQHD) und 4k.

Wenn man z.b. die Tests der 980TI mal anschaut, fallen die FPS deutlich stärker ab im Verhältnis zu der Pixelanzahl. Da ist das Vram eher weniger das Problem. auch wenn man aktuellen Tests glaubt, sind 4gb für 4k derzeit genug. Dann sollten 6gb für weniger als 4k auch für mehr als 6 Monate für mich reichen ;)

Ich werde es einfach wohl mal austesten. Wenns nicht reicht, muss doch nen 2560x1080er her.

http://www.tweaktown.com/tweakipedi...ked-nvidias-geforce-gtx-titan-more/index.html doch nen kleinen benchmark test gefunden.

http://www.tweaktown.com/tweakipedi...rked-amd-radeon-r9-fury-295x2-more/index.html und hier in verbindung mit Fury Karten.
 
Zuletzt bearbeitet:
Natürlich skaliert ein Bild nicht linear zur Pixelanzahl. Wenn du einen 21:9 Monitor benutzt wo du einen höheren Blickwinkel hast muss die Grafikkarte mehr Meshs, Texturen etc. ... rendern welche auf dem 16:9 schlicht nicht im Bild wären unabhängig von der Pixeldichte. Für mich wäre UWQHD irgendwie die goldene Mitte aus verbesserte Immersion und Verbesserung der Auflösung wenn man von FHD kommt.
 
Natürlich skaliert ein Bild nicht linear zur Pixelanzahl. Wenn du einen 21:9 Monitor benutzt wo du einen höheren Blickwinkel hast muss die Grafikkarte mehr Meshs, Texturen etc. ... rendern welche auf dem 16:9 schlicht nicht im Bild wären unabhängig von der Pixeldichte.
Du verhaspelst dich hier mit den Begriffen?

Natürlich skaliert ein Bild linear zur Pixelanzahl, denn das Bild besteht aus diesen Pixeln. Da scheinst das Format zu meinen...
Das was du als höhere Blickwinkel bei einem 21:9 beschreibst, ist erstmal kein Winkel und das was extra gerendert werden muss, sind eben diese Pixel die mit dem Format und der gewählten Auflösung dazukommen.

Ich denke wir wollen auf dasselbe hinaus: die Objekte die zusätzliche gerendert werden müssen, weil eben links und rechts mehr Bild zu sehen ist, müssen auch in den VRAM.

Ich würde mich in meinem Fall mit einer 980 zufrieden geben, weil ich fast nie die neusten Games spiele, außer MMOs - die technisch wirklich stark hinterher hinken(vergleicht man mal mit W³).
Grundsätzlich hab ich sogar was dagegen eine NV zu kaufen, vor allem nach dem 970er Debakel.
Ich will mich nur nicht mit 75Hz begnügen müssen oder mit 2560x1080...
 
Zuletzt bearbeitet:
Ich würde auch sehr gerne mal wieder eine AMD Karte testen und nutzen. Der einzige Vorteil des Setups wäre ein geringerer PReis, dafür aber "nur" 75hz. Und auch die Benchmarks sprechen leider für sich. Wenn ich z.b. eine Inno3D 980TI mit AiO Kühlung für 720 Tacken bekommen kann, eine Fury x aber schon mindestens 670€ kostet, in allem unter 4k langsamer als eine Stock 980TI ist, kaum OC Potential hat und nur durch dx12 glänzt (wann auch immer erste Titel dafür kommen), fällt die Entscheidung was das angeht erstmal nicht schwer. Was das Dx12 bringt, weiss ich natürlich nicht, kann mir derzeit aber nicht vorstellen, dass es am Ranking groß was ändert. Ich find die AMD Struktur echt cool, aber am Ende zählt für mich bei solchen Preisen dann doch alleine die Leistung.

Eine neue KArte muss eh her, nur ob ich die 1300€ derzeit auch noch bereit bin auszugeben, kA. Für relativ zukunftssicher halt ich ihn ja schon (XR34)
 
Die Fury X läuft sehr gut bei der Auflösung. Klar ist ne 980ti schneller, darüber brauch wir nicht diskutieren, allerdings ist die Kombination Freesync Acer + Fury X deutlich billiger. Mit dem VRAM gabs bis jetzt noch keine Probleme.

Gestern die Warhammer Vermintide Beta gespielt, die hat fast die komplette 4GB belegt aber alles flüssig bei rund 50 FPS.
 
Rechenspiele:
Fury & XR34 > 1750
FuryX & XR34 > 1900
980 & X34 = 1800
980Ti & X34 = 2000

Ich denke die erste Kombo macht P/Lmässig bereits genug Sinn, man muss sich aber eben mit 75Hz zufriedengeben, was ich in dieser Preisklasse für einen nicht akzeptablen Kompromiss halte, weswegen für mich auch die zweite Kombi wegfällt.

Die dritte Kombi hat einen kleinen VRAM-Engpass, den man aber aktuell nur in Extremfällen fürchten muss. Das wird sich aber mit der Zeit ändern mit neuen Games und ein Upgrade wird früher nötig sein, als mit den anderen 3 Karten (ich beziehe mich bei den AMD-GPUs auf den sehr guten Ruf der Kompression des Speichers)

Vierte Variante ist schon sehr teuer, aber da der Preis des Monitors sich kaum ändern wird, machen die +100€ mehr als bei FuryX+XR34 schon Sinn, denn man bekommt 6GB VRAM+100Hz dazu.

Will man preislich besser wegkommen, kommen nur gebrauchte 980/980Ti in Frage oder man geduldet sich bis die aktuellen HighEnd/Enthusiast-GPUs billiger werden mit dem Erscheinen der nächsten Generation des jeweiligen Herstellers - das wird leider mindestens 6 Monate dauern, fürchte ich.


Alternativen sind die 35er Displays, die sind aber mit der Auflösung 2560x1080 eher für 970/380X prädestiniert. imho. Diese Displays haben aber die gleichen Preise wie die 34er Pendants und die verwendeten VA-Panels sind langsamer als die IPS-Varianten.
 
ich habe das hier nur oberflächlich verfolgt, ich bin am Überlegen mir vom Weinachtgeld eine 21:9 zu schenken :fresse:

was ist vom Dell UltraSharp U3415W zu halten ?
ich habe ja den DELL U2410, u. bin auch recht zufrieden damit,

gespielt wird so ziemlich alles außer Simulationen, also CoD FarCry DeusEx Fallout GTA usw. aber praktisch nicht mehr online, so hat mit beim U2410 der sPGB Modus gereicht u. ich habe kaum den Game Modus genutzt,
60hz reichen mir auch im Prinzip,

wie sieht es dann mit der Frame Verzögerung aus beim U3415W, im Vergleich zum U2410 ?
hat der U3415W auch dieses Pink/Grün Problem im Paneel, ist das IPS Glitzern ähnlich oder stärker
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh