Alienware 34 Curved QD-OLED: Mit 175 Hz, Curved-Panel und G-Sync

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
was könnte man eigentlich so als besser nennen verglichen mit einem LG Oled?
Natives 21:9, natives G-Sync (der LG ist G-Sync kompatibel), lässt sich locker an einem Monitorarm montieren und man kann ohne Platzprobleme auf einem normalen Schreibtisch noch einen zweiten Monitor daneben stellen, man braucht keine Fernbedienung, um ihn zu verwenden, er ist gekrümmt (für die Leute, die das mögen), Burn-In Garantie seitens des Herstellers, Displayport, etc.
 
Und die Diskussion startet erneut, wer hat noch nicht wer will noch mal.

Ob es wieder ausartet und hässlich und voller Blut und Gewalt wird? Man kann es nur hoffen. 🔥🩸

LG vs Alienware die 88ste, let’s a go 😎
 
Ist doch keine Diskussion. Er hat gefragt, welche Vorteile der AW hat und jeder schreibt, was für ihn die Vorteile sind. Er muss dann halt selbst entscheiden, ob dies auch für ihn Vorteile sind.
Ich muss mich mit niemandem streiten, warum er das eine oder das andere besser findet. Ich bin mit meiner Wahl größtenteils zufrieden.
 
Ich versteh es ehrlich gesagt auch nicht ganz. Das eine ist nen Monitor, das andere nen Fernseher. Das eine ist 21:9, das andere 16:9. Das eine ist 42 Zoll, das andere 34.
Ich habe auch nach unterschiedlichen Merkmalen gefragt und hab mir Unterschiede und vor und Nachteile erklären lassen und habe darüber diskutiert, aber nicht hier, weil es meiner Meinung nach hier nicht hin gehört.
Je nach Modell hat man doch ganz andere Anforderungen. Nur zu sagen OLED verbindet beide Modelle ist ebenfalls zu kurz gedacht, weil das eine QD-OLED ist und das andere WOLED.
 
Ist doch keine Diskussion. Er hat gefragt, welche Vorteile der AW hat und jeder schreibt, was für ihn die Vorteile sind. Er muss dann halt selbst entscheiden, ob dies auch für ihn Vorteile sind.
Ich muss mich mit niemandem streiten, warum er das eine oder das andere besser findet. Ich bin mit meiner Wahl größtenteils zufrieden.

Geht mir so wie dir, hatte den Alienware und bin auf den LG umgestiegen. Dann muss man aber auch alle Fakten realistisch betrachten:

natives G-Sync (der LG ist G-Sync kompatibel)

Bietet bei OLED noch genau welchen Vorteil? Bei LCD hatte es den Hintergrund die Pixelresponse Time besser zu koordinieren, das braucht es bei OLED und nahezu Instant Response Times nicht mehr, im Falle des Ultimate Modules wie beim Alienware bringt es manchmal sogar Nachteile wegen eines hörbaren Lüfters (das Problem hatte ich nicht beim Alienware, oder habe es zumindest nicht störend wahrgenommen).

lässt sich locker an einem Monitorarm montieren und man kann ohne Platzprobleme auf einem normalen Schreibtisch noch einen zweiten Monitor daneben stellen

Kann man den 42C2 auch da er um einiges leichter ist als die 48er und dadurch keinen HX Arm benötigt, ob man bei 42" "NOCH" einen zweiten Bildschirm benötigt muss dann wieder jeder selbst entscheiden, mit Fancy Zones kann man das Display nach seinen Wünschen voll ausnützen.

man braucht keine Fernbedienung, um ihn zu verwenden

Braucht man beim LG auch nicht, ok nicht ganz die Wahrheit, beim ersten mal einrichten ist Sie Hilfreich, danach braucht man Sie nicht mehr.
Meine liegt nur herum. Entweder schaltet man den Bildschirm direkt unterm Display an und aus oder man bindet den TV ins WLAN ein und dreht den LG per Sprachsteuerung, Handy, Tablet oder, wie in meinem Fall, per Smartwatch einfach auf oder ab.
Außerdem kann man den TV auch per Software wie einen Monitor ansteuern damit die Windows Energieoptionen greifen, wurde hier im Forum auch schon des öfteren erklärt, benötige ich aber nicht.


Displayport 1.4 ist ohne DSC HDMI 2.1 technisch unterlegen, würde ich jetzt nicht als Vorteil nehmen.

Aber jetzt sind wir wieder bei der 88sten Diskussion und es gibt einfach kein richtig und kein Falsch.

Jeder sollte inzwischen die Fakten kennen, wenn nicht, gibts hier im Forum genug Beiträge wo gründlich darauf eingegangen wird.
 
Entweder schaltet man den Bildschirm direkt unterm Display an und aus
Wie denn?
Also das ging bei mir genau 1x wo ich ihn das erste mal einschalten musste.

Dachte das man dann da immer aus und an machen kann geht aber nicht^^
Beitrag automatisch zusammengeführt:

Bietet bei OLED noch genau welchen Vorteil?
Ich sags dir schonmal,Sync bis auf 1Hz runter^^.
Beitrag automatisch zusammengeführt:

wenn nicht, gibts hier im Forum genug Beiträge wo gründlich darauf eingegangen wird.
Als ob sich jemand die Mühe macht zich Seiten durch zu lesen,siehst ja im LG OLED Thema wo alle 2Woche die gleichen Fragen kommen.

Ist halt einfacher,einfach nochmal zu fragen,irgendeiner Antwortet trotzdem^^
 
Alles wurde schon einmal gesagt, aber weil keiner zuhört, muss es immer wieder gesagt werden 😘
 
Bietet bei OLED noch genau welchen Vorteil?
G-Sync bietet Variable Refresh Rate über den vollen Frequenzbereich des Monitors. Die LG OLEDs als G-Sync Compatible eben nur von 40 - 120 Hz. Das mag für viele kein Thema sein, für einge User aber doch.

Mit dem Monitorarm haste beim 42" Modell sicher recht. Der passt auch auf LX. Aber die älteren Modelle in 48" sind dafür wieder zu schwer.
Und zweiten Monitor muss ich haben. Wenn ich im Vollbild am Hauptmonitor zocke, dann will ich den anderen Kram eben auf dem zweiten Monitor haben. Auch das ist persönliche Präferenz.
Das mti DP 1.4 ist sicher kein nennenswerter Vorteil. Zumindest dann nicht, wenn man einem das native G-Sync nicht wichtig ist.

Daher habe ich keine Ahnung, was dir hier so sauer aufstößt. Ich hatte ja 2 Postings nach dem, wo du mich zitierst ja noch geschrieben, dass es die Vorteile sind, die ich beim AW sehe. Da kann sich dann jeder ein Bild machen, ob das für denjenigen wichtig ist oder auch nicht.
 
Mir stößt gar nichts sauer auf, da hast du etwas falsch verstanden.

Mir ging es nur darum deine Punkte klar zu stellen da es für einen Neu Interessierten vielleicht so rüberkommt als ob das definitiv so ist wie du gesagt hast, was ja nicht der Fall war wie man sieht.

Ich sags dir schonmal,Sync bis auf 1Hz runter^^.
Beitrag automatisch zusammengeführt:

Die LG bieten unter 40FPS bis 20FPS LFC, wenn ein Game darunter laufen sollte ist es sowieso sinnlos, auch wenn ein G-Sync Modul bis 1 FPS Syncen kann.
Der Große Vorteil von Hardware G-Sync war der von mir genannte Variable Overdrive: "In addition, a dedicated G-SYNC module offers variable overdrive. Gaming monitors use overdrive to push their response time speed so that the pixels can change from one color to another fast enough to prevent ghosting/trailing behind fast-moving objects."

Das Problem haben die OLED mit unter 1ms Response Time eben nicht mehr, deshalb fällt dieser Punkt auch noch weg der ein Hardware G-Sync Modul heute noch rechtfertigen würde, das wollte ich damit lediglich aufzeigen.

Wie denn?
Also das ging bei mir genau 1x wo ich ihn das erste mal einschalten musste.

Dachte das man dann da immer aus und an machen kann geht aber nicht^^
Beitrag automatisch zusammengeführt:

Also ich drücke einfach in der Mitte auf den Knopf zum Einschalten, dann klackt es und der Bildschirm startet, beim Ausschalten das selbe nur dass man den Knopf 1x Drückt, dann geht das Onscreenmenü auf und dann drückt und hält man den Knopf am Bildschirm zum bestätigen der Eingabe (ist der 1. Punkt welcher Power Off ist).

So nun genug OT hier, der Interessierte weiss jetzt hoffentlich was er wissen will/muss.
 
Die LG bieten unter 40FPS bis 20FPS LFC, wenn ein Game darunter laufen sollte ist es sowieso sinnlos, auch wenn ein G-Sync Modul bis 1 FPS Syncen kann.
Der Große Vorteil von Hardware G-Sync war der von mir genannte Variable Overdrive: "In addition, a dedicated G-SYNC module offers variable overdrive. Gaming monitors use overdrive to push their response time speed so that the pixels can change from one color to another fast enough to prevent ghosting/trailing behind fast-moving objects."

Das Problem haben die OLED mit unter 1ms Response Time eben nicht mehr, deshalb fällt dieser Punkt auch noch weg der ein Hardware G-Sync Modul heute noch rechtfertigen würde, das wollte ich damit lediglich aufzeigen.
Ich weis,hab nur die Antwort,was der User geschrieben hätte,schonmal geschrieben:d.

G-Sync macht halt kein sinn bei OLED und wenn man aus der Freesync Range fällt,ist das Spiel so oder so nicht mehr spielbar,ob da Sync nune noch greift oder nicht,ist dann auch egal.
Beitrag automatisch zusammengeführt:

Also ich drücke einfach in der Mitte auf den Knopf
Muss ich nochmal gucke,am Anfang hat sich das eher wie nen Touchefeld angefühlt,aber wenns nen richtiger knopf ist....hab ich garnicht so gemerkt hmm.
 
Ich glaube ein Unterschied ist auch, dass es bei bestimmten Konstellationen sehr kompliziert wird mit dem LG OLED als Monitor. Ich habe meinen Schreibtisch mit Monitor in meinem Wohnzimmer in einer Ecke (großes Wohnzimmer) und einen TV zum Zocken. Nun ist es so, dass Grafikkarten fast immer (ich kenne jetzt spontan keine anderen) nur einen HDMI2.1 Ausgang haben. Der TV möchte natürlich diesen Anschluss besetzen, wenn man nun noch einen LG OLED als Monitor nutzten möchte, muss man irgendwie mit Adaptern experimentieren, um einen DP-Ausgang der Grafikkarte zu nutzen. Ob dann auch noch VRR, ALLM etc. noch funktionieren, weiß ich nicht. So unwahrscheinlich finde ich den Fall jetzt nicht, dass man an seinem PC einen Monitor und einen TV hängen hat.
 
  • Danke
Reaktionen: Buk
Ausserdem reicht doch selbst 1 x HDMI 2.1 aus
Nur wenn man seinen PC (mit TV als Monitor) nicht noch mit dem Wohnzimmer-TV verbinden will, denn dann wirds eng.
Und nicht unbedingt steht das beim Kauf der Grafikkarte schon fest. Gerade weil man bei der RTX3000 nicht den Luxus hatte, sich da ein bestimmtes Modell zu kaufen.

Haben die Grafikkarten eigentlich kein DisplayPort++? Also dass sie mit einem passiven Adapter HDMI 2.1 einfach durchreichen können? Denn die bisher von mir probierten zwei "einfachen" Adapter waren am Ende des Tages nur einfach aktive und konnten tlw. nur 1080p60 durchreichen.
Die "richtigen" aktiven Adapter wie der Club3D können kein VRR.
HDMI-Switche führen zu Bildaussetzern.
 
Zuletzt bearbeitet:
1 x LG OLED als Monitor ( HDMI ) + 1 x Wohnzimmer TV ( HDMI ) ( der dann was ist ? Für Filme die man auf dem PC hat und dann im Wohnzimmer sehen will ? Wenn ja reicht da ja dann zumindest nen oller HDMI 2.1 Adapter
Nein, sondern schlicht und einfach zum Spielen, daher "braucht" man da den vollen HDMI 2.1-Funktionsumfang.

es gibt sie also schon GPUs mit mehr als 1 x HDMI 2.1 kommt halt darauf an ob man vorher mitgedacht hat beim GPU kauf oder nicht... ich hab damals zumindest mitgedacht und die Strix mit 2 x HDMI 2.1 genommen
Das hat nichts mit mitdenken zu tun, ich hätte natürlich auch lieber eine Asus gehabt, aber ich war froh, überhaupt eine Karte zur UVP zu bekommen. 500€ Aufpreis für den zweiten Anschluss wollte ich dann auch nicht zahlen?!
 
Dafür das die Karte eigentlich nicht mehr wert ist als 600-700€ ganz schön happiger Aufpreis den du da mit 950€ bezahlt hast. Ich halte die Dinger mit 10GB VRAM immer noch für Speicher Krüppel zu dem Preis.
Dafür was sie bieten eindeutig zu teuer.
 
Letzter Beitrag zu dem Thema, da das wirklich OT ist.

HDMI 2.1 Splitter / Switch nachdenken
Hab ja einen, macht aber Bildaussetzer. Der von dir verlinkte ist ein direktionaler Switch, zum Anschluss von mehreren Quellen an ein Display. Die andere Richtung geht da nicht.
Manuell umstecken
Bestimmt nicht.
1. Ist die Belastung bei dem ohnehin schon empfindlichen HDMI 2.1 eher zu vermeiden, hab ja bis jetzt nicht mal ein Bildaussetzerfreies Kabel gefunden, wenn ich da auch noch umstecke dauernd kann ichs komplett vergessen.
2. Widerspricht das auch ziemlich dem Komfortvorteil des Couch-Zockens, wenn ich erst an den PC rennen muss und dort irgendwelche Kabel umstecken muss. Wird ja per WOL gestartet und per Controller/Wireless-Maus bedient.

ich hab meine 3080 Strix im November 2020 für 950 Euro gekauft
Sind halt immer noch satte 250€ Aufpreis zur FE, für jemanden, der seine Karte ohnehin undervolted, sind mir die Vorteile der Asus (Außer dem 2ten HDMI-Port) komplett egal. Sehe halt einfach null den Sinn, für 5% mehr Leistung einfach 100W mehr zu verbrauchen.
Ich habe meine FE sogar einen Monat VORHER gekauft und 700€ waren schon sehr viel für eine Grafikkarte.
Knappe 1000€ sehe ich halt einfach überhaupt nicht ein.
Doch, der könnte einfach DisplayPort haben, dann hätten wir die ganze Diskussion nicht. Frühere Fernseher hatten ja auch einen als "PC" gelabelten VGA-Anschluss.

Alienware QD OLED über DP + ein LG OLED über HDMI + ein Wohnzimmer TV über HDMI
In meinem konkreten Fall nutze ich keinen Monitor mehr, es geht nur um zwei Fernseher, einen kleinen am Schreibtisch und einen großen im Wohnzimmer.
Ich dachte ich sei auch im LG OLED-Thread, sorry dafür.
 
Nun ist es so, dass Grafikkarten fast immer (ich kenne jetzt spontan keine anderen) nur einen HDMI2.1 Ausgang haben.
Entweder verstehe ich deinen Zusammenhang nicht oder du kaufst immer nur die allerkleinste Karte einer Reihe. Ich kann mich nicht daran erinnern, dass ich in den letzten zehn Jahren eine GPU mit nur einem Ausgang besessen oder in der Hand gehalten hätte.
 
Die Anschlussausstattung ist Standardkost und umfasst einen HDMI-2.1-Ausgang und drei DisplayPort-1.4a-Ausgänge. Das sind die Anschlüsse meiner 3080ti.
 
Habe gerade mal gefiltert:
Es gibt 76 Karten bei Geizhals mit 2x HDMI 2.1 ab Modelljahr 2020.

Hat eigentlich jede 2te Custom Karte in petto, wirklich selten oder was besonders ist das jetzt nicht ansatzweise…

Werde mir wohl eine 4080/4090 holen und dann auch da darauf achten,
die Karten sollten ja wieder normal verfügbar sein und man kann sich diesmal die Wunsch-Karte aussuchen die man will (und nicht die die eben irgendwie verfügbar ist).

Des Weiteren haben die neuen Karten ja wohl alle DP 2.0, leider gibts dafür noch null Monitore mit dem Anschluss. Naja Henne Ei Problem. 😏
 
Zuletzt bearbeitet:
Meine Karte hat auch nur 1x HDMI2.1,hab darauf garnicht so geachtet,dachte es sind immer 2 vorhanden.

Aber bei mir nicht so schlimm da ich eh nur 1TV drann habe,und beim rest regelt DP mit DSC.

Zumal ich garkein Grund habe 2 Monitore zu betreiben 42" reichen mehr als aus.

Blos so 10" display wäre noch fein wo man sich Temps und co anzeigen lassen kann.
 
Hat eigentlich jede 2te Custom Karte in petto, wirklich selten oder was besonders ist das jetzt nicht ansatzweise…
Sehe ich nicht so, wenn man mal schaut bei der 3080:

Sind das angeblich "34" Karten, aber wenn man sich genauer die Karten anschaut, dann sind das auch immer nur die gleichen Karten, halt in Sonderversionen (Asus "EVA" Edition oder Noctua-Edition, LHR, nicht-LHR, 10GB, 12GB). Gigabyte hat ja 21(!) Versionen der 3080.
Und insgesamt sind das genau zwei Hersteller, Asus und Gigabyte.

Das bedeutet, folgende 9 Hersteller haben keine 2xHDMI: EVGA, Gainward, Inno3D, KFA2, Manli, MSI, Palit, PNY und Zotac.
Blöd, dass vorallem EVGA und MSI im Forum-Marktplatz nur auftauchen, Asus und Gigabyte sind dagegen selten.

An sich hat das eh nichts mit meiner Anfangsfrage zu tun: Nämlich ob eine moderne Grafikkarte wie die 3080 nicht HDMI einfach durch den DisplayPort-Anschluss durchreichen kann, wie es früher auch ging?
 
Wird vermutlich niemand wissen, aber mein Windows hat soeben "Dell Inc. - Monitor - 1.1.0.0" installiert. War unter den Windows Updates. Wir hatten ja geklärt, dass es eigentlich nur Farbprofile sind, aber vielleicht tatsächlich auch mehr. Mein Lüfter-Mod ist aber längst am laufen, sodass ich keine Aussagen zu der (geänderten) Geräuschkulisse geben kann.
 
Hab meinen Treiber auf 1.1.0.0 aktualisiert.Mal sehen wie er sich verhält, wird schon einen Grund für das Update geben, denk aber eher nicht, dass er jetzt leiser wird. :xmas:
Wenn ich den Darkmode nutze, hab ich kein Problem mit dem Lüfter.Leider gefällt der mir nicht.😛
 
Ist ja immer etwas schwer zu beurteilen. Hab halbes Fenster Browser und halbes Stream ( Sky/Netflix).
So ist der Lüfter absolut erträglich, auch wenn ich den Stream mute ist der Lüfter zwar hörbar aber erträglich.
Kann natürlich sein, dass es bei einem ganzen Browserfenster wieder laut wird.Werd das im Auge behalten.Im Darkmode ist auch alles ok, hörbar aber nicht zu anstrengend.

Würde sagen,dass sich an der Lautstärke leider nichts geändert hat.
 
Zuletzt bearbeitet:
Das bedeutet, folgende 9 Hersteller haben keine 2xHDMI:
2x HDMI ist auch absolut unnötig, weil das in der Regel einfach niemand nutzt. Im Heimbereich kannst du ja einen AVR mit zwei Ausgängen nutzen (Also genau DAS Hauptaufgabengebiet von HDMI) und fast jeder Monitor sollte wohl heutzutage normal einen Displayport haben. (Geizhals: 1735 von knapp 2000 Monitoren haben beides)

Hilft wahrscheinlich nicht, wenn man zwei ältere Monitore hat oder 2x TV anschließen will. Aber zu sagen, dass Grafikkarten nicht ausreichend Anschlüsse haben ist schlicht gelogen.

Erweiterst du deine Suche nämlich auf 1x HDMI und 1x Displayport, bist du bereits bei 88 Modellen verschiedener Hersteller, alleine bei der 3080. Ohne GPU-Beschränkung bist du bei knapp 800 Modellen über die gesamte Produktpalette, wobei bei Geizhals natürlich eher die neueren Modelle gelistet sind die und die älteren irgendwann rausfallen.
 
Lieferzeit immer noch 2 Monate, das kann doch nicht Dauerzustand werden 🤔
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh