Die neuen Computex-Monitore von ASUS in der Übersicht

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.964
asus_pg258-teaser.jpg
Im Rahmen der Computex 2017 stellte ASUS im Bereich derMonitore mit dem ROG Swift PG35VQ ein echtes Gaming-Monster vor. Der 35-Zöller verfügtüber ein hochauflösendes AHVA-Panel mit 3.440 x 1.440 Bildpunkten und weisteine Bildwiderholrate von pfeilschnellen 200 Hz auf. Obendrein gibt es Unterstützungfür NVIDIAs G-Sync, HDR, das AuraSync-Beleuchtungssystem und ein LED-Backlight mit 512Dimm-Zonen. Außerdem zeigt sich das Display mit einer Helligkeit von bis zu1.000 cd/m² sehr...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Boah... der PG27UQ... ich traue meinen Augen nicht. :eek: Seit mehr als sechs Jahren bin ich am Suchen und Maulen und enttäuscht über die mangelhafte Auswahl an Monitoren, die das bietet, was ich suche. Nie auch nur einen gefunden der alle Häkchen setzt: maximal 27 Zoll, nicht breiter als 16:9, mehr als 150 DPI, mehr als 60 Hz und mit irgendein-sync, und das ganze bitte nicht auf TN... dieser Monitor hat wortwörtlich nie existiert, egal zu welchem Preis.

Lange, lange hat's gedauert. :hail: Dass es auch noch direct-LED HDR obendrauf gibt, ist da fast schon nebensächlich. Dieses Jahr beschenke ich mich selbst zu Weihnachten.
 
Zuletzt bearbeitet:
@keinnamefrei
Was? Du hast bereits vor über? 6 Jahren nach UHD-Monis gesucht?:)
Tja, das glaube ich Dir, dass Du da etwas ‚enttäuscht‘ über die ‚mangelhafte Auswahl’ warst.:lol:
Fast könnte ich mir sogar vorstellen, dass selbst Free-/G-Sync-Monis in 2011 auch noch garnicht sooo verbreitet waren.:rofl:

Und die Jahre danach hast Du gesucht und die Moni-Hersteller verflucht, weil sie kein UHD@144Hz angeboten haben?
Bist Du mal auf die Idee gekommen, dass es nicht der Moni-Hersteller oder seine Panels die Sache limitieren, sondern ganz simpel das Ende der Übertragungsbandbreite des DP1.2-Standards?
Du hättest nie auch nur eine Moni-Spec-Zeile lesen brauchen, solange nicht groß am Entwicklungshorizont ein neuer Übertragungsstandard angekündigt wird, der just in diesen Monaten zum alleralleraller-ersten Mal in einem Consumer Gaming-Moni verbaut ist: Code-Name: DP1.3/1.4.
6 Jahre, tz

Übrigens: Sollte Deine 1060 bereits über DP1.2 zuweilen keine 60Hz an UHD (3.860x2.160) erreichen, wird auch der DP1.4-Standard nichts daran ändern können, die GraKa ackert am Limit, egal ob in DP1.2 oder in DP1.4, mehr Daten kriegst Du aus ihren Schaltungen nicht herausgequetscht.
Selbst wenn bei Deinen Games, die GraKa unter UHD@60Hz nur zur Hälfte beschäftigt ist, kriegst Du die 144Hz nie zu Gesicht.
 
Zuletzt bearbeitet:
Was von Asus kommt ist eh alles Lotto mit Schrotttronics Panel...da würde ich mich nicht zuviel drauf freuen ich will jedenfalls keine Tauschorgie bei 2K Euro machen:).

Zielgruppe: Hardcore-Gamer :d

Musste ich schon lachen aber sowas zieht bei den Kids bestimmt.
 
Zuletzt bearbeitet:
Ähm ja Asus, Freesync 2 fängt so langsam an und dann gibts doch nur Freesync 1. Na ja, dann wirds halt Samsung.
 
Was von Asus kommt ist eh alles Lotto mit Schrotttronics Panel...da würde ich mich nicht zuviel drauf freuen ich will jedenfalls keine Tauschorgie bei 2K Euro machen:).

Zielgruppe: Hardcore-Gamer :d

Musste ich schon lachen aber sowas zieht bei den Kids bestimmt.
Muss da leider zustimmen. So toll sich die technischen Daten dieser Geräte lesen, die Panel Qualität und QC war und ist bei den ASUS Gaming Monitoren unter aller Sau! Für 2000€ muss sonen Teil dann perfekt sein, wenn's da wieder mit Panel Lotterie und Qualitätsproblemen losgeht, gute Nacht..
 
Zuletzt bearbeitet:
@fullHDade - Freut mich, dass ich deinen Tag mit einem Lachen versüßen konnte!

Bisschen schade, dass du überhaupt nicht verstanden hast, worum es geht, und interessante Dinge in meinem Posting gelesen haben willst, die dort gar nicht drinstehen. Wenn es dich wirklich interessiert, können wir gerne darüber reden, und ich erkläre dir gerne, wie es gemeint ist. Aber mich beschleicht leider der Verdacht, dass es dir hier hauptsächlich darum geht, dich selbst besser darzustellen, in dem du Wege erfindest, andere Leute lächerlich zu machen. Und, sorry - auf der Ebene fange ich gar nicht erst an.
 
@keinnameFrei
Jau, so einen Tag später nochmal auf meine Zeilen geschaut, sind sie wohl etwas zu nahe tretend gewählt.
(Ich bin Berliner und zuweilen etwas polternd.)
Die Smileys sollten ein wenig einen ‚beschwingten‘ Tonfall transportieren und Dich nicht auslachen.
Ich entschuldige mich.

Aber ich glaube, ich habe Deine wünschenswerten Eckdaten durchaus korrekt interpretiert:
Ein maximal 27Zöller in 16:9 mit >150ppi muss zwingend ein Moni mit UHD-Auflösung sein, also 3.860x2.160 Pixel.
(Vorausgesetzt Deine Ausführungen beziehen sich nicht auf einen 14Zöller mit FHD-Auflösung.)
Und bei UHD-Auflösung passen nunmal nicht mehr als max. 60 Hz durchs DP1.2-Protokoll.
Ergo: Solange es kein Übertragungsstandard gibt, der deutlich mehr Daten als DP1.2 überträgt, kann es auch keinen UHD@144Hz-Moni geben
(Ausnahme: mit 2x der halben UHD-Auflösung könnte man mit MST an DP1.2 120Hz erreichen, wurde aber nach meiner Kenntnis so nie angeboten.)

Da ich ja auch ein großer Fan von UHD-Monis, bzw. sehr hohen Auflösungen bin, und somit recht viel über das Thema UHD/‘4k‘ lese, kommt einem halt immer und immer wieder die Limitierung von DP1.2 bei UHD auf 60Hz unter.
Nach einer Weile fiel mir auf, dass User mit dem Wunsch nach mehr Hz@UHD, generell den Monitor bzw. den Moni-Hersteller die Schuld dafür in die Schuhe schieben.
Aber der kann ja garnichts dafür.
Wurde, z.B. auf HWluxx, mal wieder ein neues UHD-Modell vorgestellt, hat es max. 3 Posts gedauert, bis einer schrieb: ‚Och, der hat ja wieder auch ‚nur‘ 60Hz.‘
Und ich denke mir: ‚Wie sollte er auch mehr haben können, solange es keinen breiteren Übertragungsstandard gibt.‘
Die neuen nvidias nun haben DP1.4-‚ready‘ (was genau dies auch heißen mag) und AMD wird wohl in absehbarer Zeit nachziehen. Dann wohl gleich mit einigen DP1.4-Features, die nvidia wegen des früheren Releases noch nicht verbauen konnte.
Und schwupps: Es kommen Monitore auf den Markt, die diese Datenmengen deutlich über dem DP1.2-Standard auch verarbeiten können.
Nun denkt/sagt sich der User: ‚Na plötzlich könnt ihr Moni-Hersteller es ja doch.‘
Ja, weil der DP1.4-Standard irgendwann mal verabschiedet wurde, die Elektronik entsprechend entwickelt/produziert wurde und auch (denn ohne geht es nicht) die GraKa Hersteller damit umgehen können, und zwar nicht nur als DP1.4-‚ready‘ in den superteuren Gaming-Karten, sondern auch als übliche Schnittstelle in der gesamten Produktions-Palette.

Drum mein nicht enden wollendes argumentieren, dass der Moni-Hersteller am wenigsten für Limitierungen im Datenstrom kann.
Der Wunsch des Gamers nach Monis mit Sync und 144Hz für ein tolles Spielerlebnis ist ja nur eine Folgeerscheinung von der unzuverlässig arbeitenden GraKa, die von der Game-Engine an ihre Grenzen getrieben wird.
Und dies zu kaschieren, greifen die Techniken im Moni ein, um mit Sync und 144Hz, den ruckelnden Output der GraKa ein wenig aufzuhübschen.
Aber: Nur weil der Moni nun Dank DP1.4 einen sehr viel breiten Datenstrom verarbeiten kann, heisst dies ja noch nicht, dass da eine DP1.4-GraKa auch mithalten kann.
Nicht umsonst benutzt der ‚Hardcore-Gamer‘ weiterhin einen FullHD-Moni, weil, je nach Einstellung und Game, sogar eine 1080-GraKa bei FHD ans Limit getrieben werden kann.
Ich finde UHD toll, aber ich spiele ja nicht. Der Gamer gibt im allgemeinen freimütig zu, dass man fürs gamen an UHD einige Einschränkungen in Kauf nehmen muss, vornehmlich weil die GraKa nicht hinterher kommt.
Daraus folgere ich: Solange z.B. eine 1080 das Maximun der aktuellen GraKa-Performance darstellt, ist die Verwendung und Ausreizung des DP1.4-Standards z.B. für UHD@144Hz als Gaming-Feature nur bedingt tauglich.
Drum werden diese Monis auch erst in einem halben Jahr oder in einem Jahr releast, weil bis dahin auch die nächste GraKa-Generation rauskommt.
(Ich tippe auf eine Zehn-neunzig wenn nicht sogar eine Elfhunderter…)

Mit der Präsentation dieser Monitore zeigt der !!Moni-Hersteller!! schonmal selbstbewusst an, dass seine Geräte durchaus startklar sind um zur nächsten Bandbreiten-Schlacht antreten zu können...
 
Zuletzt bearbeitet:
Mit Local Dimming ist das Panel an sich nicht mehr so wichtig weil die LED Zonen in dunklen Bereichen ausgehen und somit Glow, BLB sowie Clouding kaschiert werden.
Ich hatte bereits 2008 diesen Samsung TV und der konnte echtes Schwarz aber mit deaktiviertem Dimming sah er aus wie jeder andere LCD. Dazwischen liegen Welten.
Da diese Technik bisher noch nie in Monitoren zum Einsatz kam ist es eine kleine Revolution wobei es natürlich 10 Jahre zu spät kommt weil nun schon OLED existiert :fresse:
Naja tote Pixel oder Dreck im Panel usw. haste da aber auch genauso ggf. und das war und ist ein großes Problem bei deren Monitoren. Teilweise erst nach paar Wochen in Betrieb. Für 2000€ dann die Katze im Sack kaufen, nein Danke^^' Natürlich ist das am Monitor Markt auch einzigartig, aber die Preisleistung stimmt von vorne bis hinten nicht. Für das Geld kriege ich nen Sony XE93 mit 55", da kauf ich mir lieber den TV und stell mir ne ONE X drunter (ne PS4 Pro hab ich schon) ehrlich gesagt..^^'
 
@fullHDade Danke, eine Entschuldigung ließt man in Onlineforen selten. Dann möchte ich auch meine Spitzen zurücknehmen.


Du hast natürlich Recht, dass es UHD bedarf, um auf 27 Zoll so hohe DPI-Werte zu erzielen, und dass es vor sechs Jahren UHD noch nicht gab. Allerdings habe ich vor sechs Jahren auch nicht präzise diese Kriterien gewählt und mich hingesetzt, Arme verschränkt, und gesagt "ich heul jetzt solange bis die Technik aufholt" ;) Meine Anforderungen sind natürlich mit der technischen Entwicklung mitgewachsen. Adaptive Sync zum Beispiel konnte auch erst ein Wunsch werden, als es erfunden wurde. Um es mal aufzuschlüsseln:

Mein derzeitiger Monitor ist glaube ich von Anfang 2012 - müsste mal auf die Rechnung schauen. Ich hab ihn damals als Kompromiss gewählt, weil ich in Monaten der Suche davor zu dem Ergebnis gekommen bin, das es dass, was ich suchte, schlichtweg nicht gibt. Pixelzahlen wie 2560x1600 waren damals durchaus Gang und Gäbe, allerdings nur auf 27-30 Zoll. Ich hatte vorher nur einen 21,5-Zöller mit 1680x1050 TN-Panel, und angesichts der knappen Platzsituation bei mir auf dem Schreibtisch war ich der Meinung, das 27 Zoll absolut nicht hinpasst. Also habe ich gehofft, eine ähnliche Auflösung auf 22-24 Zoll zu finden. Leider Fehlanzeige. Habe dann mit 1200p auf 24 Zoll vorlieb genommen, aber wirklich zufrieden war ich nie. Der Monitor ist zwar sehr gut für das, was er bietet, aber er ist eben nicht das gewesen, was ich wirklich haben wollte. Der erhoffte Auflösungsgewinn ist durch die höhere Bildschirmdiagonale verpufft - sind nur 94 DPI, gegenüber den 90 des Vorgängers. Da ich IPS wollte, war außerdem eine höhere Bildfrequenz nicht drin, das konnte damals nur TN.

Von da an habe ich also hauptsächlich nach 22-24-Zöllern Ausschau gehalten, die 1440p bis 1600p realisieren. Aber die Jahre sind ins Land gezogen, ohne dass das jemals wirklich was wurde. Es war kein Problem der Datenbandbreite; es gab ja schon alles auf höheren Diagonalen, und hat mit existierenden Anschlüssen funktioniert. Es hat eben kein Hersteller wirklich versucht das umzusetzen. Stattdessen war 3D einige Zeit der große Hype, dem sie alle hinterher sind, und das hat am besten mit niedrigeren Auflösungen funktioniert, also blieb 1080p in Mode. Als das endlich vorbei war, kam direkt UHD an den Start, und plötzlich sah wohl keiner einen Grund mehr mit 1600p in Neuland vorzustoßen. Was blieb, waren also die selben alten 27-30-Zöller mit 1440/1600p, dieselben alten 23-24-Zöller mit 1080p, und dann eben die neuen riesigen 30+ Zoll UHD Geräte, die bei mir nie und nimmer hinpassen, und außerdem durch ihre schiere Größe schon wieder viel von ihrem Auflösungsvorteil verlieren. Also hieß es weiter warten!

Besonders frustrierend war dabei auch immer, den Mobilmarkt zu betrachten. Teilweise wurden Auflösungen wie 1440p auf ein 10-Zoll Tablet gebracht, bevor sie jemals auf einem 23-Zoll Desktopmonitor existierten. "Ist technisch nicht möglich" ist also kein Argument, das ich gelten lasse. Ich habe stets darauf geachtet, meine Wunschvorstellungen so zu wählen, dass sie technisch ohne weiteres möglich sind. Ich wollte nie von Anfang an UHD, ich wollte einfach existierende Auflösungen auf kleinerer Diagonale. Ich wollte nie direkt 144 Hz, ich wär auch mit 90 oder sogar 75 glücklich geworden - hab in meiner Jugend lange genug Röhrenmonitore gehabt, um zu verstehen, wie groß der Unterschied zwischen 60 und 75/90 allein schon sein kann. Ich wollte nie direkt 150 DPI als harten Wert, aber wenn ich sehe dass seit 2-3 Jahren das doppelte technisch möglich ist, dann finde ich einen Wert um diesen Punkt herum heutzutage nicht zuviel verlangt. Und AMD hat ebenfalls vor Jahren gezeigt, dass zumindest eine rudimentäre Implementierung von Adaptive Sync ziemlich einfach von jedem Hersteller umsetzbar ist.



Das ASUS einen Monitor wie diesen, mit UHD und 144 Hz und HDR, nicht ohne entsprechende Übertragungstechnik bauen konnte, das unterschreibe ich sofort. Die schiere Datenflut, die dafür durch die Leitung muss... Aber ich hätte halt auch einen gekauft, der mit geringeren Werten daherkommt, solange die Kombination gestimmt hätte - und der hätte mit älteren Standards funktioniert. Hätte, hätte, Fahrradkette - gebaut hat ihn keiner.

Aber ASUS baut eben jetzt diesen. Und er ist in der Tat der erste Monitor, der jemals existiert hat, der meine Wunschkombination an Features komplett und kompromisslos abbildet. Um genau zu sein, leistet er sogar deutlich mehr als das, womit ich zufrieden gewesen wäre! Und um mal auf dem allerhöchsten Niveau zu kritteln, 24 Zoll wären mir aus Platzgründen immer noch lieber als 27... aber mittlerweile habe ich mich damit abgefunden, dass ich wohl keine Wahl habe, als mich mit leichter Übergröße abzufinden und es halt irgendwie passend zu machen. Ein kleiner Wermutstropfen am Rande, der ehrlich gesagt in der Freude über den Rest untergeht. :)

Wird wahrscheinlich unverhältnismäßig teuer, das Teil, aber weißt du was? Ich bin Mitte 30, kinderlos und vollzeitbeschäftigt. Nach so langer Zeit der Frustration erlaube ich mir jetzt einfach mal zu sagen: Geld spielt keine Rolle! Wo sind wir denn hier, wenn nicht im HWLuxx... ;)

An der Grafikkarte soll es dann auch nicht hängen, zur Not wird was kompatibles angeschafft. Ich spiele eh nicht die allerneuesten Spiele, so dass ich nicht alle Reserven brauche. Außerdem verspreche ich mir von der hohen Auflösung die Möglichkeit, auf Antialiasing zu verzichten. Das ist ja gerade der Vorteil hoher DPI-Werte: die natürliche Bildschärfe. Und selbst wenn einige Spiele nur mit 40-50 FPS laufen: GSync hält den Bildfluss ruhig und sanft. Die 144 Hz kann ich dann vielleicht in anderen Titeln genießen, und unter Windows sowieso. Außerdem - wenn der Monitor solange hält wie meine letzten beiden, dann überlebt er gerne 3 Grafikkartenupgrades.
 
Zuletzt bearbeitet:
@keinnameFrei
Vielen Dank für Deine Ausführungen.
Ohne nun alle Aspekte Deiner Zeilen aufzugreifen, folgendes:
Immermal wieder liest man, das User die Monitor-Größe nach ihrem jeweils verfügbaren Patz ausrichten.
Ich denke mir: Ich sitze zu Hause ja auch nur an einem durchschnittlichen Schreibtisch, aber bis auf die untere Schreibtischkante gibt es keine Beschränkungen nicht auch den größen Moni (den ich ja mit dem Philips BDM4065UC ja habe) mit luftig Platz aufzustellen (bzw. bei mir an die Wand zu mounten).
Wenn also, warum auch immer, der Platz für den Moni einst zu klein gewählt wurde, dann ist es halt mal an der Zeit, dem technischen Fortschritt Raum zu geben.
Vor allem, wenn es PC-technisch sowieso gerne vom Fettesten sein darf.
Ein TV-Set in aktuell durchaus gängiger Größe passt ja auch nicht mehr in das Schrankwand-Fach, das einst für Röhren-Fernseher konzipiert wurde.
Du schreibst, Geld spielt keine Rolle…
Also: raus mit den Möbeln, wenn sie den Anforderungen nicht mehr entsprechen.

2012 hatte das 16:9-Format das vorherige 16:10 schon stark zurückgedrängt, da waren Monis mit 1.920x1.200 schon fast die Ausnahme.
Und auch 2.560x1.600 mit 16:10 (welches immer unverschämt teuer war und nur wenige Edel-Hersteller als 30Zöller anboten) wurde zugunsten von 2.560x1.440 in 16:9 ersetzt. Hier dann aber bald erheblich günstiger und auch in verschiedenen Größen, sodass es bereits in 2014 auch welche in 24Zoll gab (immerhin sind das über 120ppi).
und zum 1.440p gesellten sich dann irgendwann Überbreiten, die im 21:9-Pool zusammen gefasst sind.
Als ‚Nicht-Gamer‘ verfolge ich den ganzen Hype bei Gaming-Monitoren nur so nebenbei, sodass ich jetzt keine genauen zeitlichen Zuordnungen habe, ab wann welches Gaming-Feature in welcher Monitor-Klasse verfügbar war.

Also: Die Moni-Hersteller haben natürlich penibel im Blick, was sich im globalen Markt so an den Mann bringen lässt.
Drum ist es meiner Meinung nach immer etwas kurz gedacht, wenn jemand seine Wünsche nicht erfüllt sieht, denn es scheint dafür ja keinen Markt zu geben, wenn z.B. nur ein bescheiden kleiner Moni, aber mit erstaunlich langer Feature-Wunschliste, nicht im Portfolio des Herstellers steht.
Auch wenn es technisch machbar wäre.
Es ist halt ein Massenmarkt. Und da wird produziert, was die Masse will.
Da darf sich der Monitor-Hersteller keine Eitelkeiten erlauben. Wenn es technisch geht, dann macht er es. Und alle anderen Monitor-Hersteller tun es ihm gleich.

Du sagtst, Du spielst jetzt nicht die aller performantesten Games.
Aber das war und ist kein Maßstab. Der Moni-Hersteller wird ja kein hochpreisiges Gaming-Modell mit nie dagewesenden Specs releasen, wenn man damit nicht die ‚heißer-Scheiß‘-Games so richtig mit abfeiern könnte,
sondern nur so mittelalte Titel oder Sudoku-Felder.

Meine Erfahrung: Sucht man ein Gerät mit einer klaren Vorstellung der wünschenswerten Eigenschaften, dann landet man immer! bei den hochpreisigen Teilen, die ihren Preis oftmals mit Features rechtfertigen, die man eigentlich garnicht haben wollte oder nicht braucht.
Um auch mal aus dem Nähkästchen zu plaudern: Ich schaue fern über DVB-T.
Duch die Umschaltung auf HD-1.080p braucht es einen neuen Receiver.
Mein mir auskömmlicher und funktionstüchtiger Festplattenrekorder war von einem Tag zum nächsten Elektronikschrott.
Ich brauchte einen Neuen. Vorgabe: eingebaute Festplatte, mindestens 2, besser 3 Empfangsteile (weil der Fernseher ja nun auch nichts mehr empfangen kann), inkl. DVD/BlueRay-Player, kein No-Name.
Ergebnis: Es gibt nur ein Teil von Panasonic für über 900Eus.
Der wirbt fett mit seinen überwältigenden ‚4k‘-Features, die ich aber garnicht brauchte.
Was solls. Ich bin alt und ich habe das Geld.
 
Zuletzt bearbeitet:
Ähm ja Asus, Freesync 2 fängt so langsam an und dann gibts doch nur Freesync 1. Na ja, dann wirds halt Samsung.

Ist mit HDR nicht automatisch Freesync 2 an board??
Also sollte doch vorraussetzung sein.
 
Zuletzt bearbeitet:
Ich habe es auch nur so verstanden das Asus mal wieder nur zwei !! Gaming HDR Monitor dieses Jahr bringt und
das sind beides G-sync Monitor, die Freesync (AMD) Monitor bieten alle keine >500nits und HDR.

Premium gibts bei Asus nur für Nvidia.
 
@kartenlehrling
Premium-Ware gibt es vor allem nur zum Premium-Preis.
Egal ob da Asus oder nvidia draufsteht.
Oder Miele, wenns ‚ne Waschmachine ist.
Jeder Hersteller steckt seine neue Technikentwicklung immer zuerst ins Spitzenmodell der Produktpalette, das war nie anders, egal ob Automarke, Multimedia-Device oder Haushaltsgerät.
Und wenn Asus ‚ROG‘ im Modell-Namen anführt, dann ist es immer ein G-Sync-Teil.
Ich gehe mal davon aus, dass nvidia für ihr G-Sync bestenfalls ein paar Cent Lizenzgebühr pro verkauftem Moni verdient, denen geht es viel mehr um globale Marktanteile, koste es was es wolle. Und die massenweise Herstellung der G-Sync-Elektronik-Platine kostet kaum mehr als den Materialpreis, also ebenfalls nur Cents.
Also ist G-Sync vor allem für den Moni-Hersteller ein gutes Geschäft (und den Einzelhandel, schon klar).
Also hypet Asus die mit guter Gewinnspanne verkaufbaren ROG-Serien, indem sie da alles reinpacken, was sie technisch so auf dem Kasten haben. Und die Billig-Teile kriegen das Feature erst, wenn man für die künftige Premium-Klasse wieder was Neues anbieten kann.
Das was nie anders…

Ah, noch was: Durch die (teilweise) sehr hohe Auflösung der Topic-Monis, werden wohl trotz DP1.4 vielleicht nicht immer die jeweils möglichen Hertz-Zahlen beim gamen erreicht, drum ist es um so wichtiger, dass die Wahl der Sync-Variante möglichst beste Ergebnisse bringt.
Wenn ich mir so den Mix bei den von Asus vorstellten Monis anschaue:
->diverse unterschiedliche Auflösungen, Größen und ‚curved‘/flat-Ausführungen…
Denke ich mir, ist das eher ein verzeifelter Versuch herauszu finden, was der Kunde eigentlich haben will (wobei ‚haben wollen‘ nicht bedeutet, es wäre ‚angemessen‘).
 
Zuletzt bearbeitet:
Also kann Asus und auch Du sich nicht vorstellen das AMD Grafikkartenbesitzer sich Premium Monitor kaufen,
da sie schon keine "Premium" Grafikkarte kaufen oder worauf begründes Du deine Aussage?

Er wollte einfach nur sagen, dass Asus bei Monitoren mit G-Sync einen größeren Gewinn einfährt und sie diese deswegen mit HDR ausstatten (Verkaufsargument).
 
@fabian: Thx

@kartenlehrling
An welcher Stelle in #20 habe ich denn was geschrieben, das den AMD-Fan verärgern könnte?
Also: Mit dem ASUS Designo Curve MX34VQ
ASUS Designo Curve MX34VQ, 34 (90LM02M0-B01170) | heise online Preisvergleich / Deutschland
kann sich der AMD-Free-Syncer bei Asus ebenfalls ein schickes Premium-Free-Sync-Gaming-Teilchen zulegen.

Ich lese in etlichen Threads hier im HWluxx-Forum, dass die meisten 1080-Käufer den Preis-Aufschlag für G-Sync-Monitore scheuen, obwohl sie nur so die bereits mit der GraKa bezahlte Sync-Variante nutzen können.
Da wäre es natürlich anderherum recht ungewöhnlich, wenn sich ein AMD-GraKa-Besitzer ein G-Sync-Moni-Modell zulegen würde, und einen unnötigen Aufschlag für den Moni zahlt, um dann auf die AMD-Free-Sync-Version zu verzichten.

Denn darum geht es hier: Asus stellt 4 ROG-Modelle mit G-Sync vor.
Und vielleicht kurbeln die Zusatz-Features bei Asus den Verkauf der G-Sync-Modelle noch ein wenig an, wenn diese Extras es dem Käufer wert erscheinen.
 
Zuletzt bearbeitet:
Ist mit HDR nicht automatisch Freesync 2 an board??
Also sollte doch vorraussetzung sein.

Ja - Freesync 2 hat aber noch weitere Vorraussetzungen, wie reduzierter Input-Lag (das ist nicht Reaktionszeit - die muss AUCH niedrig sein), eine minimale Helligkeit, minimaler Farbraum, minimaler Kontrast etc. Freesync 2 beinhaltet so ziemlich alles was man sich wünschen kann - inklusive den versteckten technischen Daten die Hersteller ungerne angeben. Deswegen ist das Freesync 2 Zertifikat für mich Pflicht, bevor ich einen neuen Monitor kaufe. Die können sonstwas draufschreiben - ohne Freesync 2 gibts von mir keine Knete. ^^

Die Monitorhersteller haben eigentlich bis Vega Zeit (denn Vega macht Freesync 2) entsprechende Monitore zu entwickeln - und da kam bisher nur was von Samsung.
 
Wie gesagt ohne Freesync 2 würde doch aber auch kein HDR gehen so wie ich das verstanden habe.

Also wirds schon so stimmen lower Lag ist auch immer gut.
 
Zuletzt bearbeitet:
Wie gesagt ohne Freesync 2 würde doch aber auch kein HDR gehen so wie ich das verstanden habe.

Also wirds schon so stimmen lower Lag ist auch immer gut.

Na ja, du kannst schon eine Art von HDR ohne Freesync 2, aber mit Freesync 1 basteln (also das, was Asus gemacht hat) - nur erfüllt es dann nicht alles Spezis von Freesync 2. Dann hast du sowas wie HDR mit größerem Input Lag oder HDR mit höherer Reaktionszeit oder nicht genug Kontrast, Farbraum oder was auch immer da schiefgelaufen ist, dass das Zertifikat nicht mitkam. Freesync 2 bietet einen Sack voller Minimalbedingungen, die einen Monitor "gut" machen. :)
 
Ja - Freesync 2,....

Die Monitorhersteller haben eigentlich bis Vega Zeit (denn Vega macht Freesync 2) entsprechende Monitore zu entwickeln - und da kam bisher nur was von Samsung.

Bullshit, AMD hat auf der CES im Januar Freesync2 vorgestellt und da wurde gesagt das jede Grafikkarte die heute schon Freesync1 kann auch mit Freesync2 klar kommt, auch Gaming-HDR, UHD-BD Filme wiedergeben ist was anders.


HDR_2-f34170f126c7da37.png@jpg

Because all of AMD’s FreeSync 1-capable cards (e.g. GCN 1.1 and later) already support both HDR and variable refresh,
FreeSync 2 will also work on those cards. All GPUs that support FreeSync 1 will be able to support FreeSync 2. All it will take is a driver update.
AMD Announces FreeSync 2: Easier Lower Latency HDR Gaming
 
Zuletzt bearbeitet:
Warum geht es hier seit 5 Posts eigentlich nur noch im Free-Sync?
Topic sind doch 4 Monis mit G-Sync.
 
die wichtigste Frage...... welcher Hersteller macht das Panel?
die ganzen specs und das Marketing blabla können sie sich gleich sparen wenn ein gewisser Hersteller da seine Finger in Spiel hat ;)

Warum geht es hier seit 5 Posts eigentlich nur noch im Free-Sync?
Topic sind doch 4 Monis mit G-Sync.

?? die "strix" Serie hat freesync und um die geht es hier auch
 
Zuletzt bearbeitet:
Da wurden die Release-Zeiträume aber schnell nach hinten korrigiert. Das 35 Zoll Monster sollte doch im 4. Quartal erscheinen und der 4k 27 Zoller bereits im 3. Quartal. Oo

Über 2000 Euro für den Widescreen halte ich für Wahnsinn. Das ist doch eh schon eine Nischenauflösung, dann noch zu so einem Preis....
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh