LG: Neue Gaming-Monitore im Format 21:9 mit 34 bzw. 38 Zoll

Und wieder kein OLED mit dabei! :heul: Echt Schade.
Der 38UC99-W klingt zwar interessant, aber das Bild was er in dem von Bzzz gepostetem youtube-Video macht gefällt mir überhaupt nicht (wenn das der 38UC99-W ist). Irgendwie sieht das Bild des Monitors in dem Video nach TN-Panel der ersten Generation aus.
Und die 38" finde ich fast besser noch als die bisherigen 34" - der Samsung 34" vor dem ich gestanden habe sah in der Höhe kleiner als mein Dell 2709 aus.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@Kommando
Na, ich stecke ja auch nicht in dem Geschäft drin.
Aber auch wenn AMD das sympathische Wort ‚Free‘ in den offiziellen Namen des Produktes untergebracht hat, ist AMD ja kein Wohlfahrtsverein. Das Produkt wird ja wohl kaum nur wegen seines Werbenamens komplett recht- und schutzlos von Jedem verwendet werden dürfen. AMD wird da sicherlich ausreichende rechtliche und technische Maßnahmen vorhalten und verfolgt ein klares gewinnorientiertes Geschäftsmodell damit. Ich könnte mir vorstellen, dass sowohl nvidia, als auch AMD Exklusivrechte mit dem Moni-Hersteller aushandelt, damit der Moni-Hersteller nicht einfach so noch den jeweils anderen Sync-Standard in sein Gehäuse reinschraubt.
Aber stimmt schon, nvidias ‚G-Sync-Kartenhäuschen‘ wirkt immer etwas einsturzgefährdet. Ein Moni mit G-Sync kostet spürbar mehr, und Intel bastelt daran FreeSync in deren internen Grafikchip der CPU zu löten.
Da muss nvidia zusehen, dass es für die anderen Großverdiener in dem Karussell lohnenswert ist/bleibt mit nvidia zu kooperieren. So also die großen Spiele-Programmierer/-Vermarkter, und eben halt die Monitorherteller, die dank G-Sync wieder Modellgruppen, die sich eigentlich im freien Preis-ver-fall befinden, in höhere Preissegmente hieven kann.
Da mag es ein gewisses Zeichen sein, dass der mit Abstand größe Moni-/TV-/Panel-Hersteller das ‚billige‘ FreeSync wählt.

@Akussai
Ein irgendwie gearteter OLED-Monitor, mit einem konsumer-tauglichen Preis würde höhere Wellen schlagen, als einen kurzen Bericht in einem kuscheligen Computer-Forum.
Du würdest solch ein Release an jeder Bushaltestelle, auf jeder Plakatwand, in jeder TV-Werbung, mit jedem google-gesteuertem Advertisement um die Ohren gehauen bekommen.
 
Zuletzt bearbeitet:
@erzwochen:
hat irgendein neugieriger Gedankenfaden Dich schonmal denken lassen, was das ‚k‘ in ‚4k‘ ist?
Es heißt: Kilo. Das ist von griechisch chilioi abgeleitet. Es kommt nach Hekto und vor Mega.
https://de.wikipedia.org/wiki/Vorsätze_für_Maßeinheiten#SI-Pr.C3.A4fixe
4k heißt also simpel: 4000, in Worten ‚Viertausend‘
Wie kannst Du erneut schreiben, dass 4k=4000= Viertausend eine Auflösung von 5.160x2.160 sei?

Erst andere anfahren und klugscheißern...

@Kommando
[...]
Aber stimmt schon, nvidias ‚G-Sync-Kartenhäuschen‘ wirkt immer etwas einsturzgefährdet. Ein Moni mit G-Sync kostet spürbar mehr, und Intel bastelt daran FreeSync in deren internen Grafikchip der CPU zu löten.
[...]

...und dann so einen Sondermüll von sich geben.
Das tut schon beim Lesen weh.
 
@Ralph
Ich muss natürlich Kritik einstecken, weil ich sie ja auch austeile.
(Und meistens damit auch anfange.)
Aber mir inhaltlichen Murks vorzuwerfen -der natürlich berechtigt sein kann, denn könnte ich alles in der Welt souverän überblicken, wäre ich ja kein so verschrobener Klugscheißer-
dabei aber keine Silbe verlieren, wie es denn ‚richtig’ sei, ist auch wenig hilfreich.

Ja, ich halte Sync für eine Modewelle. Und wie jede Mode, geht sie vorbei. Und die, die dessen Ende voraussagen, sind immer diejenigen, die davon sowieso nie viel hielten. Na, und wenns der Nörgler -ich meine mich damit, ja, ich greife niemanden an, okay- dann doch ganz brauchbar findet, dann hat er halt nie was anderes gesagt.

Ja, ich bin intensiver Bildschirm-Nutzer, genauer -Arbeiter. Ich bin immer an allen Monitor-Neuerungen interessiert. Aber ich bin Null-Gamer, also lese ich über Gamer-Features hinweg. Nur leider: mittlerweile bleibt kaum noch Beschreibungs-Text übrig, der nicht gezielt den Gamer ansprechen soll. Schon klar, in die bunte Werbung kommen die Geräte, die dann in den media-markt-Regalen stehen sollen, und die Leute vor diesen Regeln sind idR. Gamer.
Mittlerweile habe ich aber das Gefühl, dass jedem Gerät, egal ob strunzlangweilig oder grundsolide, irgendein ‚Gamer-Feature‘ angedängelt wird, um genau diese Pillepalle-Funktion über alle Maßen zu bewerben. Ja kein Wunder, dass keiner mehr durchblickt. Und kein Wunder, dass heute aggressiv schnell noch ‚ne Wunder-Technologie wie Sync vertickern wird, weil morgen kein Hahn mehr nach krähen wird.

Im gesamten Spektrum allen technischen Klimbims, mit dem wir uns umgeben, gibt es regelmäßig irgendwelche Neuerung. Und wer sich gezielt mit einem Aspekt / einer Gerätschaft auseinandersetzt, kann es kaum erwarten, dass mal wieder was ganz Neues, was ultra-schickes, etwas zeitenwende-einleitendes passiert.
Das kann wegen meiner sogar eine neue Generation von Gartensprengern sein, egal.
Hier, in dieser Themenecke, sind es halt Monitore.

Und weil es gefühlt mal wirklich an der Zeit wäre, erwartet man mit jeder Geräte-Ankündigung endlich mal was wirklich Neues. Von LG -als einer der wenigen ‚echten‘ Panel-Hersteller und OLED-Vorreiter- vielleicht sogar noch etwas mehr, als von anderen Herstellern, die halt nur das verwenden können, was in der freien Panel-Wildbahn so herumläuft.

Derzeitige Lage: Displays können UHD (3.840x2.160), und sogar noch mehr, dies aber nur mit max. 60Hz.
Bildschirme können auch 144Hz, und sogar noch mehr, aber nicht bei UHD.
Hauptgrund: Das Ende der Fahnestange der aktuellen Übertragungs-Bandbreite von HDMI2.0 und DP1.2 ist erreicht. Es geht schlicht nicht mehr durch Kabel.
Und an dieser ‚Grenzlinie‘ lungern nun alle Monitor-Hersteller seit mehreren Jahren herum und basteln sich aus Langeweile immer neue Kombinationen zusammen, die geradeso noch so gehen.
Die jahrelange Shaderaufrüstung und Taktmonster-Präsentierung von nvidia und AMD erschöpft sich an der Übertragungsprotokoll-Grenze.
‚Mist, was verkaufen wir denn jetzt dem Gamer‘?
‚Was mit Sync?‘
‚Klasse Idee, hol doch schonmal ein paar Nullen, die wir unserer Gewinnspanne anhängen können.‘

Hier was zum Topic:
Und die vorgestellten LG-Releases sind alle Parade-Beispiele dieser Kombinationsmöglichkeiten, um halt mal wieder was zu präsentieren zu können, ohne was Neues auf der Pfanne zu haben. Es ist einfach nur nochmal etwas anders zusammengewürfelt, um der Marketingabteilung ein Stück Technik hinzustellen, dass es ‚nun aber wirklich‘ als deeeeen Spiele-Moni anpreisen kann.
Schnell zeigte sich: alles mit ‚Sync+Co. verkauft sich wie geschnitten Brot, alles ohne, liegt wie Blei in den Lagern.
Fazit: Auch der letzte Moni in den laufenden Serien muss! was mit Sync, haben, weil jeder, der auch nur gelegentlich irgendwas spielt, sich sehr wahrscheinlich vom ‚Sync‘-Symbol auf der Verpackung leiten lassen wird.
(Es gibt mehr als einen Thread hier im Forum in der Art: ‚Hab‘ ‚ne Geforce und will mir den xyz-FreeSync-Moni holn, weil der nur soundsoviel kostet…‘)
--edit--
Zack, wie Kai aus der Kiste: Per 30.08.16 ein neuer Thread mit genau diesem Thema
---
Da ist es dann auch ein Leichtes den Leuten vorzumachen, dass das intensiv gehipte HDMI2.0 was Tolles sei, obwohl es gerademal soviel Bandbreite bietet wie das alte DP1.2.

Aber jetzt: Orakel-Orakel DP1.3/1.4 wird kommen.
Und die Mauern werden fallen.
Und Sync liegt dann unter diesen Steinen und kann bald darauf neben MMX begraben werden.
 
Zuletzt bearbeitet:
Und Sync liegt dann unter diesen Steinen und kann bald darauf neben MMX begraben werden.

Ach, welcher Prozessor hat denn heute keinen MMX-Support? 3DNOW! wärs gewesen.

Zu den 21:9 mit 2160p: Ja, wär schön fürs Arbeiten, aber halt ohne Vorteil bei Video (Kino!) gegenüber UHD/4K. Mehr Höhe als knapp über 1600p wird bei 1:2,3x ja eh nicht genutzt, und mehr Breite als 3840px sind auf Bluray wohl nicht da. Ich würde zustimmen, wenn in 4K (oder besser) gefilmtes Zeug auch in 4K mit 1700 und ein paar Höhenpixeln verfügbar wäre, aber das ist mir noch nicht begegnet. Und vom (wieder-)Hochskalieren wird das Bild bekanntlich nicht wieder so gut wies mal war.
 
@Bzzz
Gut, nehen wir 3Dnow mit dazu ;)
aus wikipedia: …MMX konnte schon bald den gestiegenen Anforderungen schnell wechselnder Grafik in hochauflösender Form, wie sie z.B. Spiele stellen, nicht mehr genügen. Deshalb führte Intel mit der Einführung des Pentium-III-Prozessors Anfang 1999 die SSE-Technologie ein…
https://de.wikipedia.org/wiki/Multi_Media_Extension
Ich hatte bei MMX noch recht diffus was im Hinterkopf, und obig schnell rangeleser Text schien mir tauglich genug, für meine Behauptung. Es sollte nur ein beliebiges Beispiel für all das Zauber-Zeuch sein, was einstmals die, heute längst begrabene und vergessene, Zukunft der PC-Welt darstellen sollte.

Brutal off-topic: Ich habe gerade erst gehört, dass auch in 4k gedrehte Filme beim Schnitt in 2k runtergebrochen werden, und dann für 4k (z.B. BlueRay) wieder hochskaliert.
Aber jetzt wieder im Thema:
Die LGs haben IPS-Panele. Zur farbkritischen Bildbearbeitung werden sich da bestimmt brauchbare Bild-Presets finden lassen, aber zum reinen Video-gucken, mit Anspruch auf supertolles Bild, würde ich selbst noch einen VA-FullHD-Moni vorziehen, als ein UHD/4k mit IPS-Panel.

Auch zu 21:9 mit 2.160p: Es ist müßig sich über dessen Sinn in Bezug zur Video-Betrachtung Gedanken zu machen.
1.) Es passt durch kein aktuelles Übertagungsprotokoll.
1a.) HDMI als Standard-Kopierschutz-Filminhalte-Transporteur ist mit dem gerade taufrisch releasten 2.0-Standard gerademalso! auf 16:9-UHD/4K-Höhe. Das muss jetzt erstmal ein Jahrzehnt vermarktet werden.
1b.) Mit Blick auf den aktuellen 2k-zu-4k-Sprung, wäre ein künftiger Schritt eher auf 6k oder 8k zu erwarten.
2.) In dem reichhaltigen Zoo von Bildschirmauflösungen -auch oberhalb von UHD- gibt es kein 21(1/3):9 mit 2.160p (wäre 5.120x2.160). Es geht erst wieder mit den beiden ‚5k‘ Auflösungen 5.120x2.880/3.200 weiter und dann -irgendwann- sog. 8k mit 7.680x4.320.
3.) Alle bisherigen 21(1/3):9-Formate sind ‚abgesägte‘ 16:9-Formate. Sie orientieren sich also nach der waagerechten Pixel-Anzahl. Beispiel: 2.560x1.440 zu 2.560x1.080.
4.) Auch Monitore, die was können, was weder dem Filme-Gucker, noch dem Highspeed-Gamer was bringt, haben ihre Daseinsberechtigung.
Eben ein schönes Arbeitsgerät, welches nicht erst durch die Angebote der Dauerberieselungs-Industrie einen Nutzen erlangt.
(Meine alte Nemesis: Sobald sich am Monitor was finden lässt, was nicht Zocker- oder DraufGlotz-tauglich ist, findet sich auch Einer, der ihn für nutzlos erklärt.)
 
Zuletzt bearbeitet:
Sie werden es machen, aber so weit sind sie noch nicht.
G-Sync ist gefloppt, nur NVIDIA will das noch nicht zugeben!

Jetzt wird es bald Intel unterstützen und dann war es das mit G-Sync

wo ist G-Sync gefloppt? Solange AMD nicht die Single High End Graka liefert ist die Geschichte noch lange nicht gefloppt. AMD mag ja große Sprüche ala Leistung einer 500 € anno knatter Karte bringen, aber solange da nichts kommt kann Nvidia schön weiter melken und wenn es so weiter geht ab 390 Rebrands über 4GB Fury bis 480 auf Niveau 1060 unterste Klasse mit zukunftsicherheits Gebabbel ala hoffentlich Vulkan / DX 12 geseier sehe ich schwarz.
 
wo ist G-Sync gefloppt?
In der Realität, man darf die Welt halt nicht durch die NVIDIA-Brille sehen!

Solange AMD nicht die Single High End Graka liefert ist die Geschichte noch lange nicht gefloppt.
Hat damit eigentlich nichts zutun.

AMD mag ja große Sprüche ala Leistung einer 500 € anno knatter Karte bringen, aber solange da nichts kommt
Die RX 480 wird schon verkauft!

kann Nvidia schön weiter melken und wenn es so weiter geht ab 390 Rebrands über 4GB Fury bis 480 auf Niveau 1060 unterste Klasse mit zukunftsicherheits Gebabbel ala hoffentlich Vulkan / DX 12 geseier sehe ich schwarz.
Für dein technisches Unverständnis kann ich aber nichts!
 
In der Realität, man darf die Welt halt nicht durch die NVIDIA-Brille sehen!

na da lese ich mehr in diesem Thread "Schade das die Monitore nicht G-Sync können" als das es gefloppt ist und Realität heißt "nutze ich AMD kann ich nur Freesync nutzen" aber bei dem Wort Free vernebeln bei einigen AMD Nutzern die Äuglein.

Hat damit eigentlich nichts zutun.

sehr wohl, es soll Leute geben die eine Titan auch für was anderen brauchen als zocken. Bevor wieder der Quatsch mit wenig Frames und da hat man dann kein tearing kommt. Ab 1070 ist die Auswahl dünne bei AMD gelle


Die RX 480 wird schon verkauft!

Na die 1070 kostet sogar nur 420 € und da sieht die 480 nicht mal die Rücklichter. Aber gut welche kann man sich denn aussuchen, die GTX 580 oder GTX 680 oder oder. Super Realität


Für dein technisches Unverständnis kann ich aber nichts!

Was verstehst du hier denn nicht, vielleicht kann dir geholfen werden?
 
@Pfirsich und heigro:
Ich möchte mich ja nicht zum Streitschlichter oder Friedensengel ernennen.
Aber da ich mal bestimmt neutal bin, einfach weil mir sowohl Free- als auch G-Sync vollkommen Banane ist:
Die beiden Sync-Lager stehen sich auf unzähligen Foren unversöhnbar gegenüber. Ihr werdet Euch hier gegenseitig keine Überzeugungsarbeit leisten können.
Und um es mir mit Euch beiden zu verscherzen:
Ich habe zwar nicht die leisteste Ahnung ob ‚390 Rebrands über 4GB Fury bis 480 auf Niveau 1060…‘ was bedeutet oder nur ein Tasten-Cluster darstellt, (bitte keine Erklärung; würde es mich interessieren, könnte ich es herausfinden) aber es klingt nicht spezifisch nach ‚Monitore‘.
Ich halte beide Sync-Technologien für eine Außenstelle der GraKa. Es ist also durchweg ein Thema, dass in die GPU-Foren gehört.
Und wenn Ihr dort unterwegs seid, werdet ihr feststellen, dass da regelmäßig die Free- vs. G-Sync-Schlacht ‚tobt‘.
Da wohl so ziemlich jede! künftige redaktionelle Monitor-Vorstellung eines der beiden Sync-Varianten an Bord haben wird, ist es müßig, jedesmal wieder die Messer zu wetzen, um seine heimische GraKa-Wahl, und damit verbunden Sync-Technologie, zu rechtfertigen.
 
Zuletzt bearbeitet:
@fullHDade

Hmm du als non-Gamer sprichst einem offensichtlichen Geamerfeature (freesync, gsync) den Tod nach? Irgendwie unlogisch oder? Und von wegen es geht nicht "mehr durch die Kabel". Stimmt doch nicht. Mit dp 1.4 wird auch für UHD mehr als 60Hz möglich sein, kommt dann noch auf die Kombi mit oder ohne HDR drauf an. Auch 8K geht durch Kabel. Was ist schon der Begriff "Kabel" Wert. Eine physische Displayverbindung kann irgendwann auch aus anderen Materialien hergestellt werden, sei es eine Glasfaser oder weiss ich nicht was. Die Fahnenstange ist im Jahre 2016 sicher nicht erreicht, selbst nicht mit den heutigen Materialien aus denen HDMI und DP-Kabel bestehen. Und was interessierts den Gamer ob Intel die Funktion in ihren Grafikchip einbaut? Wahrscheinlich so ziemlich keinen der nicht in 640x480 spielt oder? Auf längere Zeit wird diese Art Modul sicher in den Bildschirmen verbaut sein, irgendwie muss der Bildschirm ja angesteuert werden, damit er die Frequenz jederzeit dynamisch aufbauen kann. Da bist du wohl im falschen Thread gelandet, im Titel steht ja Gaming-Monitore und LG wirbt auch damit:-) Und es gibt keinen, aber wirklich keinen Gamer der von einem G- oder FreeSync Monitor zurück auf einen normalen möchte. Und das der Gamermarkt ein Milliardenmarkt ist solltest auch du wissen. Also völlig uninteressant ist er sicher nicht. Und nein ich habe nirgends behauptet, dass Arbeitsmonitore nicht ihre Daseinsberechtigung haben, nur um das vornweg zu nehmen. Aber um darüber zu diskutieren bist du hier immernoch im falschen Thread.
Und das mit den 4K Videos ist nonsense. Das sind einfach diese aktuellen Mischmaschlösungen (wie der ganze 4k Mastered BluRay Quark von alten Filmen) welche ja auf normalen BluRays und noch nicht auf den neuen laufen. Wirklich neue Filme auf den neuen richtigen 4K BluRays werden natürlich auch in 4K geschnitten und auf die Disc gepresst, da gibt es kein down- und upscaling. Die ersten Filme die auf Bluray gekommen sind wurden auch aus dem DVD Schnitt auf die BluRay übernommen, ohne dass sich die Studios des Masters bedient hätten. Lohnt sich ja schlicht weg scheinbar nicht. Also abwarten was für neue Filme kommen und wie die dann auf die 4K BluRay gepresst werden. Sicher nicht über 4k auf 2k und wieder auf 4k wenn der Film in 4k oder höher gedreht wurde.
 
Zuletzt bearbeitet:
@ Niccolò di Bernardo dei Machiavelli
Dasss durch ein irgendwie geartetes Kabel auch >8k passt, habe ich doch nicht negiert. Ich schrieb in #35:
‚Hauptgrund: Das Ende der Fahnestange der aktuellen Übertragungs-Bandbreite von HDMI2.0 und DP1.2 ist erreicht. Es geht schlicht nicht mehr durch Kabel.‘
‚Kabel‘ ist doch nur ein Synomym. Auch Glasfaser ist ‚ein Kabel‘.
Es geht um die verfügbaren Protokolle und dessen Bandbreiten.
Ob es nun elektrisch durch Kupfer, per Lichtwelle oder Funk übertragen wird, ist für meine Argumentation nicht relevant.
Ja, mir als Nicht-Gamer sollte alles ums Syncen egal sein, und ich hätte folglich dazu stumm zu bleiben.
Ich habe mich ausgeheult, dass man als Nicht-Gamer, kaum noch die Tauglichkeit neuer Monitore auf dessen Nicht-Gamer-Qualitäten beurteilen kann, weil durch die Hervorhebung der ganzen, oft nur feigenblatt-artig, angepappten Gamer-Features, der Blick auf seine eigentlichen Eigenschaften verdeckt wird.
…Und oftmals auch absichtlich vertuscht.
Der Gamer ist es mittlerweile gewohnt, dass praktisch jeder Moni mit mindestens zwei oder drei Gamer-Features beworben wird.
Ich sage ja auch nicht, dass Syncen nutzlos ist. Ich habe es nie probiert, und weiß es darum nicht. Aber da ich schon seit ein paar PC-Generationen dabei bin, sage ich, dass es in ein paar Jahren heißen wird: ‚Weißt Du noch, wie wir uns früher über dieses komische Syncen die Köpfe heiß geredet haben? Lächerlich nicht wahr?‘

Es gibt Leute, die sammeln geradezu Zeug, was mal als technische Zukunft hehipt wurde, und nur kurz danach sang-und-klanglos wieder von Markt verschwand.
Die könnten Seiten mit Beispielen füllen.
Aber es ist doch eine ganze einfache Rechnung: Sobald aktuelle GraKas die Power haben auch bei aktuellen Spielen nicht unter bestimmte FPS zu sacken, braucht es auch kein Sync mehr.
Vielleicht kommt ja mal die Spieleindustrie auf die Idee, das FPS-Problem schon innerhalb deren Spiele-Software zu lösen, dann braucht es kein Sync mehr in der GraKa-Struktur.
Vielleicht ist Syncen der künftigen OLED-Technologie völlig Banane.
Vielleicht sind künftige Spiele so sehr mit Smart-Phone und Tablet verbandelt, das es nicht mehr auf die Rechenpower des PCs ankommt.
Vielleicht schraubt google nicht nur an selbstfahrenden Autos, sondern klammheimlich auch an einer bahnbrechenden Computetechnologie herum.
Vielleicht spielen bald alle in der Cloud, und eigene Rechenpower ist irrelevant.
Ich weiß es nicht, aber ein Blick zurück und etwas Phantasie, lässt mich glauben, dass syncen nur ein flüchtiger technologischer Zwischenschritt ist.

Aber das durchschlägt alles nicht die Grundausrichtung der ganzen Branche:
‚Wie schaffen wir es, dass sich praktisch jeder PC-User nach spätestens 3 Jahren umschaut, sich was Neues zuzulegen.‘
‚Na, wir müssen es schaffen den Usern alle 3 Jahre glauben machen, dass die neue Technik-Generation ist genau das, was er schon immer für alle Zukunft haben wollte, und er dafür sein altes Geraffel komplett zum Wertstoffhof karrt.‘
‚Und Du meinst mit dem kleinen G-Sync-Platinchen oder dem Fetzen Free-Sync-Software geht das?‘
‚Na pass mal auf. Wir haben da ja noch unsere Marketingabteilung. Die meisten der Jungs dort haben vorher Kühlschränke an Eskimos verkauft…. Aber nicht vergessen: In 3 Jahren brauchen wir wieder was, damit die Leute das Zeuch von Heute wegwerfen.‘
 
Zuletzt bearbeitet:
@performer
‚$-Sync‘ werde ich mir einrahmen.:bigok:
 
G-Sync ist halt Geschichte, nachdem sogar Intel Adaptive Sync unterstützen will.

Für einen Monitorhersteller bringt es auch nichts, das Modul ist teuer, daran verdient dann NVIDIA, aber die Monitore sind dann deutlich teurer als welche mit Adaptive Sync.

Ich habe gerade meinen abgerauchten DELL 3008 gegen den ASUS PG348Q (3440*1440*100Hz mit G-Sync) getauscht .... G-Sync war eine Offenbarung für mich ... ich habe das Gefühl ich habe neben dem Monitor noch ne zweite Grafikkarte ins System gesteckt so flüssig läuft nun alles.

Solange die roten und die grünen sich nicht auf einen Industriestandard einigen werde ich mir nur noch G-Sync Monitore zulegen!!!
 
Weil sich NVIDIA weigert einen Industriestandard zu unterstützen kauft du den proprietären Standard von NVIDIA?
Wo ist den da bitte die Logik?

Über was sollten sich AMD und NVIDIA eigentlich einig werden?
 
Es gibt einen Industriestandard, das ist FreeSync, und einen vollkommen überflüssig abgeschotteten Ableger davon, das ist GSync. Es gibt einfach keinen Grund dafür, das GSync existiert, außer dass nVidia für ein kostenfreies Feature extra Geld verlangen möchte.
 
Es gibt einen Industriestandard, das ist FreeSync
Eigentlich auch falsch, FreeSync ist kein Industrie Standard sondern die Implementierung von AMD.
Leider wird Adaptive Sync immer mit FreeSync gleichgesetzt, was falsch ist!

Der Industriestandard ist Adaptive Sync von der VESA, den muß NVIDIA unterstützen.
Mit AMD hat das nichts zutun.
 
Seit ich mal vor einem 34" curved 21:9 gesessen habe, will ich so einen unbedingt. Das ist einfach nur ein geiles Erlebnis, wo auch noch kein VR ran kommt.
Es haben ja schon einige Hersteller versucht, aber es wurde bis jetzt noch nichts was alles hat (genug Hz, groß genug, Auflösung genügend, G-Sync, IPS Panel, gute Qualität, Vesa support). Auch diese hören sich nicht so toll an. Der 34er zwar auf den ersten Blick, aber wer LG kennt, der wird sich auf Worte von denen nicht verlassen. Auch hat dieser wieder kein G-Sync.

Klar sind die Curved 34 Zoll Modelle cool, aber das Ganze besser als VR zu betiteln halte ich für weit an den Haaren herbeigezogen.
 
Eigentlich auch falsch, FreeSync ist kein Industrie Standard sondern die Implementierung von AMD.
Leider wird Adaptive Sync immer mit FreeSync gleichgesetzt, was falsch ist!

Der Industriestandard ist Adaptive Sync von der VESA, den muß NVIDIA unterstützen.
Mit AMD hat das nichts zutun.

FreeSync ist von der VESA als optionale Komponente standardisiert worden. Aber egal wie man es dreht und wendet, es ist kostenlos. Steckt ja auch keine großartige Technik dahinter, dessen "Entwicklungskosten" jahrelang eingetrieben werden müssten oder wie auch immer nV das schön reden will. ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh