[Sammelthread] LG OLEDs, ab C9, als PC- Bildschirm, HDMI 2.1, VRR

Ja ich hoffe das AMD mal solangsam nach all den Jahren mal wieder in fahrt kommt
damit die Preise sich mal wieder normalisieren.

Ich tippe aber weiterhin auf 1200 Euro für die Nvidia Reference Karte 3080 Ti
Costum Karten dann natürlich etwas mehr.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich glaube nicht, dass AMD an NVIDIA herankommt.
Die Gerüchte zu Ampere sehen extrem vielversprechend aus.
Der Vollausbau wird wohl 8192 CUDA Cores haben und wohl auf ca. 36 TFlop kommen.
In den Consumer-Karten wird man das sicherlich nicht bekommen. Aber
wenn man runterskaliert, kann man schon ahnen, in welchen Dimensionen dann
eine mögliche 3080/3080 Ti liegen. Preislich wird das bestimmt weiter nach oben gehen ^__^

Den Sprung traue ich AMD da definitiv nicht zu. Die werden wohl maximal an die aktuelle Generation herankommen.

Bin aber definitiv gespannt, ob die neuen Karten dann endlich 4K@120 ohne größere Abstriche möglich machen.
 
Naja hoffe das auch alle HDMI2.1 bekommen werden..
Und nicht nur die oberklasse.
 
Ich glaube auch das die 3080Ti teurer wird als die 2080ti zum Release. Aber was solls, ich habe keine Wahl! 💆‍♂️
 
Jensen liebt diesen Trick...

Wobei ich mittlerweile auch hart mit dem 48CX liebäugele und dann ist wohl auch mal wieder eine neue GPU fällig
 
Und nicht nur die oberklasse.

Wenn, dann werden alle Ampere Karten das haben.
Der HDMI und DP Chipsatz ist in der Architektur eingebacken.

Das ist anders, als bspw. bei Konsolen, die einen dedizierten HDMI Chipsatz haben.

Ich würde aber wohl behaupten, dass man mind. zu Mittelklasse GPUs greifen sollte, wenn
es soweit ist. 4K@120 ist da halt noch eine Herausforderung ^^
 
Ich muss mich ein wenig korrigieren bei der Aussage "kein" Banding mehr in Videos:

Vergleiche ich die Video Szene, welche sehr gut geeignet ist für Banding ( siehe hier das Beispiel: Minute 1:17 ), kann ich noch immer leichtes Banding feststellen im (Spielekonsole/Bluray/Heimkino-System) Modus... aber nicht so stark wie im "PC" Mode.

Einmal als Vergleich habe ich das Verlustfreie, intern gespeicherte, von Werk aus von LG zur Verfügung gestellte Video, mit dem internen Player des LG C9 angesehen bei Minute 1:17 und einmal auf meinem PC mit dem gleichen Testvideo (zur Sicherheit per ScreenShare auf den TV gestreamt um zu testen ob das Video tatsächlich die gleiche Qualität hat, was es auch hat) Die beste Qualiät, Banding betreffend, habe ich per internen Player sowohl durch ScreenShare von dem Video auf dem PC, als auch vom intern auf dem TV gespeicherten Video. Es ist aber nur ein leichter Unterschied zum "Spielekonsolen" Modus mit dem Video File auf dem PC, per eigenem Player mit madVR.
Es kann auch sein das der Unterschied nur an den Playern liegt, sprich das die Verarbeitung vom LG C9 besser läuft als der von mir und dadurch ein noch geringeres/kein Banding entsteht...

Games betreffend habe ich kein Unterschied zwischen Spielekonsole/Blu-Ray/Heimkino-System Modus entdecken können, bei YUV 4:2:2 12Bit Begrenzt
Allerdings habe ich bei Witcher 3 (kein HDR) leichtes Banding feststellen können bei Wolken in der Abenddämmerung, von dunkel ins helle wechselnd. Im "PC" Mode natürlich viel stärker.

Interessant:
Unterschiede im "Spielekonsole" Modus bei Witcher 3!

-bei RGB 8 Bit Voll = gleiches Banding in den Wolken wie bei "PC" Modus der in YUV 4:2:2 12Bit Begrenzt oder in RGB 8Bit Voll war
-bei YUV 4:2:2 12Bit Begrenzt = nur leichtes Banding in den Wolken

Ich vermute daher das viele oder alle Videos/Games im "PC" Modus intern wieder auf RGB 8Bit umstellen... würde obiges Ergebnis erklären und meine Vermutung bestätigen.
 
Wenn, dann werden alle Ampere Karten das haben.
Der HDMI und DP Chipsatz ist in der Architektur eingebacken.

Das ist anders, als bspw. bei Konsolen, die einen dedizierten HDMI Chipsatz haben.

Ich würde aber wohl behaupten, dass man mind. zu Mittelklasse GPUs greifen sollte, wenn
es soweit ist. 4K@120 ist da halt noch eine Herausforderung ^^
Mit einer 2080Ti OC kriegt man schon recht gut um die 100-120 FPS Average eingestellt bei manchen Titeln .
Doom Eternal läuft sogar Maxout mit um die 100 FPS.
Unter der Leistung der 2080Ti wird es dann aber schon zu wenig finde ich.
 
Zuletzt bearbeitet:
Die 2080 Ti ist auch alles andere als eine Mittelklasse ^__^
Wenn es so läuft wie in den letzten Jahren, werden die Nachfolgerkarten der 2070 Super und 2080 Super
dann in den Bereich kommen, den die 2080 Ti jetzt versorgt. Und mit dem Nachfolger der 2080 Ti wird das dann noch besser laufen.
 
Ja die RTX 3080 sollte so um die 10% über der 2080Ti liegen.
Jedoch verdichtet es sich immer mehr das Amper zumindest bei der Rohleistung diesmal auch nicht so stark auftrumpfen wird.
Sieht so nach ca 40% für die 3080Ti aus auf die 2080Ti.
Bei RT soll sie dann aber richtig draufpacken und das neue DLSS 3.0 werden das Sahne häubchen.

Ich hoffe AMD verplätet mit BIG NAVI die Ampere.
 
Gehe auch von 40 oder eher 30 % mehr Leistung aus.
Für mich werden es aber wohl 125 % mehr Leistung sein
kommend von der GTX 1080 non Ti 8-)
Liegt aber auch an der Chip Fläche die zur verfügung steht
und entweder auf 7nm oder auf die 8nm von Samsung setzt.

Raytracing wird in zukunft sicher an bedeutung gewinnen
daher nutzen sie die Fläche lieber etwas mehr für Raytracing
Einheiten da in Sachen Grund Performance AMD ja leider noch
hinten an steht können sie sich das leisten.

@darky1986

Wie sieht es bei dir eigentlich damit aus ? Hab ich grad im Hifi Forum wieder gesehen
nachdem ich schon wieder vergessen hatte das die C9 Serie ja in Sachen Gsync verbugt ist.

20200513-124743_1015881.jpg


Die C9 Serie hat ja den Gsync Bug .. ist dir sowas aufgefallen ? Oder hast du bisher noch
garnicht mit Gsync rumprobiert ?

Ist wohl irgendwie ein Gamma Bug in verbindung mit Gsync.

Ist wohl auch bei der CX Serie so.
 
Zuletzt bearbeitet:
Wenn das so wäre dann ist der OLED für mich sofort raus weil GSync ist pflicht

Edit: aber vieleicht ist das auch eine Nvidia Bug?? muss man mit der Xbox One X überprüfen weil die hat auch VRR
 
Ist wohl nur bei Gsync ... schau im Hifi Forum nach
der Xboxler hat das nicht so stark die haben ja nur das Standart VRR und kein Gsync

Den Bilder vergleich den ich grad gepostet hatte findet man dort
eine Seite vorher.

Der eine Typ meinte dann aber das bei der CX Serie beides betroffen ist
also Gsync sowie auch VRR allgemein.

Ich hab das schon öfter mal gelesen das nach einem Firmware Update des C9
Gsync Probleme machen soll ... da gings aber meine ich eher um Flackern oder so
das hatten wir hier auch mal angesprochen. Das hier ist ja dann nochmal ne andere
Nummer.
 
Zuletzt bearbeitet:
Das Flackern liegt am WLAN.
Wenn das an ist, haben manche TVs geflackert, wenn G-Sync an war.
Auch nicht alle.

Beim Gamma G-Sync Bug habe ich gehört, dass es an NVIDIA liegen soll.
Ich hatte das aber nicht wahrgenommen, als ich die 2070 Super vom Kollegen drinne gehabt habe.
Also keine Ahnung, unter was für Bedingungen das wieder auftritt. VRR mit der One X lief auch.

Gibt auch Leute, die sich über "Ovular Banding" im Game Mode beschweren. Das wird auch seit Jahren
immer mal wieder berichtet. Aber ich und viele andere können das nicht reproduzieren.

 
Ihr immer mit euren Horror Storys :fresse:
Wird schon ... in dem einem Video redet NV doch von hat sich das Zertifikat verdient blabla.
3.40 min
 
Zuletzt bearbeitet:
Nunja .. irgendwas wahres haben die Storys ja das sie hier und da immer mal jemand
leider erlebt und dann davon berichtet.

Vielleicht tritt dies oder das aber auch nur auf wenn man jenes einstellt oder jenes
Spiel mit diesem Setting fährt oder oder oder ... aber irgendwas ist ja eh immer
was Probleme macht .. den Perfekten Monitor/TV gibts halt leider nicht.

Je mehr einstellungsmöglichkeiten man hat desto mehr FehlerQuellen können
sich offenbaren.
 
Habe den G-Sync Bug nicht wahr genommen... nennt mir ein paar spiele, mit szene, wo ich es testen könnte... HDR dabei aktiv oder deaktiviert?
 
Zuletzt bearbeitet:
Kein Plan .. da müsstest du drüben im Hifi Forum mal fragen
im Thread den ich oben verlinkt hab.

Ich hab ja kein C9 oder CX und auch kein Gsync sondern ein 24" 1080p Monitor
momentan. Somit kann ich dir da nichts nennen. Nur halt infos weitergeben die
ich dort gelesen hab und die du/ihr dort auch lesen könnt.
 
Das Gamma Bug tritt immer auf, sobald G-Sync an ist (wenn der TV denn den Bug hat).
Auffallen würde das v.A. bei dunklen Umgebungen.

Musst dort einfach mal G-Sync an und aus machen.
 
Zuletzt bearbeitet:
VRR = G-Sync Compatible (bei Nvidia Grafikkarten)

Im Hifi Forum sagt der der die Bilder gemacht hat doch schon selbst das er keine Probleme mit dem C9 hat? Nur der mit dem CX hat Probs an der Xbox

Könnte auch am Grafikkarten Treiber oder selbst an der Grafikkarten Generation liegen, je nach dem welche verbaut wurde... sollte tatsächlich jemand den Bug haben...
 
Zuletzt bearbeitet:
Hmm Okay also stammen die Bilder von der Xbox und wurden
am CX aufgenommen wenn ich das nun richtig verstehe ?
Aber warum geht es dann da um Gsync ? Die Xbox hat ne AMD Karte drinn
die kann kein Gsync sondern VRR bzw glaub ich Freesync.
 
Die XBox Series X kann sowohl HDMI VRR, als auch FreeSync.
Am LG OLED (auch die 2020er können noch kein FreeSync) wird sie HDMI VRR nutzen. Also den gleichen Standard, den NVIDIA nutzt.

Hier auch mal ein Messergebnis von einem Nutzer (vom C9):
HXHiXeL.png


€: Aus dem Stehgreif würde ich da ggf. einfach den Gamma Wert im NVIDIA Treiber anpassen oder im TV ein höheren Gamma Wert nehmen.
Das sollte es ausgleichen, wenn man von dem Problem betroffen ist.
 
Zuletzt bearbeitet:
@Stagefire
lese noch mal die Seite die du eben verlinkt hast... da steht alles in den ersten 3-5 Posts


hier mal im Anhang Bilder, die Shadow of the Tomb Raider in SDR in drei Stufen zeigen, siehe Datei Namen. Meiner Meinung nach keinerlei Unterschied, zumindest in SDR...
 

Anhänge

  • 1. SDR G-Sync.jpg
    1. SDR G-Sync.jpg
    415,9 KB · Aufrufe: 74
  • 2. SDR ohne G-Sync.jpg
    2. SDR ohne G-Sync.jpg
    430,1 KB · Aufrufe: 78
  • 3. SDR ohne G-Sync u. ohne Instant Game Response.jpg
    3. SDR ohne G-Sync u. ohne Instant Game Response.jpg
    429,2 KB · Aufrufe: 91
Zuletzt bearbeitet:
Aber gut du Darky hast davon ja bisher noch nix gesehen.
Und wir die wir die CX bald bekommen werden ja dann sehen
zumindest die mit 2000er Karten ob es da Probs mit Gsync gibt.

Ne die Brauch ich ja nun nicht mehr lesen .. bei dir ist doch alles ok
das reicht doch dann. Wollte ja nur kurz nachfragen ob du da was
gesehen hast in der Richtung mit deinem C9 am PC mit Gsync.
Aber da du ja nix gesehen hast ist alles ok. Ich vertrau dir da 8-)

Denke das ist für alles immer die beste Lösung .. das Ding selbt
mit eigenen Augen sehen und schauen wo die Probs sind.
 
Wie sieht es bei dir eigentlich damit aus ? Hab ich grad im Hifi Forum wieder gesehen
nachdem ich schon wieder vergessen hatte das die C9 Serie ja in Sachen Gsync verbugt ist.

Der Gammawert ist gefühlt vielleicht 1% höher mit Gsync. Völlig irrelevant dieser "bug". Nur auf Testbildern zu sehen und man kann doch sowieso in den TV-Settings entgegen regeln. Das Vergleichsbild da ist fernab jeglicher Realität.
 
Oder halt im Nvidia Treiber da kann man ja auch das Gamma anpassen.
Wenn das so easy wieder auszgleichen ist , dann ist es also selbst wenn
es so sein sollte ja kein Problem.
 
zur Sicherheit auch nochmal exakt gleich in HDR getestet... kein Unterschied für mich...
Beitrag automatisch zusammengeführt:

wurde beides, SDR u. HDR, in YUV 4:2:2 12Bit Begrenzt und C9 Schwarzwert niedrig, getestet
PS: Naturlich alles im "Spiele" und "Spiele HDR" Modus
PSS: Nicht wundern das beim HDR Gsync Bild "G-Sync On" steht und beim SDR nicht... hatte den Indikator nachträglich extra zur Sicherheit nochmals aktiviert, damit ich hier kein Müll von mir gebe :fresse2:
 

Anhänge

  • 1. HDR Gsync.jpg
    1. HDR Gsync.jpg
    470,7 KB · Aufrufe: 273
  • 2. HDR ohne Gsync.jpg
    2. HDR ohne Gsync.jpg
    479,5 KB · Aufrufe: 293
  • 3. HDR ohne Gsync u. Instant Game Response.jpg
    3. HDR ohne Gsync u. Instant Game Response.jpg
    475,9 KB · Aufrufe: 79
Zuletzt bearbeitet:
RTX 3080 1x HDMI 2.1 3x Display Port 2.0

TOP wird gekauft. Die Leaks sind zu 95% true.
 
Wurde erst auf der Seite vorher gepostet der Link:

Weiterhin werden noch einige Details zur Ausstattung der RTX 3080 Ti genannt:

  • vereinfachtes Design mit weniger Schrauben
  • 3x DisplayPort 2.0
  • 1x HDMI 2.1
  • 1x USB-C
  • PCI Express 4.0




 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh