LG 34GK950F-B im Test: Ungleiches Schwestermodell mit Nano-IPS und FreeSync

Und von welchen Verhältnissen kann man ausgehen? Soweit ich mich an meine Umrechnung erinnere, lief der GW2760HM so ca. 2,5 Jahre mit Backlight an, bzw. irgendwas um die 1000 Tage. Der HUB hat jetzt 280 Tage etwa, da wird jedoch auch die Zeit mitgezählt, wenn beim abgeschalteten Monitor das G-Sync-Modul an ist. Da würde ich gerne wissen, wie lange das Backlight an war. Gibt es also so eine Faustformel, dass pro Jahr Backlight z.B. 20cd/m² verschwinden? Coloriemeter will ich nicht extra kaufen. Der Helligkeitsberlust ist aber geringer als bei CCFL?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nach 30.000 Betriebsstunden (1250 Tage) werden es 20 - 30 % Helligkeitsschwund bei LEDs sein.
 
Zuletzt bearbeitet:
Nach 30.000 Betriebsstunden (1250 Tage) werden es 20 - 30 % Helligkeitsschwund bei LEDs sein.
Solche Aussagen finde ich wiederum und unterstützen den Eindruck, das du schon Ahnung hast, kurz, prägnant und auf den Punkt gebracht, nur diskutieren kannst du wirklich nicht :)

Mal als Feedback, Heute ist mir im Overwatch Menü Screen (grauer Hintergrund, 60FPS, Mauszeiger) nun doch das Smaring aufgefallen. Es lies sich allerdings komplett eleminieren durch Herabsetzen der Refreshrate von 144 auf 120Hz. Etwas entnervt habe ich dann nochmal nach einem Update gesucht (was es nicht gab) und habe LG´s OSC offen gelassen, aber wieder auf 144Hz gestellt. Das Smearing war immernoch verschwunden. Mehfrach probiert, solang das Programm offen ist, ist das Smearing wirklich weg. Es scheint als wenn das Programm (welches über USB die Settings ja steuern kann) eine Art Adaptive Overdrive einspielt.

Eventuell gingen unsere Meinungen hier soweit auseinander, da ich es bisher eigentlich fast immer im Hintergrund laufen hatte.

Rein logisch könnte das auch Sinn machen, es würde ja schon reichen wenn es lediglich die Offset Werte für 60, 75, 100, 120 und 144 Hz übernimmt und in die jeweiligen Werte bis zur Untergrenze für die jeweilige FPS Anzahl im Rahmen des adaptive Sync vergibt, also von 120<x<144 FPS den Overdrive Offset von 144Hz, 100<x<120 FPS den Overdrive Offset für 120Hz. Diese Aufgabe wird ja (kleinteiliger) vom G-Sync Modul übernommen, aber über das USB Kabel könnte so auch Ansteuerung über den Rechner erfolgen.

Vielleicht etwas kryptisch geschrieben, aber ist schon spät ^^

- - - Updated - - -

Beim besagten Monitor ist Overdrive offensichtlich auf 120Hz optimiert also gibt es bei 100Hz minimales Schlieren und bei 144Hz leichtes Ghosting.
Ich bezweifle aber, dass man es deutlich am Mauszeiger sehen kann. Vermutlich hast du FreeSync an und bei den 60FPS waren es nur noch 60Hz ?

Korrekt. Es gab aber absolut kein Smearing/Ghosting mehr bei 60Hz (bzw. DEUTLICH weniger). Ist das Programm geschlossen ist es wieder da. Über 75Hz ist generell quasi nichts zu sehen
 
Zuletzt bearbeitet:
Beim besagten Monitor ist Overdrive offensichtlich auf 120Hz optimiert also gibt es bei 100Hz minimales Schlieren und bei 144Hz leichtes Ghosting.
Ich bezweifle aber, dass man es deutlich am Mauszeiger sehen kann. Vermutlich hast du FreeSync an und bei den 60FPS waren es nur noch 60Hz ?

- - - Updated - - -

Korrekt. Es gab aber absolut kein Smearing/Ghosting mehr bei 60Hz (bzw. DEUTLICH weniger).
Das ergibt eigentlich keinen Sinn denn wie gesagt sind 60FPS mit FreeSync 60Hz also weit weg von den optimierten 120Hz.
Es sei denn FreeSync wurde deaktiviert und es waren klassische 60FPS@120Hz also wieder Optimum aber halt mit Tearing.
 
Beim besagten Monitor ist Overdrive offensichtlich auf 120Hz optimiert also gibt es bei 100Hz minimales Schlieren und bei 144Hz leichtes Ghosting.
Ich bezweifle aber, dass man es deutlich am Mauszeiger sehen kann. Vermutlich hast du FreeSync an und bei den 60FPS waren es nur noch 60Hz ?

- - - Updated - - -


Das ergibt eigentlich keinen Sinn denn wie gesagt sind 60FPS mit FreeSync 60Hz also weit weg von den optimierten 120Hz.
Es sei denn FreeSync wurde deaktiviert und es waren klassische 60FPS@120Hz also wieder Optimum aber halt mit Tearing.

Nein, Freesync war aktiv. Habe ich extra drauf geachtet, da ich auch zuerst etwas in die RIchtung vermutet habe, darum auch mehrfach getestet mit mehreren Neustarts des Gerätes. Die Vermutung ist ja aber genau die, das durch die Software eine Optimierung des Overdrive on-the-fly durch durch die Software erfolgt. Ähnlich dem adaptive Overdrive von G-Sync, nur nicht ganz so feinfühlig.
 
Nach 30.000 Betriebsstunden (1250 Tage) werden es 20 - 30 % Helligkeitsschwund bei LEDs sein.

25.269 Betriebsstunden von der Hintergrundbeleuchtung. Also in rund 6 Jahren den Monitor 2,884 Jahre benutzt. Also kann man ungefähr davon ausgehen, dass der nur noch rund 261cd/m² schafft und da ich ihn auf 0 habe, sind es dann um die 92,8cd/m². Müsste ja dann schon sichtbar sein, wenn man den gleichen neu hat. Wenn ich den GW auf 100 stelle und bei dem HUB die gleiche Helligkeit will, muss ich den ca. auf 75-80% stellen. Aber wie kriege ich da die Betriebsstunden von der Hintergrundbeleuchtung raus? Total Uptime sagt knapp 289 Tage, was aber den ausgeschalteten Zustand mitzählt, wo das G-Sync-Modul trotzdem an ist. Um das zu verhindern, muss man Deep Sleep anschalten. Da sind dann wohl 100 Tage bei der Hintergrundbeleuchtung realistisch, also 2400 Stunden
 
Oder man misst die Helligkeit einfach nach.
 
Man kann also mit diesen Leuten nicht sachlich diskutieren.

Für mich ist AMD gestorben. Die bekommen nichts mehr gebacken. Auch bei CPU's werden die wohl lange kein gutes OC Potenzial haben und 5+ GHz per core erreichen.

@samurro

Damit unterstreichst du nur deine Inkompetenz.

G-Sync hat meiner Meinung nach nur einen Nachteil, bei der 950er Serie von LG. Es gibt keinen srgb Modus um die teilweise recht stark übersättigten Farben im srgb Farbraum abzumildern.

Die Zitate könnten auch für sich stehen und ich hab mich nich bemüht noch in anderen Threads zu wühlen. Das manch einer eben nicht gewillt ist für ein "funktionierends G-Sync" extra eine nvidia GPU und die G-Syncsteuer beim Monitor zu blechen ist für dich warscheinlich auch ein unsachliches Argument.
 
Wenn du vernünftige Schaltzeiten über die gesamte Syncrange und wenig Overshoot haben willst führt daran kein Weg vorbei ;). Kapieren aber AMD Fanboys nicht. Diskussion ist mit solchen Leuten zwecklos.

Abgesehen davon hat AMD eh keine ordentlichen GPUs im High-End-Bereich, man braucht also so oder so eine Nvidia GPU, um überhaupt einen UWQHD Moniitor mit dreistelligen Frameraten zu betreiben.
 
Zuletzt bearbeitet:
Das manch einer eben nicht gewillt ist für ein "funktionierends G-Sync" extra eine nvidia GPU und die G-Syncsteuer beim Monitor zu blechen ist für dich warscheinlich auch ein unsachliches Argument.
Wenn derjenige nicht einfach nur auf Nvidia rumbasht und anerkennt, dass Gsync nunmal überlegen ist und Dinge bietet die nützlich sind, wieso sollte man?
"Ferrari ist scheiße weil ihre Autos so teuer sind" ist sehr unsachlich, ja.
 
Genau das ist das Problem vom AMD Fanboys, Hauptsache billig. Performance ist scheiß egal. Nvidia ist schlecht weil teurer und weil sie ein extra Modul für ihre adaptive Synchronisation verwenden.
 
Wenn du vernünftige Schaltzeiten über die gesamte Syncrange und wenig Overshoot haben willst führt daran kein Weg vorbei ;). Kapieren aber AMD Fanboys nicht. Diskussion ist mit solchen Leuten zwecklos.

Abgesehen davon hat AMD eh keine ordentlichen GPUs im High-End-Bereich, man braucht also so oder so eine Nvidia GPU, um überhaupt einen UWQHD Moniitor mit dreistelligen Frameraten zu betreiben.

Hast du noch eine Anmerkung zu dem was ich gestern festgestellt habe?

Bei dem Teil mit AMD sehe ich das aber anders, eine Vega VII ist eine gute Karte und taugt sehr gut für 3440x1440, billig ist sie auch nicht. Selbst beim Gaming zieht sie hinten raus (mit ordentlicher KÜhlung) an einer 2080 vorbei. Kommt eben immer auf das usecase an, ich brauche eben die Vega, da Nvidia einfach teilweise nicht supportet ist.
 
Wenn du vernünftige Schaltzeiten über die gesamte Syncrange und wenig Overshoot haben willst führt daran kein Weg vorbei ;).

Ich will einfach nur einen guten Monitor der auch zum Spiele taugt, vieleicht merkst du jetzt warum deine Argumentationsweise nicht bei jedem ankommt. Deine Anforderungen gelten halt nicht allgemeingültig.
 
Ja, stimmt die Radeon VII ist stock ab und zu einen Hauch schneller als eine RTX 2080, weil die RTX 2080 noch nicht alle Features nutzen kann, weil die Spielehersteller erstmal die Techniken der RTX Serie implementieren muss. Abgesehen davon kann man die RTX 2080 sehr stark übertakten. Die Radeon VII heizt bei OC ordentlich und verbrennt 350 Watt. Von daher ist eine Radeon VII sehr fraglich. Wie immer hat AMD trotz 7 nm den Stromverbrauch und die Verlustleistung nicht im Griff. Einfach nur peinlich.

Abgesehen davon hat Nvidia die RTX 2080 Ti für den High-End-Bereich und die wischt mit so einer Radeon VII so oder so den Boden, auch ohne Support der mit RTX eingebrachten Verbesserungen durch Games.
 
Zuletzt bearbeitet:
Ja, stimmt die Radeon VII ist stock ab und zu einen Hauch schneller als eine RTX 2080, weil die RTX 2080 noch nicht alle Features nutzen kann, weil die Spielehersteller erstmal die Techniken der RTX Serie implementieren muss. Abgesehen davon kann man die RTX 2080 sehr stark übertakten. Die Radeon VII heizt bei OC ordentlich und verbrennt 350 Watt. Von daher ist eine Radeon VII sehr fraglich. Wie immer hat AMD trotz 7 nm den Stromverbrauch und die Verlustleistung nicht im Griff. Einfach nur peinlich.

Abgesehen davon hat Nvidia die RTX 2080 Ti für den High-End-Bereich und die wischt mit so einer Radeon VII so oder so den Boden, auch ohne Support der mit RTX eingebrachten Verbesserungen durch Games.

Bei der Vega ist weniger der Verbrauch kritisch als die ab Werk schlechte Kühlung, ich betreibe meine Vega VII aktuell wie gesagt mit etwa 160W, mit 1-2% Performanceeinbußen zum stock. Es gibt allerdings auch Leute welche die Karte bei etwa 250Watt mit 2100 MHz Core betreiben, aber das ist ein anderes Thema. Die 2080ti ist übrigens ein sehr schlechter Vergleich, zum einen wegen deines Argumentes des Verbrauchs und zudem schlicht wegen des Preises.

Hier ist es eben wirklich so, das nicht jeder bereit ist weit über 1000€ für eine GPU auszugeben, da du aber auch der 2080 nicht die Fähigkeit für 3440x1440 absprichst bleibt für mich aber doch die Frage offen, warum die Vega VII (alle AMD Karten) unfähig für diese Auflösung sind. Hier auch mal die Effizienz: https://i.redd.it/ov6ncgcvl5f21.png ->irgendwie komtm die 2080 nach deinen Argumenten nun schlechter weg.... Ja, ab Auslieferung ist sie Mist, generell aber sehr gut wenn man etwas Zeit und Liebe investiert

Bei Monitoren magst du vielleicht noch Plan haben, aber spätestens bei Grafikkarten hast du wirklich überhaupt keine Ahung mehr, sorry. Wer übrigens so viel Geld in die Hand nimmt ist übrigens eh mit Wasser unterwegs und da ist die Vega VII nunmal generell schneller als die 2080, teilweise sogar (wenn auch sehr selten) der 2080ti @stock ebenbürdig.

Edit.: Warum ignorierst du eigentlich so energisch meine Anmerkung von gestern?

Solche Aussagen finde ich wiederum und unterstützen den Eindruck, das du schon Ahnung hast, kurz, prägnant und auf den Punkt gebracht, nur diskutieren kannst du wirklich nicht :)

Mal als Feedback, Heute ist mir im Overwatch Menü Screen (grauer Hintergrund, 60FPS, Mauszeiger) nun doch das Smaring aufgefallen. Es lies sich allerdings komplett eleminieren durch Herabsetzen der Refreshrate von 144 auf 120Hz. Etwas entnervt habe ich dann nochmal nach einem Update gesucht (was es nicht gab) und habe LG´s OSC offen gelassen, aber wieder auf 144Hz gestellt. Das Smearing war immernoch verschwunden. Mehfrach probiert, solang das Programm offen ist, ist das Smearing wirklich weg. Es scheint als wenn das Programm (welches über USB die Settings ja steuern kann) eine Art Adaptive Overdrive einspielt.

Eventuell gingen unsere Meinungen hier soweit auseinander, da ich es bisher eigentlich fast immer im Hintergrund laufen hatte.

Rein logisch könnte das auch Sinn machen, es würde ja schon reichen wenn es lediglich die Offset Werte für 60, 75, 100, 120 und 144 Hz übernimmt und in die jeweiligen Werte bis zur Untergrenze für die jeweilige FPS Anzahl im Rahmen des adaptive Sync vergibt, also von 120<x<144 FPS den Overdrive Offset von 144Hz, 100<x<120 FPS den Overdrive Offset für 120Hz. Diese Aufgabe wird ja (kleinteiliger) vom G-Sync Modul übernommen, aber über das USB Kabel könnte so auch Ansteuerung über den Rechner erfolgen.
 
Zuletzt bearbeitet:
Wenn derjenige nicht einfach nur auf Nvidia rumbasht und anerkennt, dass Gsync nunmal überlegen ist und Dinge bietet die nützlich sind, wieso sollte man?
"Ferrari ist scheiße weil ihre Autos so teuer sind" ist sehr unsachlich, ja.

Der Vergleich hinkt schon sehr. Es geht hier um weit mehr als reine Preis/Leistung. Ich weiß es ist schwer vorstellbar, aber es gibt auch Leute die versuchen auf Linux zu spielen. Und ich hatte selbst eine 560ti for etlichen Jahren. Aber irgendwann habe ich mich halt gegen die Firma entschieden das 3,5 GB RAM Desaster und G-Sync sind nur weitere Punkte auf der Liste welche die Firma für mich inakzeptabel gemacht haben.
 
@Chanks

Die RTX 2080 ist auch nicht toll. Zumiindestens so lange die Technologien, welche der RTX Chip mit sich bringt nicht genutzt werden ;). Ist im Moment nur eine Grafikkarte die mit der 1080 Ti vergleichbar ist. Also nichts besonderes ;).

Die RTX 2080 Ti ist die einzige, ordentliche Graka im Moment. Und ob ich nur 700 - 800 oder 1000 Euro für eine GPU ausgebe ist auch Latte. Der Geiz führt zu nichts.
 
Zuletzt bearbeitet:
@Chanks

Die RTX 2080 ist auch nicht toll. Zumiindestens so lange die Technologien, welche der RTX Chip mit sich bringt nicht genutzt werden ;). Ist im Moment nur eine Grafikkarte die mit der 1080 Ti vergleichbar ist. Also nichts besonderes ;).

Die RTX 2080 Ti ist die einzige, ordentliche Graka im Moment. Und ob ich nur 700 - 800 oder 1000 Euro für eine GPU ausgebe ist auch Latte. Der Geiz führt zu nichts.

Das sehe ich auch so, darum bin ich auch nach Möglichkeit bei Apple. Aber der Vergleich einer 650€ GPU mit einer 1000€ GPU hinkt dennoch und ob 650 zu 1000€ ist doch mehr als ein kleiner Aufpreis.
 
Macht bei der allgemeinen Geldentwertung eh nichts mehr aus. Der Euro ist nicht viel wert, ob ich da nun 350 Euro mehr raushaue, macht im Gesamten auch nichts mehr aus.

Und für jemanden der Apple kauft und für geringe Performance viel zu viel Geld bezahlt, sollte Geld erst recht keine Rolle spielen.
 
Zuletzt bearbeitet:
Der Vergleich hinkt schon sehr. Es geht hier um weit mehr als reine Preis/Leistung. Ich weiß es ist schwer vorstellbar, aber es gibt auch Leute die versuchen auf Linux zu spielen. Und ich hatte selbst eine 560ti for etlichen Jahren. Aber irgendwann habe ich mich halt gegen die Firma entschieden das 3,5 GB RAM Desaster und G-Sync sind nur weitere Punkte auf der Liste welche die Firma für mich inakzeptabel gemacht haben.
Nö, passt wunderbar.
Du willst einen Ferrari im Gelände fahren und meckerst dann rum dass das nicht geht.
Und wieso legst du dich mit jemanden wie asus an, wenn du keine großen Ansprüche hast?
Da kannst du im Grunde kaufen was du willst. Aber stattdessen meckerst du rum, dass Leute mit größeren Ansprüchen größere Ansprüche haben als du. Wenn die dich nicht interessieren, dann ignorier sie einfach!!!
Kauf was du willst und gut ist. Ich wäre froh wenn ich keine Ansprüche hätte, wie du, denn dann hätte ich schon längst einen passenden Monitor gefunden.

Und ich weiß selbst dass Nvidia viel Scheiße gemacht hat und immer noch macht. Ich hatte selbst ne 970 und die RTX Reihe finde ich lachhaft aus diversen Gründen. Im Moment plage ich mich mit den neuen Treibern rum, die Probleme verursachen. Trotzdem sind sie für mich im großen und Ganzen immer noch nur die einzige Wahl, eben durch viele andere Dinge.
 
Wenn du kein UHD Monitor hast, würde ich mit Sicherheit keine RTX 2080 Ti kaufen, auch wenn sie @UWQHD ordentliche frame rates hat. Aber UWQHD ist mir zu pixelig, um eine 2080 Ti zu rechtfertigen. Nutze UWQHD nur als Zweitmonitor, weil mir der Fan des X27 im Desktopbetrieb auf den Senkel geht und UHD @ 60 Hz Augenkres ist.

Ich habe aber einen X27 da reißt du ohne RTX 2080 Ti gar nichts. Wenn SLI nicht micro stuttering geplagt sein würde, würde ich noch eine zweite verwenden.
 
Zuletzt bearbeitet:
Macht bei der allgemeinen Geldentwertung eh nichts mehr aus. Der Euro ist nicht viel wert, ob ich da nun 350 Euro mehr raushaue, macht im Gesamten auch nichts mehr aus.

Und für jemanden der Apple kauft und für geringe Performance viel zu viel Geld bezahlt, sollte Geld erst recht keine Rolle spielen.
Schon wieder eine andere Offtopic :d Mensch jetzt springst du aber ganz schön rum :d

Ich kaufe Apple weil mich das Gesamtkonzept gefällt. ebenso der Support. Da bin ich einfach noch niemals auf die Nase gefallen, wenn irgendwas mit den Geräten, nicht selbstverschuldet war, hatte ich immer 2 Tage später ein neues Produkt in der Hand, teilweise auch schon 9 Monate nach Ablauf der Garantie. Verglichen mit anderen Geräten ist auch das P/L-Verhältnisse der Produkte zu Release nicht schlecht. Nur das es keine Preisanpassungen der älteren Geräte oder regelmäßigere Upgrades gibt trügt den Gesamteindruck etwas.Aber die 2080ti ist jetzt ja auch kein Preis-Leistungswunder, Vega VII oder 2080 allerdings auch nicht.
 
Wie viel Geld muss man denn bei Apple raushauen, um einen imac mit einer Radeon VII zu bekommen ?

Das war selbst bei der Vega schon extrem teuer. Da ist auch eine RTX2080 Ti noch ein Schnapper gegen.

Und Apple zum Gamen ist eh ein Witz. Für die Mehrzahl der Games muss man Windows verwenden.
 
Zuletzt bearbeitet:
"Im not saying it was aliens, but it was aliens"
:rofl:

Mich würde mal interessieren, was Du daran lustig findest. Etwas messtechnisch nachweisen zu können, heißt noch lange nicht, dass der Unterschied auch spürbar ist. Oder gehörst Du zu denjenigen, die sich einreden, ich müsse da was sehen, weil da steht ja eine andere Zahl!?

Der Unterschied zwischen 98KM/h und 100KM/h ist auch messtechnisch nachweisbar, ich bezweifle aber, dass Du den Unterschied beim Fahren bemerkst.

Aber stattdessen meckerst du rum, dass Leute mit größeren Ansprüchen größere Ansprüche haben als du. Wenn die dich nicht interessieren, dann ignorier sie einfach!!!

Die Ironie dabei ist, dass Asus keine höheren Ansprüche hat, sondern einfach nur andere. Gefühlt scheint ihm alles bis auf Schlierenbildung ziemlich scheißegal zu sein. Dafür scheint er sogar TN Gemurkse zu akzeptieren... Ja, wahnsinnig hoher Anspruch. :rofl:
 
Zuletzt bearbeitet:
Mich würde mal interessieren, was Du daran lustig findest. Etwas messtechnisch nachweisen zu können, heißt noch lange nicht, dass der Unterschied auch spürbar ist. Oder gehörst Du zu denjenigen, die sich einreden, ich müsse da was sehen, weil da steht ja eine andere Zahl!?

Der Unterschied zwischen 98KM/h und 100KM/h ist auch messtechnisch nachweisbar, ich bezweifle aber, dass Du den Unterschied beim Fahren bemerkst.

Physik ist ziemlich einfach:
Wenn dein Gegner 1 ms vorher abdrückt als du, dann hast du verloren.
Aber von mir aus argumentier weiter. Ich lach mich gerne schlapp.

Und den Unterschied bemerkst du beim Fahren ganz sicher, wenn derjenige der 100 fährt neben dir fährt, oder über eine längere Strecke fährt. Wenn du das nicht merkst, dann wird mir so einiges klar. :d
 
Zuletzt bearbeitet:
Hmm konnten die Leute ihre 970 nicht ne Zeit lang zurück geben?.

Ich denke das war mal so,und wers nicht genutzt hat pech gehabt..^^.

2004 hatte ich meine letzte NV bis mitte 2018 dann nur noch ATI/AMD mir war das eh schnuppe was ich nun hab p/l muss stimmen.
Leider war ab der 480 dann nix mehr bei AMD ausser ihre Hitzköpfe.

Jetzt hab ich ne 1070TI und bin sehr zufrieden damit,keine Treiber Prob. mehr auch Einstellungen etc. lassen sich viel Geschmeidiger machen bei NV.

Es läuft alles halt stabiler das ist aber nur mM. bei AMD/ATI hatte ich immer Prob.

Das ist wie G und Freesync klar AMD ist da billig läuft aber nicht rund alles,bei NV teuerer läuft aber.

Da muss man sich hier nicht streiten,andere haben halt wie oben gesagt größere Ansprüche.
 
Zuletzt bearbeitet:
Wie viel Geld muss man denn bei Apple raushauen, um einen imac mit einer Radeon VII zu bekommen ?
Mindestens 6339€, allerdings incl. des 5K-Displays und Pheripherie, welche ja auch weder günstig noch schlecht ist.

Ich betreibe jedoche einen Hackintosh, da ich seit jeher MacBooks, aktuell das aktuelle 15er, nutze und mich einfach in das System und Ecosystem verliebt habe. Man arbeitet, klappt das Gerät zu und direkt ist es auf allen anderen Geräten auch verfügbar, als hätte man die ganze Zeit an ein und dem selben Gerät gearbeitet (Handoff). Weiterhin wäre es auch als aktives Mitglied der Hackintosh Community und Developer einfach nicht schlau zu wechseln, daher meine ich ja auch, Ansprüche unterscheiden sich.

Auch einfach für Workload sind sich Vega VII und 2080ti doch sehr ebenbürdig, wenn man mehr will als Spiele spielen, ist die Vega VII ein schönes Spielzeug.

Aber ich bin ja mal gespannt was die WWDC heute bringt, vielleicht bekommen wir ja wieder Support für Nvidia, dann wird die 2080ti direkt bestellt und über den 950G nachgedacht, denn G-Sync existierte bis High Sierra, Freesync bisher generell nicht :/
 
Zuletzt bearbeitet:
Physik ist ziemlich einfach:
Wenn dein Gegner 1 ms vorher abdrückt als du, dann hast du verloren.

Ja, Physik ist (verhältnismässig) ziemlich einfach. Die ~20+ ms zum Server + genereller Input-Lag des Systems + Reaktionsgeschwindigkeit sind ein deutlich höherer Faktor als deine 1ms die vielleicht das Panel schneller ist. Vielen Dank, dass Du meinen Punkt bestätigst.

Jetzt darfst du gerne weiter lachen, wenn dir danach ist.

Und den Unterschied bemerkst du beim Fahren ganz sicher, wenn derjenige der 100 fährt neben dir fährt, oder über eine längere Strecke fährt. Wenn du das nicht merkst, dann wird mir so einiges klar. :d

Mal davon abgesehen, dass Du für mein Beispiel plötzlich völlig andere Konstanten erfindest (Vergleich mit anderem Fahrer statt das eigene Fahrgefühl, Länge der Strecke): In der Praxis wirst Du nie konstant 100KM/h oder 98KM/h fahren, ganz egal wie lange deine Strecke ist. Da müsstest Du schon für Laborbedingungen sorgen (Exakt gleicher Fahrbahnbelag, identische Autos mit gleicher Nutzlast, keine Verkehrsbehinderungen, gesteuertes Gaspedal, kurzm den Faktor Mensch aus der Gleichung nehmen), und oh Wunder, dann sind wir wieder bei meiner Aussage von oben: Messtechnisch nachweisbar, in der Praxis irrelevant.

Darf ich jetzt eine Runde lachen?
 
Ja, Physik ist (verhältnismässig) ziemlich einfach. Die ~20+ ms zum Server + genereller Input-Lag des Systems + Reaktionsgeschwindigkeit sind ein deutlich höherer Faktor als deine 1ms die vielleicht das Panel schneller ist. Vielen Dank, dass Du meinen Punkt bestätigst.

Jetzt darfst du gerne weiter lachen, wenn dir danach ist.



Mal davon abgesehen, dass Du für mein Beispiel plötzlich völlig andere Konstanten erfindest (Vergleich mit anderem Fahrer statt das eigene Fahrgefühl, Länge der Strecke): In der Praxis wirst Du nie konstant 100KM/h oder 98KM/h fahren, ganz egal wie lange deine Strecke ist. Da müsstest Du schon für Laborbedingungen sorgen (Exakt gleicher Fahrbahnbelag, identische Autos mit gleicher Nutzlast, keine Verkehrsbehinderungen, gesteuertes Gaspedal, kurzm den Faktor Mensch aus der Gleichung nehmen), und oh Wunder, dann sind wir wieder bei meiner Aussage von oben: Messtechnisch nachweisbar, in der Praxis irrelevant.

Darf ich jetzt eine Runde lachen?

Auch wenn ich verstehen kann das du getriggert bist, es ist schwer hier halbwegs sachlich zu bleiben, verwechselt ihr gerade beide Inputlag und Responsetime. Das Inputlag ist die Verzögerung welche bei der Verarbeitung des Monitors entsteht, davon sprecht ihr aktuell, die ursprüngliche Diskussion ging aber um Responsetime, das ist die Schaltzeit der Pixel und da ist jede ms, welche den Wert der Wiederholfrequenz des Bildschirms überschreitet kritisch, denn so enstehen die Schlieren. Allerdings gibt es auch hier Spielraum und nicht jede kleine Überschreitung ist direkt ein Drama, aber 2-3ms machen durchaus einiges aus.

Nebenbei werden die Beispiele nun aber echt absurd, die Unterschiede im Tempo entstehen meist schon mangels geeichter Tachos, wenn ich nach meinem Tacho 100 fahre, bedeutet das nicht das ich real 100km/h fahre. Hat aber 0,nichts mit dem Thema hier zu tun.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh