Brauch man G Sync

thx222

Enthusiast
Thread Starter
Mitglied seit
30.12.2007
Beiträge
350
wenn der Monitor 75Hz schafft? Habe mir jetzt ein GTX 1080 gekauft und möchte nun auf UWQHD spielen... Schnelle Shooter spiele ich selten,eher Witcher usw
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja brauchen tut man es nicht, es wäre aber empfehlenswert wenn du gsync hast.
Dann hast du auch kein tearing was bei der hz schon deutlich sichtbar ist.
 
Brauchen tut man es nicht.... Möchte es aber nicht mehr missen
 
was ne frage. braucht man einen ferrari? nein, aber geil isses dennoch.
 
Ich hatte mal G-Sync eine Zeitlang, diese Sync-Methode(n) ist nicht die Eierlegende Wollmilchsau, jede Sync Methode hat seine nach und vorteile (am liebsten nutze ich Adaptiv), brauchen tut man sie nicht, wenn man einen neuen kauft schadet es sicher nicht.
Zur info, diese Sync methoden, also Free und G-Sync, helfen dabei dass sich niedrige FPS (also 35 bis ~60FPS) flüssiger anfühlen, und Tearing beseitigt wird.
 
Zuletzt bearbeitet:
Na, mit ‚ner 1080 hast Du Dir ja bereits die teuerste und potenteste Spiele-GraKa zugelegt. Und die UWQHD-Monitore stehen auch nicht in den Regalen, wo der preisbewußte Anwender seine Produkte sucht. Möchtest Du also sicherheitshalber UWQHD mit >60Hz und/oder Sync, durchschlägst Du wohl die 1.000-Euro-Grenze.

Was meinst Du mit ‚der Moni -schafft- 75Hz‘? Die Frage ist, ob die GraKa (bei einer bestimmten Anwendung) 75Hz schafft.
Frage also die Witcher-Spieler, was eine geeignete Bildschirmauflösung für dieses Spiel ist, und was die 1080 bei welchen Einstellungen so wuppt.
Und wenn der überwältigende Teil der Witcher-Spieler auf G-Sync schwört, na dann könnte es wohl ein taugliches Feature sein.
Aber, ob man‘s nun wirklich brauch..
verliert sich in der Beliebigkeit der Fragestellung.
 
Zuletzt bearbeitet:
Bei 144Hz braucht man vl kein Gsync wenn man die FPS halten kann, ich weiß gar nicht mehr was passiert wenn die fps kippen, aber man kann ja limitieren.
 
Man kann sich über Gsync oder Freesync den Mund fusselig reden.....es ist wie mit einer Virtual Reality Brille, man muss es selbst gesehen/erlebt haben um zu entscheiden!
Aber dennoch kann ich trotzdem behaupten.....ein Fehlkauf wird es definitiv nicht!
 
Ich denke G-Sync ist kein muss. Wer bisher ohne VSYNC auskam, der wird auch ohne G-Sync leben können. Wenn jedoch Geld übrig ist, lohnt es sich auf jeden Fall.
 
Ohne vsync aus kam? Man musste ohne auskommen wer kein extremen inputlag wollte
 
Mir ist aufgefallen, daß User die überlegen ob sie G-Sync oder FreeSync brauchen, oftmals kein V-Sync kennen. Also war es ihnen bis jetzt egal
ob das Bild überhaupt synchronisiert wurde und scheinbar dachte man, daß Tearing ganz normal ist oder es wurde nicht als störend empfunden.
Aber jetzt wo Sync beworben wird will man es auf einmal haben, ohne zu wissen wofür es genau da ist und egal ob es 150 Euro Aufpreis kostet.

…Na, das hätte ich mal schreiben sollen; dann hätte ich wieder Haue gekriegt.:d

G-Sync ist nvidias wichtigstes Marketing-Schlachtross gegen die Konkurrenz, da könnte man meinen, der Käufer hat sich schonmal vor dem Kauf mit beschäftigt.
 
G-Sync ist nvidias wichtigstes Marketing-Schlachtross gegen die Konkurrenz, da könnte man meinen, der Käufer hat sich schonmal vor dem Kauf mit beschäftigt.

Ernsthaft? Das wichtigste war für mich immer die Leistung und die FPS bei den Spielen die ich spiele weshalb AMD eigendlich immer unter den Tisch fiel.

Was mich aber mal interessieren würde, können Nvidia Karte nicht auch Free Sync? Wenn es ein "Freier Standard" ist wäre ja die Eier legende Wollmilchsau quasi eine Geforce Karte die beides kann.

Ich habe eine Nvidia Karte bin aber angesichts des Preise eher an ein Freesync Monitor interessiert. Wie bekommts mans also zum laufen?
 
@StillPad
das ist ja seit gefühlt ‚schon immer‘ so, dass
1. nvidias jeweilige Spitzen-GraKa die Top-AMD-GraKa in die Tasche steckt und
2. man bei den Mittelklasse-GraKas bei AMD immer etwas mehr Rechenpower -zumindest gem. Datenblatt- fürs Geld bekommt.
Da ist G-Sync schon ein großer Marketing-Wurf.
Und nvidia wird einen Teufel tun FreeSync weder in die Referenzkarte einzubauen noch es den Herstellern der Customer-Karten zu erlauben.

Die Triebfeder der Großkonzerne ist es Machtspiele zu gewinnmaximierenden Verkaufsstrategien zu entwickeln.
Es geht hierbei nicht darum dem Kunden ein zufriedenstellendes Produkt zu verkaufen.
Syncen ist ein Paradebeispiel, wie konkurrierende Firmen versuchen ihre proprietäre Technik durch Kundenbindung durchzusetzen, bis eine kritische Masse erreicht ist, um zum Standard aufzusteigen.
Der Gewinner ist aber nicht die Firma mit der besseren Technik, sondern die mit dem besseren Marketing und vor allem die Firma, die am skrupellosesten an den Fäden der verflochtenden und verwebten Elektronik-Industrie herumzieht.
Gestern noch bitter verfeindet, sind sie heute dicke Freunde auf der Jagd nach Macht und nebenbei dem nächsten Milliarden-Geschäft.

Und wie es der Themenstarter belegt, besteht die Kunst nun darin, dass der Kunde recht viel Geld für etwas ausgiebt, von dem er kaum etwas versteht.
Er muss nur das Firmenlogo und das Technik-Blabla auf der Verpackung mit
‚ist gut‘ assoziieren, und er kaufts.

Sarkastisch formuliert:
Ja verdammt, Du hast ‚n Haufen Kohle für ‚ne GTX1080 rausgeschmissen, nun koof Dia ooch jefällichst ‚n Moni mit dschi-sünk, tausend Härtz, köhrft und allem martialischem Bling-bling.
 
Zuletzt bearbeitet:
G-Sync ist nvidias wichtigstes Marketing-Schlachtross gegen die Konkurrenz, da könnte man meinen, der Käufer hat sich schonmal vor dem Kauf mit beschäftigt.

Nvidia hat G-Sync wohl eher den Monitorherstellern zuliebe auf den Markt gebracht, damit diese ihre "Gamer" Monis für 500+ Euro verkloppen können, und das Ganze samt 50$ Schrottronics Panel, versteht sich...

Ich spiele seit Quake1 ohne Vsync und hatte auch selber mal für kurze Zeit einen G-Sync Monitor mit TN Panel, aber fande da einen 60Hz VA Monitor letztenendes um Längen (Kontrast + 8Bit Panel) besser, trotz dem Tearing.

Haue die Kohle lieber in etwas sinnvolleres (Titan X bei der Auflösung z.B. :p)

ps. Ich kann Nvidia's Kommentar, daß G-Sync optimal bei 40 bis 60 FPS ist, nicht nachvollziehen. Bei 90 bis 140 FPS ist es OK, darunter fande ich den Effekt zu minimal, als das der Aufpreis gerechtfertigt währe.
 
Zuletzt bearbeitet:
ps. Ich kann Nvidia's Kommentar, daß G-Sync optimal bei 40 bis 60 FPS ist, nicht nachvollziehen. Bei 90 bis 140 FPS ist es OK, darunter fande ich den Effekt zu minimal, als das der Aufpreis gerechtfertigt währe.

Kommt auch immer darauf an welche Titel man spielt.

State of Decay wurde damals für mich mit G-Sync überhaupt erst angenehm spielbar, vorher waren die frametimes ein Grauen.
Gleiches gilt heute noch z. B. für Alien Rage, das geht für mich ohne Sync Monitor gar nicht.
Dead Effect läuft auch recht hakelig.
Es gibt einige Titel die aufgrund der engine keine saubere Bildausgabe hinbekommen.

Optimal als Aussage ist auch unglücklich gewählt mMn.

Der Bereich 40-60 fps profitiert mehr vom Sync als z. B. konstante 144 fps.
Wenn ich z. B. in einem Strategiespiel über die Karte scrolle bringt Sync bei 45 fps deutlich mehr sichtbare Verbesserung als wenn schon 144 anliegen.
Optimal im Sinne von "besser geht es nicht mehr" sind aber auch mit Sync immer möglichst hohe fps.

Mit Sync und hohen fps ist die Fluffigkeit unglaublich gut.
Konstante 144fps mit Sync wirken für mich je nach Titel schon fast surreal.
 
Zuletzt bearbeitet:
@StillPad
das ist ja seit gefühlt ‚schon immer‘ so, dass
1. nvidias jeweilige Spitzen-GraKa die Top-AMD-GraKa in die Tasche steckt und
2. man bei den Mittelklasse-GraKas bei AMD immer etwas mehr Rechenpower -zumindest gem. Datenblatt- fürs Geld bekommt.
Da ist G-Sync schon ein großer Marketing-Wurf.
Und nvidia wird einen Teufel tun FreeSync weder in die Referenzkarte einzubauen noch es den Herstellern der Customer-Karten zu erlauben.

Nun ich dachte da auch eher an einer Custom Lösung ala selbstprogrammierter Treiber von irgend ein findigen Programmierer.
Wenn die Hersteller es wollten könnte Nvidia auch nicht nein sagen. Was ist schlimmer als weniger Gewinn?
Richtig gar kein Gewinn.
Wenn Asus und Co. einfach Nvidia boykotieren würden würde man ja sehen was Nvidia von sein G-Sync hat...

Jedenfalls finde ich es Sch**** das ich ein freien Standard nicht nutzen kann. Ich kaufe mir doch keine AMD Karte die schlechter performed nur wegen den Monitor.
Auch kann ich ehrlich gesagt gar nicht verstehen wieso zum Teufel die Monitorhersteller nicht schon viel früher sowas raus gebracht haben.
Gerade das Tearing finde ich sehr nervig.
Wo es möglich ist nutze ich ja V-Sync, aber das klappt nun mal nicht überall.

800€ fürn 27" AOC finde ich auch sehr unverschämt wenn ich 50" Sony TV mit VA Panel und sehr niedrigen Inputlag für 600-800€ bekomme.

Meine Hoffnung war halt das es eine Treiberlösung gibt für das ganze.
 
@StillPad
Mit ‚sowas rausgebracht‘, beziehst Du Dich wohl die beiden speziellen Formate Free- und G-Sync.
Ich bin ja kein Elektroniker, der wirklich technisch fundiert hierzu referieren könnte, aber ich verwende mal wieder meine schon öfter verbreitete Aussage:
Beide Sync-Varianten sind Außenstellen der GraKa.
Ergo: Kein Monitorhersteller könnte die Funktion im Alleingang in die Platinen integrieren. Es sind die GraKa-Hersteller, die vorangehen müssen und sagen: ‚Hört mal Moni-Hersteller, ihr wisst ja, dass unsere GPUs bei manchen Games ziemlich in die Knie gehen und die Hz-Zahlen/FPS nicht mehr halten können. Wir hätten da ein paar Ideen, wie man das ausbügeln könnte, aber dafür müsst ihr das Eine oder Andere nach unseren Vorgaben in Eure Monitore einbauen. Dies soll aber Euer Schaden nicht sein, denn diesen Zusatzaufwand kriegt ihr locker durch den fälligen Preisaufschlag wieder rein. Übrigens ein kleiner Nebeneffekt: Viele User glauben ja, dass es am Monitor liegt, wenn das Bild stottern, teart usw. obwohls ja eigentlich die GraKa verbockt. Na, interessiert?‘

Wie ich auch schoneinmal schrieb, klingt ‚FreeSync‘ in den Ohren des gutgläubigen Endkunden nach einem sehr sympathischen Namen, aber AMD ist ganz bestimmt kein Wohlfahrtsverein. Auch AMD fährt einen rigorosen Kurs gewinnorientierter Großkonzerne.
AMD und nvidia wollen beide, dass ihre sync-Technologien nur in einem geschlossenen System funktionieren können. ->
AMD = FreeSync-Moni
nvidia = G-Sync-Moni
Und dafür fahren beide Konzerne das ganze Repertoire undurchschaubarer Finanz- und Wirtschafttricks auf, um mit den anderen beteiligten Konzernen komplizierte geschäftliche Verflechtungen aufzubauen, damit die Technologien auch schön sauber getrennt bleiben. Sie zocken also beide ‚auf Sieg‘; die künftige Vorherrschaft; das megafette Geschäft am Ende des Machtkampfes.
Es geht also nicht im Entferntesten um ‚Technik‘ oder ‚Kundenzufriedenheit‘, es geht darum auf dem feinen Grat der Jurisprudenz, dem Gegner das Wasser abzugraben.

Da klingt Deine Idee, ein ‚findiger Programmierer‘-Gutmensch findet einen Weg, die eine Sync-Methode in die Architektur der anderen GraKa zu implementieren zwar sehr löblich und praktisch, ist aber genau das Gegenteil, was AMD und nvidia mit ihrem Machtkampf bezwecken.
Ich unterstelle mal, dass AMD und nvidia diese Idee schon lange vor Dir hatten und entsprechende Gegenmaßnahmen in den Platinen steckten, die nicht in der Funktionsumfangs-Auflistung der Umverpackung auftauchen.

Und auch nicht zum ersten Mal von mir formuliert:
Es wäre ja reiner Selbstmord der GraKa-Hersteller, was anzubieten mit dem sich das Milliarden-Heer der Gamer zufriedenstellen ließe.
Oder sich deren globales Geschäftsgebilde von einem ‚findigen Programmierer‘ zum Einsturz bringen ließe.
Das riesige Geschäft der Massen-Consumer-Elektronik liegt in der Hand weniger Firmen, die ihre Strategien mit hochkomplexen Geschäftbeziehungen aufrechterhalten.
Die Hälfte der Arbeit in den Entwicklungslaboren ist nicht:
Wie entwickeln wir tolle consumerfreundliche Gerätschaften, sondern:
Wie schaffen wir es, unsere Systeme so abzuriegeln, dass unerwünschte Eingriffe unterbunden werden.
Letzlich bezahlt man mit dem Kaufpreis nicht nur Forschung/Produktion/Marge des Unternehmens, sondern auch deren Marketing-Abteilungen, die Dir ‚nen Galgenstrick als Edelsteinkette verkaufen und vor allem: deren Rechtsabteilungen, die praktisch ihre ganze Arbeitskraft darauf verwenden, mit filigranen juristischen Konstrukten aufwändig gegen jedwede Fremverwendung zu prozessieren.
(Ein Heer von hochbezahlten Spitzenanwälten von apple und Samsung prozessierte jahrelang über das Geschmacksmuster-Recht zur Formgebung eines Smart-Phone-Knöpfchens.
In der Multimedia-Welt wird gnadenlos HDMI durchgedrückt, weil die Filmindustrie ohne HDCP ihr Imperium gefährdet sieht. Und der PC-User findet HDMI toll, weil man damit so ‚einfach‘ Sachen verbinden kann, auch wenns überhaupt nichts bringt.)

Ja ich weiß: tl;dr
 
Zuletzt bearbeitet:
In der Multimedia-Welt wird gnadenlos HDMI durchgedrückt, weil die Filmindustrie ohne HDCP ihr Imperium gefährdet sieht. Und der PC-User findet HDMI toll, weil man damit so ‚einfach‘ Sachen verbinden kann, auch wenns überhaupt nichts bringt.)

Ja ich weiß: tl;dr
Du weiß gar nicht wie sehr ich HDMI hasse :d
Und mir gehts nicht um den bescheuerten HDCP der eh null bringt, nein es geht mir um den Stecker der aus den Buchsen fällt weil das Kabel allein schon zu schwer ist.
Das is nur ein schlechter DVI Anschluß.
Mit einer Schraube zum befestigen hätte das ganze schon anders ausgesehn ;)

Ansonsten hast du da eine interessante Ansicht, wenn die Unternehmen wirklich nur so Spielereien machen fällt es aber schnell auf und es wird boykotiert.
Technik die mir nix bringt kaufe ich nicht.
Ich weiß ja nicht was die Leute da machen, aber irgendwie hat man das gefühl das so ein TFT erst seit gestern auf den Markt ist.

Das die Leute Qualität haben wollen zeichnet sich schon seit vielen Jahren im TV Bereich ab. Was die Leute dort für Tauschaktion machen bis ein einigermaßen vernünftiges Gerät bei ihnen steht ist schon Wahnsinn.
Die werden dann aber ruckzuck Hersteller boykotiert und die werden ihre Modelle nur noch an Ahnungslose los.
 
@StillPad
Da bin ich soweit bei Dir.
Allerdings: hardwareluxx ist doch eher ein Forum für den Otto-Normal-Konsumenten, der sich hier über die Funktionen von Standard-Consumer-Gerätschaften austauscht.
So mancher -so auch ich- kotzt sich mal über Diese oder Jene Unzulänglichkeit aus, aber man findet nur selten die Haltung zum Boykott.

Hier nochmal meine Gebetsmühle:
Unterschätze nicht den Einfluss der Werbeindustrie.
Die allermeisten User in den GraKa- und Moni-Foren verwenden ihren PC überwiegend für Freizeit, Spaß und Spiel. Die Werbung setzt einem in den Kopf, mit welchem bunten Game, man seine Freizeit am kurzweiligsten verbraten kann.
Ergo: Der regelmäßige Gamer ist der Werbung schon längst auf den Leim gegangen, da ist es ein Leichtes, ihm auch noch den technischen Rattenschwanz zu vertickern.
Und am allerwichtigsten: Alles muss nach 2-3 Jahren wieder veraltet sein.
->Stichworte: gesteuerte Obzulenz und Inkompatibilität.
Damit sich der Anwender bald wieder mit dem Gerätschaften der nächsten Generation eindeckt.
Selbst wenn Du dass Spiel glasklar durchschaust, kannst Du Dich dem nur schwerlich entziehen. Ich meine damit nicht nur Computer-Spiele, sondern so ziemlich alles was einen Stecker und einen Einschaltknopf hat.

Beispiel: Derzeit wird das Internet-of-Things heftig gehipt. Fast jeder sagt am Anfang: Brauch ich nich‘.
Aber durch irgendeinen blöden Zufall, haste dann doch was mit IoT und verknüpperst es mit Deinem Smartphone. Es ist egal, ob es was bringt, Du findest es toll, Deinem Smartphone eine weitere Funktion hinzugefügt zu haben. Und -zack- bist Du im IoT angekommen und machst damit weiter.

Der Begriff der ‚Ahnungslosen‘ gefällt mir recht gut.
Ich kann mich an meine Anfänge im Büro erinnern: Da war jemand, der das Faxgerät bedienen konnte schon der Technikexperte im Büro.
Heute wirst Du mit den Gerätefunktionen erschlagen.
Selbst wenn man sich für kritisch und aufmerksam hält, so bleibt man doch zwangsweise ein ‚Ahnungsloser‘, weil man nicht einmal ansatzweise hinter die elektronischen Verflechtungen der Devices steigt, die man jeden Tag bedient.
Du siehst/liest manchmal einen kritischen Bericht darüber, was Dein Handy so alles rausfunkt und regst Dich kurz darüber auf, aber schon morgen findest Du wieder was im App-Store, was Dir mit seiner schicken Benutzer-Oberfläche eine weitere Bequemlichkeit in der modernen Welt suggeriert, und Du lädts es runter.

Die Zahl der ‚Ahnungslosen‘ steigt permanent.
Die Kinder, die unkritisch mit dem Smartphone aufwachsen, werden zu Jugendlichen, die sich nun selbst mit den Technik-Zeug eindecken können, ohne Mammi und Pappi um Erlaubnis oder Geld zu fragen.
Oder unser TS: Hat sich ‚ne brandaktuelle hochpreisige reinrassige Zocker-GraKa zugelegt, und fragt dann, was eigentlich dieses Sync ist.
Ein Beispiel aus dem phantastischen Kunden-Teich der ‚Ahnungslosen‘.
-Ja, ich bin auch ‚ahnungslos. Ich habe mir auch einen Haufen nutzlosen Elektronik-Schrott zugelegt, und obwohl ich versuche meinen Gerätepark im Zaum zu halten, gehen bereits die Großmütter meiner Freunde versierter mit ihren Smartphones um als ich.
(Um der Wahrheit die Ehre zu geben: Ich habe nichteinmal ein Smartphone.)
 
Zuletzt bearbeitet:
hilft der ganze Synckram nicht auch, wenn man zB einen 60 Hz Monitor hat und 100 Fps im Spiel bekommt? Weil gerade dann bekommt man doch dieses Tearing? Also seitdem ich die 780 ti habe bekomm ich bei Witcher 3 Tearing bei 1080p, was ich mit der HD7870 nicht hatte.

Weil oben wurde es vorhin genau andersherum beschrieben, verwirrt mich gerade :d Oder es hilft halt in beiden Fällen :d
 
hilft der ganze Synckram nicht auch, wenn man zB einen 60 Hz Monitor hat und 100 Fps im Spiel bekommt? Weil gerade dann bekommt man doch dieses Tearing? Also seitdem ich die 780 ti habe bekomm ich bei Witcher 3 Tearing bei 1080p, was ich mit der HD7870 nicht hatte.

Weil oben wurde es vorhin genau andersherum beschrieben, verwirrt mich gerade :d Oder es hilft halt in beiden Fällen :d

Wenn du GraKa zuviele Frames pro Sekunde bringt bekommst du dieses Tearing.
Solange es zuviele Frames sind ist es nicht so wild. Da kannst du dann V-Sync aktivieren und somit die FPS bei 60Hz festnageln.
Das alles klappt auch gut solange die GraKa dauerhaft min 60FPS leisten kann.
Ansonsten beginnt das ruckeln.

Diese ganzen tollen Techniken sollen nun ermöglichen das der Monitor aber keine feste Hz Zahl bekommt sondern die sich anpasst an dem was die GraKa gerade leisten kann.
FPS = Hz
Wenn also ein GTA V daher kommt was nur bei wenigen dauerhaft bei 60FPS läuft kann es Probleme geben.
Was auch noch geht CS:Go das dank seine alten Engine auf neuen Karten mit 200FPS läuft und der Monitor mit sein 60Hz nicht hinterher kommt die Bilder anzuzeigen.


@FullHDade
Ich kann dich da sehr gut verstehen, nur ziehe ich die Sachen dann auch durch :d
Mein erstes Smartphone habe ich vor 3 Monaten geholt, einfach weil ich Internet unterwegs haben will.
Aber Apps habe ich noch nicht eine installiert... :d
Davor viele Jahre ein sehr altes Tablet gehabt um nicht dumm zu streben.
Da ich die ganze bedienung aber beschissen fand wurde da nix supported. Nie eine App gekauft.
Der Ram Skandal der Geforce 970, 2 Jahre gewartet mit GraKa Kauf...
Viele Alternativen hatte man da ja nicht :(

Man kann sich also sehr gut davon abhalten den Mist zu supporten aber es ist aufwändig.
Das IoT wird wohl floppen. Selbst die ganzen Markenmuschies stehen da nicht drauf. Die haben ihr Dummphone und es reicht ihnen.

Was genauso floppen wird ist die VR Sache die gerade Marketing-Zugpferd ist.
3D ging schon beim TV nicht so richtig und so extra schwere Brillen aufsetzen wird sich erst recht nicht durchsetzen.

Sobald die Industrie checkt das die Leute Qualität haben wollen und ein Kühlschrank gut kühlen muss und es egal ist ob man damit die Oma anrufen kann, ja erst dann wird wieder Berg auf gehen.
In moment darf man z.b. kein TV kaufen diese dumm TVs die ein als SMART verkauft werden können nix richtig.
Bei ein TV zählt ein super Bild und nicht welches Drecks OS darauf läuft.

Man sieht es ja bei VW wie die lahm gelegt werden können.
Wenn die Hersteller nicht auf das hören was die Leute wollen muss es halt boykotiert werden.

Ich komme auch noch aus einer Zeit wo es DLC kostenlos gab ich sage nur Unreal Tournament mit sein mega Map Packs.
 
@StillPad
Na gut, da haben sich mit uns beiden ja zwei kritische Consumer gefunden. Und es gibt wohl noch ein paar weitere Millionen Menschen, die ähnlich agieren.
Bleiben jetzt bloß noch die Milliarden Anderen….

Gerade der Smart-TV ist doch ein gutes Beispiel, wie die Werbung voll durchgeschlagen hat.
Gut, das mit dem curved war ein Rohrkrepierer, aber dafür kann man es ertaunlicherweise dem PC-Zocker vertickern.
Der Verkaufstrick: Curved war bei den TVs mal ein schweineteures Gimmick und findet nun für gefühlt schmales Geld in fast jeder Monitor-Klasse seinen Platz.

Zurück zum Smart-TV: massiv gehipt wurden/werden die On-Demand-Dienste und mittlerweile ist dies eine weit verbreitete Anwendung bei den flimmernden Wohnzimmeraltären.
Ich habe einen mittelalten Smart-TV, und meine ersten Ziele im OSD war es damals alle Funktionen ausfindig zu machen, mit denen sich das Teil nach außen mitteilen könnte, um sie abzuschalten. Das ist bis heute so.
Aber irgendwann wird man doch neugierig, wie das eigentlich mit dem Online-Zeuch ist, oder jemand aus Deinem Freundeskreis preist deren Vorzüge, oder Du hast was Dir Wichtiges verpasst und aktivierst die Mediathek, oder Dein Sprößling nimmt sich der Funktionen an, weil alle seine Kumpels es auch so machen, oder Du hast in den Einstellungen was übersehen und das Gerät flüstert regelmäßig was raus, von dem Du garnichts mitkriegst.
Der Mensch macht Sachen nicht weil sie sinnhaft wären, sondern weil es geht.
Jeder Mensch! Auch Du, auch ich. Mal früher, mal später, aber immerwieder! Die Auswahl ist nämlich riesig.

By the Way: Wieso Drecks-OS? Es ist ein Linux-Kernel, wie in praktisch allen elektronischen Consumer-Geräten, egal ob mit Internetanbindung oder autark.
Statistisch sind Win-OS und apple-OS Nischenprodukte. In den meisten unserer Devices läuft eine Linux-Distribution.

Bei VR steckt noch jede Menge Entwicklungspotential drin, so leicht werden die Macher nicht aufgeben.

Bei dem IoT hängt viel dran: z.B. werden sich Bezahlsysteme mit dem Smartphone verbreiten. Also Handy ans Gerät halten -piep-piep-piep- und die Cola fällt in den Entnahmeschacht.
Wir werden unser Handy regelmäßig sich mit anderen Geräten unterhalten lassen, um einen Service zu erhalten: Fahrkarten, Zugangsbereiche, Bankgeschäfte, Kaffeeautomaten, Einkäufe aller Art.
Ich bediene nicht mehr die Knöpfe an dem Automaten, damit er was ausspuckt, sondern teile es meiner Handy-App mit, und die kommuniziert mit dem Getränkeautomaten. Der Werbeslogan: Nur einmal bequem am Handy eingeben und an allen Getränkeautomaten auf dieser Welt kommt Dein Wunschgetränk heraus, ohne jedesmal mühsam den richtigen Knopf an der Kiste suchen zu müssen.
Vielleicht garnichtmal so schlecht, wenn man im Ausland an einem Automaten steht.
Andererseits: Vielleicht verpasst man dadurch die Freundlichkeit und Hilfsbereitschaft eines Einheimischen, oder die Chance mal was Neues zu probieren.
Da sind also nicht nur die Elektronik-Konzerne, die ihre Geräte verkaufen wollen, sondern auch die Food-Großkonzerne, die Firmen, die das Bezahlsystem verwalten und nebenbei erhalten die Werbeindustrie und die Geheimdienste auch noch 1a Bewegungsprotokolle von einem, Genial.
Eine Büchse in Mallorca gezogen und jeder After-Sun-Creme-Hersteller weiß dann, dass Du im sonnigen Süden Urlaub gemacht hast, und pflastert bei nächster Gelegenheit Deinen Screen mit seinen Produkten zu.
Der Verbindung Handy <-> Gerät prophezeie ich eine goldenen Zukunft.
(Nicht dass ich dies befürworte, es ist halt Teil des Masterplanes der Elektronik-Riesen: Die wirklich dicken Großkonzerne lenken den Gerätemarkt, und deren Pläne stehen auf Jahre hinaus.)

Frage: Was ist DLC, da gibt es mehrere Treffer in wiki.
 
Zuletzt bearbeitet:
Na gut, da haben sich mit uns beiden ja zwei kritische Consumer gefunden. Und es gibt wohl noch ein paar weitere Millionen Menschen, die ähnlich agieren.
Bleiben jetzt bloß noch die Milliarden Anderen….
Ach soviel mehr sind das gar nicht. Die meisten anderen sind so arm das die sich die Geräte eh nicht leisten können.
Wobei man sich fragt wieo die Flüchtlinge die an ein vorbei stolzieren mit ein Samsung S6/7 und iphone ausgestattet sind...

Gerade der Smart-TV ist doch ein gutes Beispiel, wie die Werbung voll durchgeschlagen hat.
Dem kann ich leider nicht zustimmen.
Das wird alles von den Herstellern gelenkt. Es gibt einfach keine Geräte ohne mehr.
Ich habe letztes Jahr ein neuen TV benötigt. 99% der aktuellen Modell waren 4K Kisten.
Ich habe nur noch ein 1080p Kasten bekommen weil mein Modell schon 2 Jahre auf dem Markt war.
Und viele viele Kunden beschweren sich dort bei den neuen Modellen über Auschleuchtungsproblemen.
Die sind am fluchen das das Bild nicht vernünftig ist dafür können sie mir der Kiste im Internet browsen, was aber keiner bei ein Fussballspiel machen will...

Der Verkaufstrick: Curved war bei den TVs mal ein schweineteures Gimmick und findet nun für gefühlt schmales Geld in fast jeder Monitor-Klasse seinen Platz.
Curved funzt auch nur für Singles
Sobald man nicht auf dem Sofa in der Mitte sitzt wird das Bild richtig mies :d
Sehr geärgert hat es mich das die OLED Geräte im 2k€ Bereich alle Curved waren

Zurück zum Smart-TV: massiv gehipt wurden/werden die On-Demand-Dienste und mittlerweile ist dies eine weit verbreitete Anwendung bei den flimmernden Wohnzimmeraltären.
Ich habe einen mittelalten Smart-TV, und meine ersten Ziele im OSD war es damals alle Funktionen ausfindig zu machen, mit denen sich das Teil nach außen mitteilen könnte, um sie abzuschalten. Das ist bis heute so.
Nun das ist das neue "Premiere" aka Sky. Die Herren werden sich in Arsch beißen das die den Trend verpasst haben ;)
Ich habe es übrigens noch weiter getrieben. Ich habe den TV gar nicht im Netzwerk drin :eek:

Aber irgendwann wird man doch neugierig, wie das eigentlich mit dem Online-Zeuch ist, oder jemand aus Deinem Freundeskreis preist deren Vorzüge, oder Du hast was Dir Wichtiges verpasst und aktivierst die Mediathek, oder Dein Sprößling nimmt sich der Funktionen an, weil alle seine Kumpels es auch so machen, oder Du hast in den Einstellungen was übersehen und das Gerät flüstert regelmäßig was raus, von dem Du garnichts mitkriegst.
Ja das hatte ich mal mit den alten TV angeguckt. Auswahl beschissen, wieder ausgemacht.
Dies ist aber das Zugpferd wieso man für Internet GEZ zahlen soll.
Weißte also bescheid, oder auch nicht ;)

Jeder Mensch! Auch Du, auch ich. Mal früher, mal später, aber immerwieder! Die Auswahl ist nämlich riesig.
Nun ich bin nicht gegen neues, aber wenn ein Gerät seine Funktion verliert die es eigendlich bringen soll, dann stimmt was ganz gewaltig nicht.

By the Way: Wieso Drecks-OS? Es ist ein Linux-Kernel, wie in praktisch allen elektronischen Consumer-Geräten, egal ob mit Internetanbindung oder autark.
Statistisch sind Win-OS und apple-OS Nischenprodukte. In den meisten unserer Devices läuft eine Linux-Distribution.
Als ich das letzte mal geguckt habe gabs bei den TVs ein Kampf zwischen, Android, Firefox OS und irgendwas von LG
Klickidiklack alles schön Bunt, riesige Menüs ohne Funktion und alles arsch langsam.
Habe ich aktuell auch. Machst TV an und wartest erstmal 1min bis man Programm oder Lautstärke ändern kann.
Geil sowas will ich :d
Das ein Programmwechsel dann noch 10 Sek dauert bis man was sieht muss natürlich genauso sein.
Yeay neue Technik

Bei VR steckt noch jede Menge Entwicklungspotential drin, so leicht werden die Macher nicht aufgeben.
Als ich ein Kind war gab es schon VR Brillen.
Viele Jahrzehnte später wirds schon wieder versucht obwohl die Technik nicht da ist.

Es gibt kein Grafikprozessor der 2x 8k Auflösung in Echtzeit mit 200Hz darstellen kann in der Größe vom ein Ohrring.
Man soll jetzt viel Geld für eine Brille so groß und schwer wie eine Keramik Kloschüssel zahlen + High End Hardware nur um was zu simulieren was ich bekomme wenn ich einfach raus gehe aus der Wohnung.

Das ist wie damals diese tollen Wisch-Telefone die alles können sollten, aber nix richtig. Genauso toll wie auf den Touchscreen einschlagen weil er schon wieder 10mal gebraucht hat den richtigen Buchstaben zutreffen.
Aber Hauptsache neue Technik.:bigok:

Bei dem IoT hängt viel dran: z.B. werden sich Bezahlsysteme mit dem Smartphone verbreiten.
Dafür muss mein Kühlschrank aber kein Internetanschluß haben ;)
Ich beobachte seit einige Zeit wie sich eine Ablehnung gegen diesen Trend immer weiter aufbaut.
Dieser Daueronlinezwang ist Burnout Quelle Nr. 1
Viele haben darauf auch kein Bock mehr.
Ich denke das diese Zukunft die du dir da vorstellst schneller scheitert als die Technik dafür reif ist.

Frage: Was ist DLC, da gibt es mehrere Treffer in wiki.
Download Content.
Der Grund wieso du nur noch Basis Version von Spielen für 60€ kaufst und z.b. ein komplett Spiel ala Battlefield oder Call of Duty dann 120€ kosten muss.


Und um mal von den großen Rundumschlag zurück zu kommen zu G-Sync
Wir haben hier ein riesige Industrie die versucht Scheiße zu Gold zu machen.
Ich mag neue Technik eigendlich, aber wenn neue Sachen schlechter sind als die alten geht leider was komplett daneben.
Und gerade deswegen sind solche Foren so wichtig um dieses undurchsichtige Geflecht zu durchschauen.

Ich wusste es nämlich nicht wie sehr ein AMD und NVIDIA hier schon wieder foppen wollen.
 
StillPad
Ich stimme Dir durchweg zu. Du hast noch einige Aspekte eingebracht, die ich ebenfalls kannte und auch vertrete, aber meine Texte ins uferlose ausarten würden, hätte ich diese auch noch formuliert.
(Das praktisch überall Linux drinsteckt habe ich in einer recht aktuellen c’t gelesen, aber ich habe nicht ausreichend input behalten, dies lückenlos darstellen zu können.)
Beim Smart-TV hat die Werbung ‚durchgeschlagen‘ das On-Demand-Zeuch zu etablieren, es ging mir nicht um das 4k-Gerödel, für die es per heute kaum Inhalte gibt.

AMD und nvidia wollen uns nicht ‚foppen‘. Sie betreiben einen Machtkampf.
Ich sage ja nichtmeinmal, dass wir als kleine Verbraucher die Leidtragenden sind. Es kann sich ja jeder was aus dem jeweiligen Lager zulegen. Und bis der Sync-War durch ist, sind die heutigen Geräte sowieso wieder veraltet, egal, ob man dann auf ‚richtige Pferd‘ gesetzt hat.
nvidia hat aber einen schicken Vorteil: Sie werden ihr Zeuch trotz fühlbarem Preis-Aufschlag los. Was wohl auch ein schlagendes Argument für die verbandelten Moni-Hersteller ist. Und wenn es mit den Marktanteilen eng wird, na dann wird es halt billiger angeboten. Im Notfall sogar ‚for free‘, wie bei AMD.
(Lieber den Magen verrenkt, als dem Wirt was geschenkt.)
Wie ich das verstanden habe, muss für G-Sync wohl ein Extra-Platinchen ins Moni-Gehäuse. Ich weiß es ja nicht, aber wenn da nur Standard-Teile drauf gelötet sind, isses ein Pfennig-Produkt; nicht mehr Wert als das VGA-Klötzchen, dass auch noch im allerbilligsten Moni zu finden ist.
 
Zuletzt bearbeitet:
AMD und nvidia wollen uns nicht ‚foppen‘. Sie betreiben einen Machtkampf.
Womit sie den Kunden foppen ;)
Der ist der leid tragende und soll den Schwachsinn noch bezahlen...

Die Idee hinter der Technik ist ja nicht schlecht.
Nvidia könnte sofort mehr Kunden haben wenn sie in den Treibern den Free Sync support freigeben.
Genauso würden die Monitor Hersteller mehr Geräte verkaufen.

Wie ich das verstanden habe, muss für G-Sync wohl ein Extra-Platinchen ins Moni-Gehäuse. Ich weiß es ja nicht, aber wenn da nur Standard-Teile drauf gelötet sind, isses ein Pfennig-Produkt; nicht mehr Wert als das VGA-Klötzchen, dass auch noch im allerbilligsten Moni zu finden ist.
Ja das ist richtig, es wird eine kleine "Blackbox" verbaut aber diese wird nicht sonderlich teuer sein.
Gucke mal so ein Iphone kostet 40$ in der Produktion und wird für 600-999€ verkauft.
Das Apple Kunden ja sowieso kein Gefühl für Geld haben ist ja nix neues aber wenn man es mit dieser 150$ Box vergleicht wird die keine 15$ kosten...

Wie schon gesagt könnte Nvidia das Rennen sofort gewinnen.
FreeSync Support sofort.
FreeSycn für den normal Kunden, G-Sync für den Enthusiasten ;)
 
@StillPad
Ich bin ja fast ausschließlich in den Monitor-Forum unterwegs, und eigentlich nie in den GraKa-Foren.
Und viele Themenstarter hier im Moni-Forum lauten ungefähr: ‚So, ich hab‘ jez ‚ne GTX1080 gekriegt. Watt’n für eine Moni is da am bessten? Ich zock‘ Blabla-komplettes Gaming-Mainstreamgedöns.‘

Und ich denke mir:
1. Wassndas für Deusch?
und 2. Was hat das in den Monitor-Foren zu suchen?
Frage doch die anderen Gamer!, was für Deine Spieleauswahl taugt, oder gehe in die GraKa-Foren, da könnt ihr Euch dann die ganzen CPU-Features um die Ohren hauen, damit Euer overdresster Avartar ruckelfrei durchs Feenzauberland keuchen kann.

Wie gesagt: syncen is‘ ‚ne Außenstelle der GraKa
Es sind die gespielten Spiele und die Wahl der GraKa, die darüber entscheiden, ob der neue Moni nun Free- G- oder garkein Sync braucht.
Also wären sich diese Infos bei den Foren der Gamer und CPU-Friemler zu holen.

Es ist doch egal, dass sich AMD und nvidia derzeit mit Ihren Sync-Formaten bekriegen. Möchtest Du Dir heute einen Gaming-PC zusammenstellen, hast Du eine breite Palette von Aspekten zu beachten, um mit den Mitteln Deines Budgets was Sinnvolles zusammen zu stellen. Da ist doch die Entscheidung ob es Richtung G- oder Free-Sync geht nur ein weiterer kleiner Baustein in der Entscheidungskette.
Du hast Dir also heute sorgsam, aus dem was angeboten wird, was zusamengestellt und spielst ‚ne Weile mit dem Gerödel. Und irgendwann erscheint Dir die Technik wieder veraltet.
Und wieder stellst Du fest: Irgendwas ist immer im Kommen, und das Top-Feature Deiner damaligen Kaufentscheidung ist heute kalter Kaffee.

Die Hälfte der Standards und Steckerformate Deiner Computerkomponenten ist in wenigen Jahren inkompatibel geworden.
Der Gedanke: Ich ersetze hier und da mal einzelne Komponenten und halte dadurch meinen Computer technisch auf Stand, hat nie so richtig funktioniert.
Wenn Du Dich also in ein paar Jahren wieder für die gleiche Sync-Technologie entscheiden wirst (wenn syncen dann noch ein Thema ist), wirst Du feststellen, dass es mit dem ‚alten‘ Sync nicht mehr zusammenpasst, egal ob und wie es zwischen AMD oder nvidia ausgegangen ist.
 
Zuletzt bearbeitet:
Nvidia könnte sofort mehr Kunden haben wenn sie in den Treibern den Free Sync support freigeben.
Genauso würden die Monitor Hersteller mehr Geräte verkaufen.

Damit treiben sie nur den Verkauf von FreeSync Geräten nach oben und verkaufen ihre G-Syncs nicht mehr.

Bei ihrem Marktanteil können sie es sich leisten weiterhin nur G-Sync zu unterstützen und als Premium feature zu verkaufen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh