Intel erwägt Integration von Adaptive Sync bzw. FreeSync

Ganz ehrlich, ich sehe heute lange keine "der Kunde liegt uns am Herzen" Politik. Weder bei AMD noch bei NV, schon gleich gar nicht bei NV ;) Weder von Apple, noch von Mircosoft, weder von Samsung, noch von LG und Co. -> kannst eigentlich nahezu alle Firmen aufzählen, welche irgendwo in der Elektronik mitspielen.
Obwohl man dies hier und dort von irgendwelchen Pressetypen in Bild und Wort auch offziell mal behaupten mag. Die gezeigte Strategie, also das, was beim Endkunden ankommt, spricht eher vom genauen Gegenteil...
Und wirtschaftlich gesehen ist es auch völlig logisch und nachvollziehbar, sich den Markt so hinzudrehen, wie man am meisten Kohle rausquetschen kann...

Und was die Kondenfreundlichkeit angeht, auch das ist kein wirkliches "Feature", was die Hersteller liefern. Die liefern genau das, was notwendig ist. Alles was drüber hinaus geht, ist mit mehrkosten Verbunden. Spätestens dann, wenn der Erfolg fraglich erscheint, wird nichts dergleichen getätigt. Ziemlich sicher erscheint für die Masse der weniger "starke" Konkurent am Markt eher kundenfreundlich als die "stärkeren". Warum? Weil er damit Sympatiepunkte sammelt und auf höhere Umsätze hofft, wenn er "Sachen" macht, die der Kunde will und nicht, die der Firmengeldtopf gern hätte...

Die ganze Sync Problematik hat einen gewaltigen Pferdefuß. Und das sind die Monitorhersteller. Die fahren die gleiche Politik wie die GPU Hersteller -> sie bauen Zusatzfeatures ein um mehr Kohle zu verlangen. Das heist im Umkehrschluss aber auch, dass die Modelle ohne Sync eben kostentechnisch günstiger sind -> aber eben nicht "syncen" können. Wie überzeugt man nun den geneigten Anwender, für genau dieses Feature mehr Geld auszugeben?? Dann noch die Problematik mit der auf absehbaren Zeit herstellergebundenheit des Features?
Das könnte funktionieren, wenn es nur noch Sync fähige Modelle geben wird. Und dazu, Modelle, die sowohl FreeSync als auch G-Sync können... Gibts aber nicht. Weil es einfach viel teurer wäre ggü. den Modellen, die es nicht können. Da brauchen dann nur noch ein zwei Global Player im Monitormarkt quer schießen und schon geht das Konzept in die Hose... Aber auch hier -> den Herstellern ist der Kunde wurscht. Wäre dies nicht so, hätten wir nur noch Sync fähige Monitore und sowohl G-Sync als auch Freesync drin!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Jep, Kunde ist König war einmal, heute ist man einfach nur noch Kunde.
 
Ja, es ist doch die Frage, ob man heute, wo viele Konsumenten schon lange Jahre Erfahrungen mit Wegwerftechnik sammeln konnten, nicht vielleicht wieder neue Masstäbe in Punkto Qualität setzen könnte.

Z.B. böte ein Hersteller eine Grafikkartensparte an, von der ich nach ein paar Jahren weiß, dass die nicht nach spätestens drei oder vier Jahren aller Wahrscheinlichkeit nach hinüber ist, dafür kostet sie dann halt 10% mehr o.ä.
 
@fdsonne

auch wenn es manchmal (nachvollziehbar) schwerfällt, immer schön freundlich und den ...teil lieber denken. :wink:
 
Heißt also noch kein offizielles Statement zur Fertigung bisher. Bin gespannt ob sich AMD auf dem Symposium dazu konkreter fassen wird.
es gab dazu schon offizielle aussagen udn ich kenne keinen 14nm prozess von TSMC!
aber eh egal, am dienstag wird es eh nochmals bestätigt!

- - - Updated - - -

Da gabs doch mal ne Roadmap, wo von Pascal Fertigung noch dieses Jahr gesprochen wurde??? War das Fake?
Weil NV benötigt zeitnah nen GK210 Nachfolger mit DP Power, jetzt nachdem GM200 da ne "Luftnummer" ist.
eine roadmap ist nur eine abschätzung, da hat sich MVIDIA halt einfach verschätzt oder TSMC hat mal wieder seine auftragsgeber "verarscht".
wäre ja leider nicht das erste mal, aber auch GF hat AMD oft bewusst die unwahrheit erzählt (28nm SOI war auch immer voll im zeitplan, gekommen ist der prozess aber nie!)...
 
es gab dazu schon offizielle aussagen udn ich kenne keinen 14nm prozess von TSMC!
aber eh egal, am dienstag wird es eh nochmals bestätigt!

Könntest du dann bitte diese Quellen posten wo konkret von einen 14nm-Prozess für die kommende Next-Gen GPU von AMD gesprochen wird?
 
Ja, es ist doch die Frage, ob man heute, wo viele Konsumenten schon lange Jahre Erfahrungen mit Wegwerftechnik sammeln konnten, nicht vielleicht wieder neue Masstäbe in Punkto Qualität setzen könnte.

Z.B. böte ein Hersteller eine Grafikkartensparte an, von der ich nach ein paar Jahren weiß, dass die nicht nach spätestens drei oder vier Jahren aller Wahrscheinlichkeit nach hinüber ist, dafür kostet sie dann halt 10% mehr o.ä.

Auch wenn das vielfach immer wieder im Umlauf ist... Ich persönlich kann es nicht direkt nachvollziehen. Also meine gekauften Produkte halten idR das, was sie versprechen... Auch kann ich da keinen Hersteller hervorheben noch gezielt negativ benennen. Vielleicht liegts aber auch einfach an der Rangehensweise... Ich kaufe Produkte, wo ich denke, diese zu brauchen oder Produkte, welche meine selbst gestellten Anforderungen erfüllen und nicht "Anteile" am Hersteller. Wenn mich das Produkt überzeugt, was ich schlussendlich auch kaufe, kann der Hersteller noch so "bescheiden" sein. Das Produkt muss MICH als Käufer überzeugen. Denn schließlich will der Hersteller dafür auch MEIN Geld.
 
Ich weiß nicht, manchmal glaube ich, dass die Menschen zu lange keine Qualität mehr erlebt haben um sich daran zu erinnern.
Für mich fängt Qualität z.B.ungefähr da an, wenn ein elektronisches Gerät mindestens 15Jahre hält, und dabei keine obskuren Einschränkungen mit sich bringt, wie maximale tägliche Betriebszeit usw.

Z.B. meine Hardwareaus den 80ern bis Anfang 90er funktioniert heute noch vollständig, soweit ich sie noch besitze.
Aber alles was seit 2000 hergestellt wurd "verbraucht" sich regelrecht.
 
Zuletzt bearbeitet:
Seht das nicht auf der Roadmap für 2016?

Auf welche Roadmap beziehst du dich? Ich hab eben gegoogelt und finde dazu nichts konkretes. Es geht darum, dass ein 14nm-Prozess explizit für die kommende GPU genannt wird, nicht das allgemein ein 14nm-Prozess in die zukünftigen Produkte von AMD einfließen soll!
 
Z.B. meine Hardwareaus den 80ern bis Anfang 90er funktioniert heute noch vollständig, soweit ich sie noch besitze.
Aber alles was seit 2000 hergestellt wurd "verbraucht" sich regelrecht.

Neja, schon klar, aber spielt das wirklich eine Rolle?
Braucht man die Hardware von Anno Dazumal heute noch? Ich verwende natürlich auch noch ganz paar ältere Sachen... Wo natürlich auch teils schon 10+ Jahre drauf sind. Aber bis dato hält sich das durchaus im positiven Rahmen, was Defekte angeht.

Das Problem ist doch heute, dass die Technik auch schnell im Wandel ist. Bei nem Monitor, worum es hier eigentlich geht, ist das vielleicht weniger kritisch, der darf auch gut und gerne mal ein paar Jahre stehen. Aber bei so Sachen wie GPUs, CPUs, Handys usw. usf. -> will man das noch? Oder auch HDDs? Ne alte HDD von vor 10 Jahren braucht heute keiner mehr.
Ich sehe diesen Schritt eher als "Mittel" zur Kostenreduzierung hin zum besseren Produkt. Wenn mich ein neues Produkt mit neuen Features usw. in Zukunft günstiger kommt, dann habe ich möglicherweise mehr davon.

Bei der Sync Thematik hier ist das natürlich schwerer, wenn ich G-Sync kaufe, habe ich auf absehbare Zeit die Bindung an NV, wenn das gezahlte Feature genutzt werden will. Aber andersrum auch die Bindung an AMD oder zukünftig vielleicht Intel, wenn es um FreeSync geht. Wie sooft kann man einfach wohl nur "mitmachen" oder es "sein lassen". Bei letzterem dann eben durch Verzicht. Bei ersterem dann unter allen Konsequenzen daraus.
Oder man sitzt es aus und wartet bis es mal was gibt, was beides kann... Bzw. spekuliert auf irgend einen Wandel im Markt oder oder oder. Als Endkunde kannst du zwar viel beeinflussen, aber als einzel Person ändert sich daran direkt nichts.
 
Fake und nicht einmal konkret! Da geht es um CPUs und APUs nicht aber um GPUs. Das war bisher auch alles bekannt.

Tja, deshalb war's auch als Frage formuliert ...



Neja, schon klar, aber spielt das wirklich eine Rolle?
Braucht man die Hardware von Anno Dazumal heute noch? ...

Ne, klar braucht man das meiste olle Zeugs nicht mehr wirklich. Aber ich rechne mir halt die theoretische Haltbarkeit auch gerne um: Bei einem Gerät,welches im Schnitt 20Jahre hält, gehe ich quasi von einer wesentlich geringeren Wahrscheinlichkeit aus, dass es mir innerhalb von ein paar Monaten abraucht, als bei einem dass von vorneherein auf ein maximales Alter von 24Monaten "optimiert" wurde :)

Und wenn man bedenkt, wie Produkte gelegentlich angepriesen werden, als absolute Crème de la Crème, als purer Luxus und das Beste was man mit seinem Geld anfangen kann - das impliziert für mich durchaus auch eine Suggestion von Qualität, und deshalb fühle ich mich betrogen, wenn es dan nicht so ist.
Aber btt. im Bezug auf FreeSync ging es ja darum, dass es auch Qualität ist, wenn man seine Kunden nicht zwingt sich zwischen auf eine Technik festzulegen, die vermeindlich keine Zukunft hat und da ist es immer zweckdienlicher, bestehende Standards zu akzeptieren bzw. zu adaptieren.
 
Zuletzt bearbeitet:
das steht in keinem dokument, es wurde aber am Mai am investorentag verkündet.
man muß sich halt auch die livestreams ansehen...
 
Tja, deshalb war's auch als Frage formuliert ...

Macht doch nichts. Ich warte noch auf die Quellen von Herr/Frau Elkinator...

P.S. Zum Thema Qualität - google mal nach geplanter Obsoleszenz. :)
 
das steht in keinem dokument, es wurde aber am Mai am investorentag verkündet.
man muß sich halt auch die livestreams ansehen...

Wenn das im Live-Stream so kam, müsste es aber auch schriftliches geben. Gibts das Video dazu noch online?
 
Willst du mich verarschen?.

Nein, ich wollte wissen, gegen wen du hier argumentierst.
Für mich lesen sich große Teile deines Beitrages so, als würdest du gegen jemanden argumentieren, der hier gar nicht geschrieben hat, jemanden der sich wünscht, dass Nvidia nicht mehr existieren soll und jemanden der Nvidia das Recht abspricht mit G-sync das zu tun, was vermeintlich für NVidia gut ist.
Ich würde gerne den Beitrag verlinkt haben, denn auf den #5 Beitrag traf es nicht zu.


Diese scheiß provokante Art geht mir gehörig auf die Nerven.

Weißt du was mir auf die Nerven geht? Zusammenhanglose Argumente, ohne irgendwen zu zitieren und immer in riesigen Posts zu antworten, die man nicht zuordnen kann.

Aus vier!!!! Absätzen -> ja das meint die Textpasagen, welche nicht durch Leerzeilen von einander sichtbar getrennt sind, welche insich einen Sinnabschnitt bilden, machst du 20, nein warte 30+ Teilzitate, dazu das zerhacken von Sätzen in mehrere Zitate.

Welches Teilzitat ist mit meiner Antwort inbegriffen unklar?
Du kannst ja gerne eines nennen. Wenn der Sinn/Zusammenhang nicht gewahrt wird und du das mal vernünftig begründen kannst, dann wird ich vielleicht nicht mehr soviel zitieren?


Ich bitte dich hier und jetzt nochmal, diesen Unsinn zu unterlassen!

Das ist kein Unsinn, das ist adequates Antworten, indem der Zusammenhang klar ist und vor allem klar ist auf was man sich bezieht.


Ob NV jemals FreeSync supporten wird, steht völlig in den Sternen. Und wenn sie es mal tun, wann wird das sein? -> bis dahin hast du eine Herstellergebundenheit. Sowohl bei der einen, als auch bei der anderen Seite.

Du meinst Adaptive Sync? Das unterstütze sie jetzt schon in Notebooks.
Und mir gefällt deine Formulierung der Herstellergebundenheit nicht, denn da kommt viel zu wenig raus, dass man mit Adaptive Sync eben genau das nicht hat, weil es ein offener Standard ist, den jeder Hersteller unterstützen kann.
Wer einen minimalen Weitblick hat, der erkennt dass Nvidia bald Adaptive Sync unterstützen wird und so kann man nur mit einem Kauf eines Freesync/Adaptive Sync Monitors in Zukunft beide Hersteller verwenden.

Mit G-sync bindet man sich zu 100% an Nvidia und deren ungeliebte Taktik mit Adaptive Sync tut man das nicht.


Unsinn, ließ bitte nocheinmal. Ich zweifel keineswegs die Umfrage an. Wie Werte werden genau so stimmen, wie sie dort stehen. Ich zweifle allerdings an, dass die Werte sich für das, was ihr daraus rausinterprätiert eignen.

DAs Problem ist, dass du bisher hier eine Nvidia Verteidigungsmaschinerie hochgefahren hast, gegen wen auch immer.
Ich nehme die Werte so wie sie sind, ganz einfach weil immer die Haupt GPU ausgelesen wird, die eben benutzt wird, wenn gezockt wird.
Wenn du wüsstest wieviele auf unserem Teamspeakserver mit IGP´s Lol, Dota und CS zocken.

Denn es gibt zu viele Unbekannte, die sich daraus nicht belegen lassen. Außerdem sagte ich, dass NV 2/3 (nach den Links oben sogar 3/4) Marktmacht im dGPU Bereich hat. Was zweifelsfrei so ist..

Ja, nach den neuesten Zahlen scheint es so zu sein.


Dann kam irgendwer mit der Steamumfrage... Schon allein das ist kein Argument, lass die Leute doch Steam nutzen. Lass die Leute doch von mir aus auch auf Intel IGPs spielen. Kaufen die Leute deswegen einen Sync Monitor für xxx€? Steht das irgendwo in Stein geschrieben?

Nö, steht nicht in den Stein geschrieben, hat schließlich auch niemand behauptet.


Du/ihr versuchst hier gerade die Anteile von Intel an der gesamt! Verteilung der Steamumfrage ggü. dem Anteil NV Systeme einzuschieben, damit eben aus 3/4 dGPU Anteil nur noch 1/2 gesamt pro NV wird...?

Wenn Intel Freesync nutzen will, dann ist die Verbreitung der Intel IGP´s sicherlich zu berücksichtigen.
Und ich vermute mal, dass du das aus irgendwelchen Gründen nicht willst.


Mit 1/2 gesamt Verteilung und maßgeblich dem Anteil an Spielern steht NV aber immernoch nicht schlechter da um G-Sync aufgeben zu müssen

Niemand hat behauptet dass die schlecht dastehen. Allerdings ist Adaptive Sync Lizenzfrei und wird sich gegen G-Sync durchsetzen, alleine schon deshalb weil es günstiger ist und sich jetzt schon besser und schneller entwickelt als es G-sync je getan hat und das nur auf Initiative eines Unternehmens das im DGPU Bereich nur was um 27% der dGPU´s stellt.



Wie in bspw. #5 steht, wird dort ja gefordert, dass man G-Sync aufgibt...

Das fordert da niemand. DA siehst du mal wieder Geister.
Ich zeige jetzt noch einmal was da steht und dann ist aber gut.

"Die Monitorhersteller müssen einfach nur aufhören GSync zu verbauen, ist eh viel zu teuer und kaum verbreitet. Dann wird nVidia aber zusehen schnell auf FreeSync zu setzen. "

Wenn die Monitorhersteller aufhören G-sync zu verbauen, weil es zum Bleistift nicht mehr attraktiv ist, dann wird Nvidia zusehends schnell auf Adaptivesync/Freesync, wie auch immer wechseln.
Und die Aussage stimmt auch.

Wenn jemand G-sync vorzeitig beenden kann, dann sind das die Monitorhersteller. Ich lese da nirgends etwas von einer Forderung, dass Nvidia G-sync aufgeben soll und nirgendwo etwas davon, dass niemand Nvidia das Recht gibt, eine Eigenentwicklung die sie kurz vor dem offenen Standard herausgebracht haben, nicht vermarkten dürfen.
Dass niemand Nvidias Weg toll findet, sollte allerdings klar sein. Das ist ja nun keine Neuigkeit, dass die Firma unsympathisch ist.



Man will es nicht, also redet man es schlecht. Lass die doch verbauen was sie wollen... Wer es kaufen will, soll es kaufen. Wer nicht, der kauft halt nicht und gut ist.

Bah, dieser belanglose Allgemeinplatz geht mir auf die Nerven.
Kannst alleine weiterdiskutieren. Für was überhaupt diskutieren, pappe diese Aussage am besten in die Signatur, dann bist du bei allen Themen was Nvidia angeht, schmerzfrei.
Kein Mensch der Welt will anderen verbieten etwas zu kaufen.:wall:
 
Zuletzt bearbeitet:
Na, da haben sich hier Zwei aber schön aufeinander eingeschossen…
Mein Vorschlag wäre es innerhalb eines Eintrages / eines Posts die Themen ‚Technik‘ und ‚Marketing‘ schärfer zu trennen.
Technik: neutrale Abwägungen der Features
Marketing: emotionale Diskussion über die Strategien der Hersteller.
Dann muss sich der Technikinteressierte nicht so sehr durch die teilweise recht geladene Gesprächsführung wühlen.

Also, ich habe eine ‚Einsteigerfrage‘:
Ich bin ja kein Gamer, drum verfolge ich spielespezifische GraKa-Funktionen nur recht beiläufig (Direct X und Co.)
Aber,
ist syncen, nach welchen Standard auch immer, nur für Gamer ein Thema, oder hat diese Technik Vorteile (oder gar Nachteile) für andere Anwendungen?
Ich denke da an ermüdungsfreies Arbeiten, sanftere Bewegungsabläufe (und wenn es nur der Mauszeiger ist) etc.
Vielleicht hat ja sogar Einer was Hilfreiches bezüglich CAD-Anwendung zur Hand.
 
Zuletzt bearbeitet:
Diese Techniken sind hauptsächlich bei bewegten 3D-Szenen wirklich relevant. Das muss aber nicht unbedingt ein Spiel sein, CAD, CGI Editoren usw. könnten davon auch profitieren.
Es soll angeblich auch Videoplayer geben, die mittels G-Sync den Pulldown Judder vermeiden können, indem sie den Monitor genau mit der Bildrate des Videos vertikal synchronisieren, aber dieses Problem hat man wohl ohnehin eher selten, wenn man nicht gerade Fan von Importvideos ist.
 
es ist überall da interessant, wo man bewegungen hat und die fps nicht zu der refresh rate des monitors passen.
das hat man hauptsächlich in games.
 
Vielen Dank für Eure Antworten.

Aber ich bin gleich mal mit der nächsten blöden Frage parat.
Das Problem gibt es ja seit es Computerspiele gibt:
Das Bild ruckelt, wenn die GraKa nicht im Handshake (üblich 60Hz) die Bilder an den Monitor liefert. Dabei werden reihenweise berechnete Bilder verworfen, weil die GraKa nicht im vereinbarten Moment liefert.
Nun hört sich die Technik nicht sooooo dramatisch revolutionär an, das sich GraKa und Monitor über einen extra „Kanal“ verabreden, wann wieder ein Bild verfügbar ist.
War es vor 10/20 Jahren technisch noch „unmöglich“ sowas zu implementieren?
(Zum Vergleich: Die meisten Menschen, die live Zeuge der ersten Mondlandung waren, leben heute nicht mehr.)
Für die Umsetzung scheinen mir nur etwas Elektronik aus dem Standard-Repertoire und ein Computer-Code mit Inhalt „jetzt“ nötig zu sein.
Naja, und Monitor- und GraKa-Hersteller müssen sich abstimmen, nun gut..

Hier endlich die Frage:
Was ist der Knackpunkt, das der plausibel klingende Schritt der Synchronisierung gefühlt Jahrzehnte zu spät kommt?
 
Zuletzt bearbeitet:
Dass die Gaming-Industrie neue Ideen zum Geldverdienen braucht.
 
Aufschlag, Satz und Sieg: Elmario.
Thread geschlossen. :bigok:
Vielen Dank für Ihr Interesse. Bitte begeben Sie sich nun ruhig und geordnet zu den Ihnen zugewiesenen Ausgängen.
 
ich hab auch keine ahnung warum das früher nicht gemacht wurde
evtl hat man das problem einfach immer heruntergespielt

aber seit es 144hz monitore gibt siet man das tearing auch nicht wirklich stark
ich zumindest sehe da bei freesync nicht so krasse verbesserungen wenn man 144hz gewohnt ist

ich bin ja von 60hz umgestiegen direkt auf freesync, das sind welten
 
Zuletzt bearbeitet:
Kommt auch sehr stark auf den jeweiligen Monitor oder das Panel an. Ich hatte drei Samsung 27"er mit FullHD, 60Hz und TN-Panel. 1x T27A300 und 2x S27A550h. Der T27 hatte wenig Probleme mit Tearing. Bei den beiden anderen, etwas moderneren mit leicht besserem Panel war es extrem. Meist zwei Streifen gleichzeitig, einer oben-mittig und einer unten. Oft wanderten die minutenlang auch nicht weg.

Aber selbst bei 144Hz kann ich mit einer HD 7850 (die kein Freesync kann) das Tearing finden, wenn ich danach suche. Auch bei älteren Spielen die ungefähr 100fps schaffen mit der Karte. Für mich war deswegen Freesync ausnahmsweise mal keine Geldschneiderei, zumal der Monitor im Gegensatz zu den G-Sync Teilen auch nicht wirklich teurer war als ein 144Hz 27" 1440p TN sonst. Intel soll das gerne reinbringen. Dann kaufe ich nach der i5-5675C auch die nächste "zwischen-CPU", die fast nur bei der iGPU Verbesserungen bringt, und bin zufrieden ;)

Für WoT, WoWs, WoW, Fallout 3 reicht die iGPU allemal* und der Rechner ist sehr mobil und schlürft <100 Watt!



*bei World of Warships muss ich tatsächlich auf mitttel-niedrige Details stellen :(
 
Zuletzt bearbeitet:
Aber ich bin gleich mal mit der nächsten blöden Frage parat.
Das Problem gibt es ja seit es Computerspiele gibt:
Das Bild ruckelt, wenn die GraKa nicht im Handshake (üblich 60Hz) die Bilder an den Monitor liefert. Dabei werden reihenweise berechnete Bilder verworfen, weil die GraKa nicht im vereinbarten Moment liefert.
Nun hört sich die Technik nicht sooooo dramatisch revolutionär an, das sich GraKa und Monitor über einen extra „Kanal“ verabreden, wann wieder ein Bild verfügbar ist.
War es vor 10/20 Jahren technisch noch „unmöglich“ sowas zu implementieren?

Neja, so einfach ist das nun nicht...
Das Problem ist nicht primär die Ausgabe oder der Input am Monitor, das Problem kommt eigentlich daher, dass man mit der Umstellung von alten Röhren auf TFTs die Wiederholfrequenz drastisch eingekürzt hat.
Frag mal einpaar ambitionierte Spieler von "damals", die noch auf ihrer 120Hz+ Röhre spielten, wie der Erlebnis auf den ersten 60Hz TFTs war... Da war nicht nur die Reaktionszeit der Kristalle (Stichwort Schlierenbildung) ein Problem, sondern auch eben die Wiederholfrequenz.

Früher, also zu den Anfängen der 3D Games kommte man mit ner anständigen Röhre einstellen, wie man es wollte. Techniken wie VSync gab es ja schon -> sprich Ausgabe und Monitor im Gleichtakt war schon "bekannt". In schnellen spielen hat man also viele FPS mit viel Hz gespielt -> inkl. VSync. In langsameren womöglich verzichtete man auf hohe FPS und spielte stattdessen möglicherweise mit mehr BQ, dann halt auch weniger Hz. (bis es eben anfing zu flimmern -> 60Hz auf ner Röhre flimmert ohne Ende!)

Mit den ersten TFTs waren es 60Hz auf der TFT Seite -> das heist es war jahrelang einfach fix. Oftmals verzichtete man auf VSync um die FPS zu haben -> Tearing, also das Zerreißen des Bildes, was genau dann auftritt, wenn der Monitor noch mit der Ausgabe des Bildes beschäftigt ist, die GPU aber schon ein neues ausgespuckt hat -> dann hast du auf dem Schirm einen Bildversatz drin, wenn es um bewegte Bilder geht.

Irgendwann steig die Hz Zahl der Monitore, aus 60 wurden 120 und mittlerweile gibts auch 144Hz, sowie teils die Möglichkeit, das noch via Software weiter zu steigern.
Willst du allerdings syncrone 120 oder 144Hz mit VSync, muss die GPU auch entsprechend schnell sein -> da wirds schon teuer. Bei höheren Auflösungen sogar richtig teuer.

Die Idee war nun einfach, lass es uns variabel machen -> das ist im Grunde das Sync Feature -> nicht der Sync ansich, sondern die Flexibilität, dass bei mehr FPS der Monitor auch schneller ausgibt und bei weniger eben entsprechend weniger.

Hier endlich die Frage:
Was ist der Knackpunkt, das der plausibel klingende Schritt der Synchronisierung gefühlt Jahrzehnte zu spät kommt?

Rein von der technischen Seite her wäre das wohl auch schon viel früher möglich gewesen... Denn man konnte auch vor FreeSync/G-Sync schon die Hz Zahlen teils vollvariabel mit den richtigen Programmen von 24/50Hz bis 144Hz und mehr einstellen. -> allerdings nur händisch und nicht ohne Zutun der Spiele FPS und auch nicht in Echtzeit ;)
Was halt einfach fehlte war A) die Idee, das als vollflexible Lösung anzubieten und B) die Umsetzung, dass es auch funktioniert...

Ich muss aber auch ehrlich sagen, vor G-Sync/FreeSync hat eigentlich nahezu keiner nach so einer flexiblen Syncmethode gefragt. Sprich es gab gar nicht wirklich den Drang danach... Sonst sind die Leute immer ziemlich schnell dabei, wenn es um teils unmögliche Vorderungen geht -> aber diese Idee hatte lange definitiv keiner so recht auf dem Plan ;)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh