Intel erwägt Integration von Adaptive Sync bzw. FreeSync

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.137
<p><img src="/images/stories/galleries/news/idf2015/idf2015logo.jpg" width="100" height="100" alt="idf2015logo" style="margin: 10px; float: left;" />Intels Chief Graphics Software Architect David Blythe hat auf einer Session des IDF 2015 eine Frage zur möglichen Unterstützung von FreeSync durch Intels Grafik-Einheiten beantwortet. Etwas unerwartet fiel diese positiv aus. Man denke bei Intel in der Tat darüber nach den VESA-Standard Adaptive Sync, der bei AMD sicherlich aus Gründen des Marketings FreeSync genannt wird, zu implementieren. Wir haben uns <a href="index.php/artikel/hardware/monitore.html" target="_self">schon zahlreiche Monitore mit FreeSync-Unterstützung angeschaut</a> und wer sich genauer mit dem Thema und der <a...<br /><br /><a href="/index.php/news/hardware/grafikkarten/36366-intel-erwaegt-integration-von-adaptive-sync-bzw-freesync.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
jetzt wird es interessant :d
 
Gut. Vielleicht kapiert Nvidia es so, dass sie sich ihre Extrawurst sonstwo hinstecken können.
Als ob es noch nicht schwer genug ist einen ordentlichen Gaming Monitor zu finden, nein jetzt muss man noch drauf achten, dass er Gsync kann...
 
Die Monitorhersteller müssen einfach nur aufhören GSync zu verbauen, ist eh viel zu teuer und kaum verbreitet. Dann wird nVidia aber zusehen schnell auf FreeSync zu setzen.
 
Juhu.. darauf hat die Welt gewartet.

Dann kann ich endlich mit der iGPU ohne Tearing zocken, zwar nur bei 5 fps, aber immerhin ohne Tearing :fresse:
 
Juhu.. darauf hat die Welt gewartet.

Dann kann ich endlich mit der iGPU ohne Tearing zocken, zwar nur bei 5 fps, aber immerhin ohne Tearing :fresse:

Die Sync Technologien sind auf keinen Fall nur gegen Tearing sondern damit alles auch flüssiger wirkt!
Viele Nutzer von G/FreeSync berichten, das sich 40FPS z.B. in manchen Spielen wie 60FPS anfühlen.
Messen und bewerten kann man den Unterschied nicht direkt.



Und die Modernen iGPUs kommen den AMD APUs gewaltig nahe, beide bieten jetzt schon eine für die meisten Casual Gamer in der Welt ausreichende Leistung!
Das du auf der iGPU kein GTA V oder Witcher 3 zocken kannst, ist schon Klar...
 
Das finde ich richtig klasse! Wenn Intel das mit Kabilake oder Cannonlake einführen würde, dann wäre Freesync ziemlich schnell nicht mehr wegzudenken und nvidia käme mal vom hohen Ross runter, für alles Eigenentwicklungen ohne Rücksicht auf Kompatibilität einzuführen. Außerdem würden Freesync-Monitore dann schlicht auf Grund der höheren Stückzahlen günstiger.

@p5buser: Polemik, super. Hast du keine Ahnung, was die aktuellen iGPUs von Intel und AMD so drauf haben? Hier und hier sind Benchmarks mit iGPU in 1080p.
 
Intel GPUs haben Free/a-Sync auch dringend nötig. Wird dann aber die nächste Version sein müssen, die runter bis 10-15fps kann, ansosnten kann Intel sich den Aufwand sparen. ausserdem ist das auch billiger als die GPU neu, bzw. weiter zu entwickeln...
 
Intel GPUs haben Free/a-Sync auch dringend nötig. Wird dann aber die nächste Version sein müssen, die runter bis 10-15fps kann, ansosnten kann Intel sich den Aufwand sparen. ausserdem ist das auch billiger als die GPU neu, bzw. weiter zu entwickeln...
Wenn Intel grad eins macht, dann ist es die iGPU weiter zu entwickeln...
Klar, du sprichst da was an. Wäre sehr sinnvoll wenn das nun endlich auch den Bereich um die 25Fps unterstützen würde, allerdings ist das kein Problem des Freesync standards selbst.
Der Standard beschreibt nämlich nur was die Grafikeinheit ausgeben kann, und zumindest laut AMD kann sie schon bis 17fps runter oder sowas in der Richtung.
Nur muss der Scaler im Monitor das auch können und das können die normal verbauten nicht. Deswegen unterscheidet sich die Range auch ein wenig von Modell zu Modell bei Freesync.

NV's Ansatz mit einem eigenen Scaler Modul war aus dieser Sicht schon nicht falsch. Der Preis von über 100$ (im inoffiziellen Retail 200$) ist aber schlicht happig und das propriätere System benachteiligt den Konkurenten und zerteilt nun den Markt - wobei Gsync was die Zahl der Monitore angeht schon seit ner ganzen Weile das Nachsehen hat..
 
verstehe ich immer was falsch oder haut die Leserschaft gegen Nvidia immer was in einem Topf ?? Ps. mir ist Nvidia oder AMD vollkommen schnurz Pip egal ....... ich will das schnellste!

Quelle golem.de
Nicht nur AMD nutzt die Adaptive-Sync-Erweiterung: Während PC-Monitore ein eigenes Modul für G-Sync benötigen, greift Nvidia für Gaming-Notebooks auf den Embedded-Displayport-Standard zurück.
Nvidia hat bestätigt, an Gaming-Notebooks mit G-Sync zu arbeiten und hierfür den Adaptive-Sync-Standard von Embedded Displayport (eDP) einzusetzen. Bisherige PC-Monitore mit proprietärer G-Sync-Unterstützung benötigen ein integriertes oder ein nachzurüstendes Modul, mit eDP ist dies nicht notwendig.

Heisst die bisherige PC Desktop Monitor Technik konnte das bis vor kurzen noch nicht umsetzen bzw war nicht eDP fähig. Nvidia gab die Möglichkeit bis es soweit ist durch ein Zusatzmodul es trotzdem zu nutzen und ja deshalb zocke ich schon seit einem 3/4 Jahr ohne Tearing. Wenn ich auf alles immer warten muss bis es irgendwann mal soweit ist, da bin ich Stein alt. Ich denke bis die breite Masse an Desktopmonitoren mit Embedded Displayport Technik am Markt ist verschwindet auch bei Nvigia das Zusatzmodul. Daraus machen manche wieder hohes Ross und Marktbeherrschung. AMD hätte genauso die Möglichkeit gehabt das die Leute seit Anfang des Jahres ohne Tearing zocken können, eventuell wäre hier ja dann ein Zusatzmodul notwendig gewesen bis die Monitortechnik soweit ist, aber nicht aus dem Knick gekommen.
 
@heigro
Es stimmt schon dass NV die "Idee" zuerst hatte, bzw. sie umgesetzt hat, das muss man ihnen natürlich lassen.
Aber es ist trotzdem besser für den Markt wenn sich eine Technik durchsetzt, welche mit allen Herstelelrn, die es wollen kompatibel ist.
Gsync Monitore funktionieren ja nicht mit AMD-Grafikkarten obwohl rein technsich soweit ich weiss, die selben Zusatzdaten von der Grafikkarte ausgesendet werden. Es wird nur anders verpackt. Wegen der propriäteren Lizenzen wiederum darf AMD auch nicht das Signal genau so basteln, damit Gsync Monitore es verstehen. Im Gegensatz dazu, dürfte NV bei Freesync genau das machen.

Sache ist auch dass NV immer wieder auf propriätäre Techniken setzt und User knebelt, anstatt auf Standards zu setzen. Ist allerdings das erste mal dass sie sich einem deutlich größeren Standard (VESA) widersetzen als nur dem Konkurenten.

EDIT: Wieso man dieses Feauture welches von technischer Seite aus, schon seit langem in eDP hätte unterstützt werden können, nicht umgesetzt hat, kann ich dir nicht so recht sagen. Vieleicht weil eDP ja hauptsächlich in Notebooks vor kommt und da der Drang zur Verbesserung dort nicht so naheliegend war.
 
Zuletzt bearbeitet:
yeah, wenn demnächst dann hoffentlich alle amd und intel chips das unterstützen wirds auch mehr bildschirme geben.

und dann kann sich nvidia ihre extra kackwurst dahin zurückschieben wo sie her gekommen ist.
 
@DragonTear

und genau das will ich ja sagen, auch Nvidia hat mit dem offenen Standard Adaptive-Sync-Standard von Embedded Displayport (eDP) ohne Zusatzmodul gearbeitet (Laptop) und entwickelt Treiber. Es waren bisher aber nur die Notebook Monitore (eDP) damit fähig. Also was macht man mit einer Idee die bei Desktopmonitoren nicht umgesetzt werden kann, weil die Technik dort noch nicht einzug gehalten hat?

Warten wie AMD oder wie Nvidia die Technik über ein Zusatzmodul schon früher möglich machen. Und wenn dann einer diese Möglichkeit macht, würde ich auch dafür sorgen das es kein anderer nutzen kann. Ich wage mal noch einen blick in die Zukunft .......... wenn immer mehr Monitore mit Embedded Displayport am Markt sind stellt Nvidia um auf Treiber ohne Zusatzmodul.
 
Die Sync Technologien sind auf keinen Fall nur gegen Tearing sondern damit alles auch flüssiger wirkt!
Viele Nutzer von G/FreeSync berichten, das sich 40FPS z.B. in manchen Spielen wie 60FPS anfühlen.
Messen und bewerten kann man den Unterschied nicht direkt.

Das ist auch so, nutze ebenfalls Gsync. Aber was habe ich davon, wenn sich die 5 fps wie 7 fps anfühlen?

@p5buser: Polemik, super. Hast du keine Ahnung, was die aktuellen iGPUs von Intel und AMD so drauf haben? Hier und hier sind Benchmarks mit iGPU in 1080p.
Ganze 22 fps auf BF4@fhd mit medium Details? Wären dann bei 1440p noch knapp 13... also immer noch Faktor 11 von den gewünschten 144 fps weg ;)

Ja, hast recht, rennt wie Sau... aber die Sau ist ja bekanntlich kein so schnelles Tier :fresse:
 
Zuletzt bearbeitet:
yeah, wenn demnächst dann hoffentlich alle amd und intel chips das unterstützen wirds auch mehr bildschirme geben.

und dann kann sich nvidia ihre extra kackwurst dahin zurückschieben wo sie her gekommen ist.

zum Glück hat Nvidia (no Tearing) die "Kackwurst" angeboten. Wenn ich jedesmal auf AMD warten müsste bis die mal was an den Markt bringen können, weil die andere Hardware soweit ist na dann gute Nacht ...............
 
Die Sync Technologien sind auf keinen Fall nur gegen Tearing sondern damit alles auch flüssiger wirkt!
Viele Nutzer von G/FreeSync berichten, das sich 40FPS z.B. in manchen Spielen wie 60FPS anfühlen.
Messen und bewerten kann man den Unterschied nicht direkt.


Weil das menschliche Auge ja auch zwichen 40 und 60 fps unterscheiden kann^^

Naja hoffe auch das gsync ganz schnell abgeschafft wird... Will nicht das meine Grafikkarte vom Monitor abhängig ist
 
1 Bild, das auf den Boden fällt, bewegt sich auch flüssig :d
 
Weil das menschliche Auge ja auch zwichen 40 und 60 fps unterscheiden kann^^

Gibts für diesen Spruch eigentlich auch ein Law? Sowas wie Godwins Law? IMMER noch hört man diesen Blödsinn immer wieder.
Ich glaube so verdreht habe ich meine Augen schon lange nicht mehr. Manche raffen es einfach nie.
 
Weil das menschliche Auge ja auch zwichen 40 und 60 fps unterscheiden kann^^

Naja hoffe auch das gsync ganz schnell abgeschafft wird... Will nicht das meine Grafikkarte vom Monitor abhängig ist

Ja kann es... Das Menschliche Auge hat weder eine Grenze in FPS, noch funktioniert es mit Abfrage von Einzelbildern.
Das Auge nimmt Licht und Bewegungen wahr. Ein einzelnes Helles Frame bei 120FPS kann vom Menschlichen Auge wahrgenommen werden.
Und das 60FPS Flüssiger sind als 40, bzw. das Bild sich durch die Sync Technologien Flüssiger anfühlt als ohne, können hier im Forum wohl viele bestätigen!


Das ist auch so, nutze ebenfalls Gsync. Aber was habe ich davon, wenn sich die 5 fps wie 7 fps anfühlen?

Ganze 22 fps auf BF4@fhd mit medium Details? Wären dann bei 1440p noch knapp 13... also immer noch Faktor 11 von den gewünschten 144 fps weg ;)

Ja, hast recht, rennt wie Sau... aber die Sau ist ja bekanntlich kein so schnelles Tier :fresse:

Gab vor kurzem mal ne schöne Übersicht der genutzten Auflösungen von Spielern.
bis 1080P hat mehr als >80% abgedeckt.

Und wie ich gesagt habe, die meisten Spieler spielen irgendwelche unfordernde Spiele wie LoL oder ältere Spiele wie AoE2. Auhc Counterstrike, Dota und Team Fortress kann man mehr als ausreichend mit solch einer iGPU Spielen.

Nur weil das Produkt nicht für dich gedacht ist, heißt es nicht das dieses schlecht/schwach ist.
 
Warum sollte NV mit diesem möglichen Schritt G-Sync aufgeben??
Sehe ich keinen Grund dazu... NV hat gute 2/3 Marktmacht im dGPU Bereich... Also das, was Gaming auf dem PC ausmacht.
Das trifft die ganzen Casual Gamer vielleicht nicht, die mögen mit ner APU von AMD oder iGPU von Intel auch spielen (können) -> aber ganz ehrlich, viele solcher Leute spielen doch (auch) auf Konsolen. Warum sollte es NV also stören? Die Gamerwelt besteht doch nicht nur aus diesen kleinen Indie und Browser Games... Da gehört ne ganze Menge mehr dazu. Und vieles davon zielt eher auf Konsolen oder dGPUs ab anstatt auf das, was Intel atm liefert. Und der stätig sinkende Marktanteil von AMD im dGPU Bereich bestärkt NV, wenn man es von der anderen Seite betrachtet, eigentlich nur darin, ihre eigenen "Dinge" durchzudrücken und keine Rücksicht auf Dritte zu nehmen... Denn im Endeffekt muss NV sehen, wie sie mit dem Arsch an die Wand kommen. Bis dato scheint das ziemlich brauchbar zu funktionieren... Oder fährt NV Verluste mit ihren GPUs und Techniken ein? Kann ich zumindest aktuell nicht erkennen...
 
Zuletzt bearbeitet:
Gab vor kurzem mal ne schöne Übersicht der genutzten Auflösungen von Spielern.
bis 1080P hat mehr als >80% abgedeckt.

Und wie ich gesagt habe, die meisten Spieler spielen irgendwelche unfordernde Spiele wie LoL oder ältere Spiele wie AoE2. Auhc Counterstrike, Dota und Team Fortress kann man mehr als ausreichend mit solch einer iGPU Spielen.

Nur weil das Produkt nicht für dich gedacht ist, heißt es nicht das dieses schlecht/schwach ist.

Das mag ja sein, nur bezweifle ich, dass die von dir angesprochenen "meisten Spieler", die in meinen Augen eher anspruchslos bzgl. Bildqualität sind, einen unterschied zwischen G-/Free-sync und no-snyc merken würden, wenn diese dann Aoe2 auf 1024 zocken ;)
 
wie das auf einem Ao2 ist kann ich nicht beurteilen .............

hatte vorher auch Hammer Pc Hardware auf nen 24" FHD 150€ bei 60hz gezockt. Anfang des Jahres auf WQHD in 144hz mit g-sync umgestellt und wenn ich mal an den PC meiner Frau muss, kriege ich Augenkrebs :hmm:
 
Wenn Intel grad eins macht, dann ist es die iGPU weiter zu entwickeln...
Klar, du sprichst da was an. Wäre sehr sinnvoll wenn das nun endlich auch den Bereich um die 25Fps unterstützen würde, allerdings ist das kein Problem des Freesync standards selbst.
Der Standard beschreibt nämlich nur was die Grafikeinheit ausgeben kann, und zumindest laut AMD kann sie schon bis 17fps runter oder sowas in der Richtung.
Nur muss der Scaler im Monitor das auch können und das können die normal verbauten nicht. Deswegen unterscheidet sich die Range auch ein wenig von Modell zu Modell bei Freesync.

NV's Ansatz mit einem eigenen Scaler Modul war aus dieser Sicht schon nicht falsch. Der Preis von über 100$ (im inoffiziellen Retail 200$) ist aber schlicht happig und das propriätere System benachteiligt den Konkurenten und zerteilt nun den Markt - wobei Gsync was die Zahl der Monitore angeht schon seit ner ganzen Weile das Nachsehen hat..

technisch ist g-sync wohl die bessere lösung, aber entsprechend teurer. ordentliche gaming-monitore sind sowieso nicht günstig, dann noch ca. 200 € für ein g-sync-modul hinzublättern...

dass man sich durch den kauf einer grafikkarte auch noch an einen bestimmten monitor binden soll ist erst recht lästig.

allerdings bin ich mehr an ULMB als an g- oder free-sync interessiert, und so eine unschärfereduktion bietet derzeit nur nvidia.

bin z.z. stark am überlegen, ob das nächste monitor-upgrade asus pg279q (g-sync) oder eizo fs2735 (freesync) heißen soll. teuer werden sie eh beide :hmm:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh