VESA führt 'Adaptive Sync' als Teil von DisplayPort 1.2a ein (2. Update)

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.137
<p><img src="/images/stories/logos-2013/vesa.jpg" width="100" height="100" alt="vesa" style="margin: 10px; float: left;" />Die Video Electronics Standards Association, kurz VESA, gab gestern bekannt, dass "Adaptive Sync" Teil des DisplayPort-1.2a-Standards werden wird. Bei "Adaptive Sync" handelt es sich um eine Technik, bei der das Display das Bild erst dann aktualisiert, wenn die Grafikkarte ein neues Bild berechnet hat - die Bildwiederholrate wird also synchronisiert. Dabei ist "Adaptive Sync" bzw. die Technik dahinter nicht neu.</p>
<p>Im Embedded DisplayPort spielt sie bereits seit 2009 eine Rolle, <a href="index.php/news/hardware/monitore/28315-nvidias-g-sync-in-der-theorie-und-erste-praxis-erfahrungen.html" target="_self">NVIDIA hat das Thema als G-Sync</a> Ende des vergangenen...<br /><br /><a href="/index.php/news/hardware/grafikkarten/31044-vesa-fuehrt-adaptive-sync-als-teil-von-displayport-12a-ein.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Welche GPUs von AMD ... in der Lage sind, DisplayPort Adaptive Sync anzusprechen und wann mit den ersten Monitoren zu rechnen ist, ist derzeit nicht bekannt.

Ich mache mal eine Copy%Paste

AMD geht davon aus, dass erste Monitore mit „Adaptive Sync“ in sechs bis zwölf Monaten zur Verfügung stehen werden. Grafikkarten, die Active Sync nutzen werden können, sind die Radeon R9 290X, R9 290, R7 260X und R7 260 sowie die APUs „Kabini“, „Temash“, „Beema“ und „Mullins“. Die APU „Kaveri“ findet sich, obwohl sie auf dieselbe GCN-Version wie Kabini setzt, nicht in der Auflistung wieder. Die ersten Generation der GCN-Architektur, und damit auch Neuauflagen wie Radeon R9 280X oder R9 270X, scheinen außen vor.
Quelle: CB
 
Für fps<60 kann ich mir das ganze als durchaus nützlich vorstellen (zB um Tearing zu vermeiden) - aber was, wenn ein Spiel mit mehr als 144fps läuft? Soweit ich weiss gibt es keine Displays mit höherer refresh rate - woran wird man erkennen, bis wie viel fps das jeweilige Displaymodell "adaptive" bleibt? Und was wird zB ein 120Hz-Display machen, wenn die GraKa mehr als 120fps ausspuckt? Einfach nur jedes zweite Bild anzeigen? Oder wird die GraKa ähnlich Adaptive V-Sync einfach per Link auf die max. refresh rate hingewiesen und dann darauf begrenzt um Hitze und Strom zu sparen?
 
Theoretisch sollte die Graka gedeckelt werden - ähnlich wie bei einem FPS-limiter.
Alles andere macht wenig Sinn... Auf jeden Fall interessante Technik!
Gibts auch Infos zu den nvidia grakas? Hoffe die boykotieren das nicht um ihr GSync durchzusetzen...
 
@KaHaKa, ist doch nichts anderes, wie bei V-Sync auch, nach 60/120/144 Bildern ist Schluss.
 
Endlich. Das wird mal richtig NAISE !

Mal sehen wie sich das dann aber wieder mit SLI/CFX und surround gaming verhält, ob das in den Fällen noch funktioniert.

Die Monitorhersteller werden sich nicht lumpen lassen und alsbald reagieren.... spätestens wenn ein Hersteller damit auftritt und anfängt zu dominieren.
Ich brauch eh mal nen neuen. Oder zwei...oder drei. :love::fresse2:
 
Zuletzt bearbeitet:
Synchronisation bedeutet ein bestimmter Ablauf. Gut das man dann vielleicht nicht mehr die FPS limitieren muss.
 
Okay, jetzt fehlen nur noch die passenden Monitore und Treiber, um mit NV gleichzuziehen. Ich drück AMD hier die Daumen und hoffe sie bleiben am Ball.
 
Es gibt noch weitere Informationen bezüglich der Bildwiederholraten:

"Q: What is the supported range of refresh rates with FreeSync and DisplayPort™ Adaptive-Sync?
A: AMD Radeon™ graphics cards will support a wide variety of dynamic refresh ranges with Project FreeSync. Using DisplayPort™ Adaptive-Sync, the graphics card can detect and set an appropriate maximum and minimum refresh rate based on the capabilities reported by the display. Potential ranges include 36-240Hz, 21-144Hz, 17-120Hz and 9-60Hz."

Quelle:
http://techreport.com/news/26451/adaptive-sync-added-to-displayport-spec
 
War ja klar, das NVIDIA V-Sync nicht als Standard akzeptieren will. Sie müssten erst ihre Hardware darauf anpassen und G-Sync sei sowieso viel besser ect. blablabla... und sie sehen in V-Sync keine Zukunft ... :haha:
Ich glaube eher, das NVIDIA total angepisst ist, weil AMD ihre Show mit G-Sync komplett zunichte gemacht hat und das ihre Hardware mal wieder nicht modern genug ist, ist ihre eigenen Schuld. Warum sparen sie immer so an ihren teuren Karten und bauen nicht einfach mal etwas für die Zukunft ein ? AMD macht das immer so !
 
Die Reaktion von NV ist ja auch trotzig....

Zitat NV@Quelle CB:
So weit wir wissen, sind bisher keine Produkte auf Basis von DisplayPort 1.2a angekündigt worden“, kommentiert Nvidia die Ankündigung der VESA. „G-Sync funktioniert schon heute über DisplayPort 1.2 und benötigt kein DisplayPort 1.2a. [...] Und auch wenn der Standard keine Lizenzgebühren kostet, bringt auch DisplayPort 1.2a Kosten für die Entwicklung, die Implementierung und die Markteinführung mit sich“, heißt es weiter.

Danach gefragt, ob Nvidia ebenfalls auf den Standard setzen wird, gibt der Hersteller bekannt: „Wir unterstützen Industriestandards, aber nicht jeder Standard setzt sich durch. Am Ende unterstützen wir das, was unseren Kunden wichtig ist – und wählen zu diesem Zweck auch pragmatische Ansätze“. Ein Dementi ist das nicht.
Zitat Ende:

Quelle

Ich wusste gar nicht das G-Sync 0$ Entwicklungskosten, 0$ Implementierungskosten und 0$ Markteinführungskosten bei NV verursacht. :fresse:
 
Zuletzt bearbeitet:
Für das Geschwafel eines Zuständigen von NV gibts gleich mal einen imaginären Daumen nach unten.

Bei NV gibts ja bekanntlich alles umsonst.. :haha:

Wenn man erkennt das man verloren hat, sollte man es nicht durch derartige Kommentierung noch schlimmer machen.
 
Verloren? Wie? Weil man aktuelle Hardware und Produkte am Markt hat, die a)funktionieren und b) mehr Hardware abdeckt?
 
Verloren? Wie? Weil man aktuelle Hardware und Produkte am Markt hat, die a)funktionieren und b) mehr Hardware abdeckt?

Ist Pro|pri|e|tär und hat wenig Zukunft, sozusagen fast schon "Dead on Arrival". Keine Sorge Nvidia wird G-Sync schnell genug zu Grabe tragen, sie hoffen nur das genug Leute noch zuschlagen. Der Kuchen wird in dem Jahr bis der Standard kommt nicht sehr groß sein.
 
Zuletzt bearbeitet:
@sontin
Wir schreiben hier über Adaptive Sync der Technologie die bei NV G-Sync genannt wird, du bist der Meinung das NV diesbezüglich aktuelle Hardware und Produkte am Markt hat die a) funktionieren und b) mehr Hardware abdeckt, könntest du das genauer erörtern da mich G-Sync als Technologie sehr interessiert?! Eventuell hättest du ja ein paar Quellen Angaben wo man sich tiefer in die Materie einlesen kann bezüglich deiner Ausführungen..... Danke im voraus .... ;)
 
Zuletzt bearbeitet:
@sontin
Wir schreiben hier über Adaptive Sync der Technologie die bei NV G-Sync genannt wird, du bist der Meinung das NV diesbezüglich aktuelle Hardware und Produkte am Markt hat die a) funktionieren und b) mehr Hardware abdeckt, könntest du das genauer erörtern da mich G-Sync als Technologie sehr interessiert? Eventuell hättest du ja ein paar Quellen Angaben wo man sich tiefer in die Materie einlesen kann bezüglich deiner Ausführungen..... Danke im voraus .... ;)

Meinst du mich oder Sontin?
 
Verloren? Wie? Weil man aktuelle Hardware und Produkte am Markt hat, die a)funktionieren und b) mehr Hardware abdeckt?
Weil man mal wierder versucht seinen proprietären Rotz durchzudrücken und damit dieses mal vorraussichtlich kläglich scheitern wird.
Die Bildschirme für den Kunden sind im Vergleich zu einem gleichwertigen ohne GSync sauteuer , es kaum 5 Modelle mit GSync gibt und es wie ASync ebenfalls einen einen neuen Monitor erfordert.
Dazu kann man mit der Frequenz bei ASync weiter nach unten gehen. GSync geht nur bis 30fps. Also theoretisch ist GSync auch noch schlechter. Praxistests muss man natürlich erst noch abwarten.

Niemand wird mehr 300 für einen GSync Monitor hinklatschen, wenn der gleiche mit Async über DP 1.2a nur 150 oder 200 kostet.
Dazu wird früher oder später jeder Hersteller von DP1.2 auf DP1.2a umstellen. Dass jeder auf GSync only umstellt ist eher unwahrscheinlich.

Also ja, ich schließe mich der Meinung vieler anderer hier an, sollte Async so gut wie oder besser als GSync funktionieren wird GSync hoffnungslos unter gehen.
Und nein, diesem proprietären Sche*ß werde ich nicht hinterher weinen.


EDIT:
Das Statement von nVidia mal wieder.
So klingt ein schlechter Verlierer.
ASync kostet in der Entwicklung also Geld. Aha, aber GSync hat sich von selbst entwickelt?
Für DP1.2 braucht man also einen neuen Monitor. Und für GSync also nicht, oder wie?
Dann will man noch das unterstützen was für den Kunden wichtig ist. Das glauben sie doch selbst nicht. Es wird unterstützt was dem Gewinn und der Marktposition nutzt. Der Kunde? Je mehr man den abzocken kann desto besser.
 
Zuletzt bearbeitet:
ich würde G-sync nicht zu früh abschreiben. und als Verlierer würde ich nv schon garnicht betrachten. objektiv betrachtet, gibt es eines der features, das nv monitore auszeichet bzw auszeichnen wird, halt bald offenbar auch als offenen standard. das ist gut, aber verliert nv deswegen den von euch als so großen Kampf angepriesenen Wettbewerb? ich denke nicht...

meiner einer und viele andere sicher auch, wollen wegen einer art und weise wie das bild in Zukunft synchronisiert wird, nicht auf andere Features oder gar deren Weiterentwicklungen verzichten. ich spreche von 3D vision in 1440p und ULMB. dinge, die ich aktuell in der lightboost version bzw als 3D vision in 1080p nutze. für diese features, die ich alle weiterhin in meinem Monitor haben will, bin ich gerne bereit 100€ mehr zu zahlen. ob da dann gsync oder async drin steckt, ist mir dabei weniger wichtig. wobei ULMB nur mit den nv Monitoren erhältlich ist. ebenso wird es 3D vision nur von nv geben.

wie gesagt, ich und viele andere auch, wollen das haben und sich deshalb einen nv zertifizierten Monitor mit gsync kaufen :d

sehe jetzt nicht, wieso nv deshalb der Verlierer sein wird, ganz im Gegenteil, ein async Monitor bietet async, ok, da hörts dann aber auch gleich wieder auf. ein vn Monitor bietet halt mehr.

ich will hier nicht den nv fan geben, oder mich in diese Schublade stecken lassen, aber nv bietet halt Sachen, die ich weiterhin haben will, weil ich sie toll finde. würden die roten dieses Gesamtpaket bieten, hätte ich evtl eine rote laufen und müsste keinen nv Monitor kaufen sondern würde zum ATI zertifizierten Monitor greifen... so what?!

das hat nichts mit rot oder grün oder gegen grün zu tun. ich kann async sogar nur begrüßen, denn wie wir aus der Vergangenheit gelernt haben, kommt nv schnell mal unter druck durch Konkurrenz und davon profitiere ich als nv Kunde. sei es beim preis oder durch anderweitige dinge.

ps: sitze noch in der Arbeit und hab kein bock auf die shifttaste.
 
Zuletzt bearbeitet:
Letztendlich läuft es auf die Kosten raus. Wenn Nvidia ihre G-sync Monitore günstiger anbieten wird, dann hat G-sync eine Chance.
 
Wenn ich das richtig verstehe, wird in naher Zukunft jeder neue Monitor mit DP 1.3 (also anstehenden Nachfolger von 1.2(a) ) über dieses Feature verfügen und praktisch kaum bis keine extra Kosten Verursachen.
Ich denke auch mal, das Intel das auch unterstützen wird, womit G-Sync als nVidia only dann nur noch einen relativ kleinen Marktanteil hat und darüber hinaus auch nur für "Nerds" (die sich mit so etwas beschäftigen) interessant ist?

Da dürfte es komplett unerheblich sein, welche von beiden Techniken wirklich besser ist, die günstigere mit mehr Verbreitung wird (wie fast immer) gewinnen.

PS: Hardcore Gamer, bei denen die FPS eh nie weniger als 60 FPS sein dürfen, brauchen G-Sync (bzw. das andere) zB auch nicht - da hier normales Sync reicht (richtig umgesetzt natürlich). Und für den Gelegenheits- bzw. Preis/Leistungs- Gamer ist so ein G-Sync Monitor eh zu teuer (das Geld investiert man lieber in die Grafikkarte und dem günstigeren Pendant).

Also ist G-Sync so nützlich wie nVidia Hardware PhysX.....
 
Zuletzt bearbeitet:
Es ist natürlich klasse wenn es Konkurrenz gibt um am Ende möglicherweise das Beste sich durchsetzt. Allerdings wird mich diese Entwicklung im Bezug auf Spiele weniger als Null interessieren. Das liegt nicht an der Technik, doch ich habe absolut Null Bock auf. Origin, Uplay, Battle.net, und Steam auf meinem Rechner. Es wird doch immer schlimmer. Meine Entscheidung. Wenn es mal noch HL3 geben wird, wird dies mein letztes Spiel sein was ich kaufen werde. Danach können mich diese Datensammler alle mal kreuzweise.
 
Ich kann AMD zu diesem Schritt nur gratulieren, so toll die Idee war die Nvidia mit G-Sync als erste auf den Markt gebracht hat, so viel toller ist die Idee von AMD das in einen Standard mit einzubringen.
Natürlich ist auch Display Port 1.2a nicht umsonst und wir werden noch sehen müssen ob in naher Zukunft nur Gamergrafikkarten und -Displays damit auf den Markt kommen oder die Bandbreite erheblich größer wird, mehr Potential zur Verbreitung und vor allem auch mehr Flexibilität z.B. beim Wechsel des GPU Herstellers bietet definitiv der Ansatz von AMD.
Und wenn ich mir aus welchen Gründen auch immer lieber ein Officedisplay hin stelle als ein Gamerdisplay dann habe ich beim Ansatz mit Displayport 1.2a mittel- bis langfristig sicherlich größere Chancen Adaptive Sync nutzen zu können als dass da irgendwann G-Sync drin steckt.

Also an dieser Stelle mal von einem seit Jahren überzeugten Nvidia-Käufer ganz klar Daumen hoch für AMD! :bigok:
 
nv bekommt für jeden verkauften monitor mit ihrem gsync ein haufen geld. an async verdient niemand mehr geld, zumindest weder amd noch vesa, da es ein standard ist.

nvidia verliert hier doch nicht, sie sind die einzigen die geld verdienen am sync :-)

amd bekommt keinen cent für ihr async.

die tatsache, dass nv der verlierer sein soll, ist umso absurder.

gsync wird aus meiner sicht nicht untergehen, verlieren tut hier wenn dann amd. wären sie so schlau gewesen und hätten ihren sync ebenfalls unter eigener flagge verkauft, würden auch sie geld verdienen.
 
nv bekommt für jeden verkauften monitor mit ihrem gsync ein haufen geld. an async verdient niemand mehr geld, zumindest weder amd noch vesa, da es ein standard ist.

nvidia verliert hier doch nicht, sie sind die einzigen die geld verdienen am sync :-)

amd bekommt keinen cent für ihr async.

die tatsache, dass nv der verlierer sein soll, ist umso absurder.

gsync wird aus meiner sicht nicht untergehen, verlieren tut hier wenn dann amd. wären sie so schlau gewesen und hätten ihren sync ebenfalls unter eigener flagge verkauft, würden auch sie geld verdienen.

Dann wären sie auch so ein egoistischer, unsympatischer Kackladen wie nVidia.
Ich bin froh, dass AMD nicht so ist, auch wenn sie evtl. mehr Geld verdienen könnten. Nvidias Firmenpolitik ist einfach das letzte. Und dann noch ein Stück zurück.

Außerdem war die Entwicklung von GSync bestimmt nicht gratis.
Und wenn GSync (was ich hoffe) katastrophal Floppt bezweifel ich, dass man mit den 3 verkauften Bildschirmen die Entwicklungskosten drin hat. Da ist ja extra Hardware im Monitor usw.
AMD hat da bei weitem nicht so viel tun müssen.
 
AMD hat eigentlich jetzt nicht mehr viel zu tun oder? weil ja das DP Konsortium sich darum kümmert, auf der anderen Seite könnte sich AMD die gesparte Zeit in neue Produkte/SW investieren....
 
webmi schrieb:
nv bekommt für jeden verkauften monitor mit ihrem gsync ein haufen geld. an async verdient niemand mehr geld, zumindest weder amd noch vesa, da es ein standard ist.

nvidia verliert hier doch nicht, sie sind die einzigen die geld verdienen am sync :-)

Nur niemand zahlt denen das für die Monitore, insofern kann man schon sagen, dass Nvidia hier ein Verlierer ist, zumindest in anbetracht dessen, dass sich die Entwicklung für Nvidia selbst wohl nicht gelohnt hat.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh