VESA führt 'Adaptive Sync' als Teil von DisplayPort 1.2a ein (2. Update)

wie willst du die wirtschaftlichkeit von Gsync beurteilen? lol

ist noch nicht mal raus und hier wirds schon verteufelt...

ich kenne 4 leute pers. die sich, sobald der asus kommt, diesen sofort kaufen werden. ich bin sicher, die bekommen mindest das raus, was sie reingesteckt haben, wenn sie das nicht eh schon haben durch div. rahmenverträge mit den herstellern...

AMD hat da bei weitem nicht so viel tun müssen.

du kapierst es nicht, die verdienen nichts damit, die machen minus, wohingegen nv wohl einnahmen machen wird...

nur fanboy gelaber hier, hier wird nv die pest an den hals gewünscht... ungalublich, ich bin kein fanboy oder sowas, versuche das sogar neutral zu beurteilen, obwohl ich nv kunde bin, aber amd die pest oder verluste wünsche ich nicht... hab ichs hier nur mit kindern zu tun?

ich weiß garnicht, warum ich hier überhaupt noch argumentiere... hier hat jeder seine meinung, versucht erst garnicht über den tellerand zu sehen oder mehr als "nv ist so böse" zu verstehen... ich hab nichts davon, wenn ich hier schreibe, was ich schreibe, tue es trotzdem und verballer meine kostbare zeit mit leuten, die nur ihre eigene kleine welt wahrhaben wollen.

ja nv verkauft, was amd verschenkt... ich pers. würde es nicht anders machen, ihr mit seicherheit auch nicht, wenn ihr euren lebensunterhalt mal alleine verdienen müsst. wie man ein unternehmen deshalb so verteufelt... man merkt, einige haben von wirtschaft noch wenig ahnung.

rein wirtschaftlich betrachtet, verliert hier nur amd. flame on!
ja, es ihr ehrenhaft, was amd macht. manche würden es sogar als dumm bezeichnen.
ja, es ist absolut grauenhaft böse, was nv hingegen tut. auch wenn sie wirtschaftlich wohl besser weg kommen als amd.

der moralische sieger ist wohl wirklich amd. die mit der dicken brieftsche sind aber nv. mir pers. wäre die brieftasche lieber :d

euch allen natürlich ist die moral viel wichtiger, denn nur so kann sich ein unternehmen behaupten... wenn ati (amd) noch mehr so wohltätige dinge wie async auf den markt wirft, werden sie evtl bald wieder verkaufen müssen D:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was soll man dazu sagen? Es gibt Firmen die in Konkurrenz stehen und sich ab und zu solche Scharmützel high live geben.
 
[...] du kapierst es nicht, die verdienen nichts damit, die machen minus, wohingegen nv wohl einnahmen machen wird... [...]
Natürlich macht AMD damit Verluste. Denn sie haben Ausgaben für die Entwicklung, nehmen aber nichts ein.
Nvidia nimmt etwas ein. Hatte aber ebenfalls Ausgaben für die Entwicklung.

Das heiß jetzt aber noch lange nicht, dass nVidia dabei was verdient.
Die Kosten für GSync waren sicherlich deutlich höher als die für FreeSync. Damit nVidia also besser als AMD da steht, müssen sie die höheren Entwicklungskosten erstmal wieder einnehmen.
Und das ist das, was viele Bezweifeln. Das sich das (sollte ASync gut werden) am Ende wirklich für nVidia gelohnt hat.

Es sieht also so aus:
AMD macht ganz sicher Verluste. (evlt. ändernde Marktpositionen aussen vor gelassen) Aber davon nur wenig. Sie mussten fast nichts machen.
Nvidia macht vermutlich Verluste. Hat aber auch die chance damit noch Gewinn zu machen. Aber hat eben auch das Risiko deutlich höhere Verluste als AMD zu machen.

Aber hey, wir können Einnahmen ja auch mit Gewinn gleichsetzen und schon ist nVidia der große Gewinner. Denn entwickelt sich ja alles von selbst und so.
Aber die anderen sind dann die, die zu blöd für wirtschaft sind.
 
Zuletzt bearbeitet:
Ich würde es mal so ausdrücken: AMD verdient zwar nicht unmittelbar daran, allerdings gibts für diesen Standard eine Menge gooodwill. Das kann und wird die Kaufentscheidung vieler Leute in Zukunft beeinflussen (mich eingeschlossen).

Selbst überzeugte NV Fans haben nur mit dem Kopf geschüttelt als das G-Sync Kit total überteuert oder in Verbdindung mit schrottigen 1080p TN Monitoren angeboten wurde (bei 1440p hätte man darüber reden können).

Im Vergleich dazu macht AMD bis jetzt alles richtig und verlangt keine Wucherpreise dafür.
 
amd hat überhaupt keinen gewinn in form von money. async ist auch nicht exclusiv, das kann in nv monitoren genauso gut kommen...
 
webmi schrieb:
wie willst du die wirtschaftlichkeit von Gsync beurteilen? lol

ist noch nicht mal raus und hier wirds schon verteufelt...

ich kenne 4 leute pers. die sich, sobald der asus kommt, diesen sofort kaufen werden. ich bin sicher, die bekommen mindest das raus, was sie reingesteckt haben, wenn sie das nicht eh schon haben durch div. rahmenverträge mit den herstellern...

Nvidia hat doch hier erstmal Partnerschaften mit Monitorherstellern angeleiert und dazu noch den FPGA entwickelt.
Ob die Kosten der Entwicklung beim Verkauf wieder reingeholt werden, darf bezweifelt werden, wenn eine offene Lösung nurnoch um die Ecke ist.

3D Center findet sogar noch deutlichere Worte und geht davon aus, dass nicht mal mehr Monitore kommen werden.

du kapierst es nicht, die verdienen nichts damit, die machen minus, wohingegen nv wohl einnahmen machen wird...

Bei AMD behaupten sie machen damit Minus und bei Nvidia sollen die Kosten der Entwicklung locker reingeholt werden?
Einnahmen haben noch lang nichts damit zu tun ob man damit aus dem Minus kommt.

Zudem was ist überhaupt mit Minus gemeint. Solche Dinge fallen unter Entwicklungskosten die mit dem Grafikkartenverkauf reingeholt werden.

webmi schrieb:
rein wirtschaftlich betrachtet, verliert hier nur amd. flame on!

Ja genau Flame on. Überleg doch erstmal bevor du schreibst.

der moralische sieger ist wohl wirklich amd. die mit der dicken brieftsche sind aber nv. mir pers. wäre die brieftasche lieber

Arbeitest du bei Nvidia, dass es dir wichtiger ist wenn die Brieftasche der Kunden leer ist? :d
Jetzt wirds aber derb.
 
Zuletzt bearbeitet:
3D Center findet sogar noch deutlichere Worte und geht davon aus, dass nicht mal mehr Monitore kommen werden.

Warum sollten sie nicht kommen? Die geringfügigen Verzögerungen begründen sich wahrscheinlich dadurch, dass man in der Serienfertigung ASICs anstelle von FPGAs verwenden will.
 
Zuletzt bearbeitet:
Jetzt wirds aber derb.

lol, verdreh mir nicht die Worte im Mund. du weißt genau, wie es gemeint ist...

wir werden sehen ob es sich für nvidia rentiert mit g-sync, ich bin der Meinung, das wird sich schon ausgehen. ganz dumm sind die bei nvidia sicher nicht. bis sich die entwicklungskosten amortisiert haben, dauerts bestimmt nicht lang. in Zukunft steckt einfach in jedem 3D vision Monitor ein gsync Modul. jeder, der einen 3D vision Monitor kaufen will, bezahlt automatisch gsync mit und schon geht deren Rechnung auf, früher oder später. da mache ich mir keine sorgen. die entwickeln sowas ja nicht, weil sie uns was gutes tun wollen, die wollen geld damit verdienen...

und selbst wenn nicht, was kümmerts mich? mir egal, meinetwegen "verliert" nvidia... :rolleyes:
ich habe es nicht nötig, die firma in irgendeiner weise zu verteidigen, auch wenn ich deren Produkte nutze, ist es mir egal, ob die schwarze zahlen schreiben, nur bin ich was das "verlieren" hier im speziellen angeht, eben anderer Meinung.

asus soll zusehen, dass sie den swift fertig bekommen, damit ich nv endlich mein geld in den rachen werfen kann :fresse2:
 
Zuletzt bearbeitet:
webmi schrieb:
ja nv verkauft, was amd verschenkt... ich pers. würde es nicht anders machen, ihr mit seicherheit auch nicht, wenn ihr euren lebensunterhalt mal alleine verdienen müsst. wie man ein unternehmen deshalb so verteufelt... man merkt, einige haben von wirtschaft noch wenig ahnung.

rein wirtschaftlich betrachtet, verliert hier nur amd. flame on!

Ich verdrehe dir nicht die Worte im Mund, du behauptest, AMD würde hier wirtschaftlich verlieren, ohne gesichterte Informationen zu besitzen und erstmal abzuwarten wie es sich entwickelt.
Wer letztendlich wirtschaftlich verliert wird sowieso niemand mit Sicherheit sagen können, aber den Unsinn mit AMD würde verlieren und Nvidia Gewinnen, ist ja wohl hanebüchen.

waro245 schrieb:
Warum sollten sie nicht kommen? Die geringfügigen Verzögerungen begründen sich wahrscheinlich dadurch, dass man in der Serienfertigung ASICs anstelle von FPGAs verwenden will.

Verstehe ich auch nicht. Das 3DCenter lehnt sich da zu weit aus dem Fenster offenbar.

wie willst du die wirtschaftlichkeit von Gsync beurteilen? lol

Gar nicht, aber wenn offenbar in 6 bis 12 Monaten Geräte kommen und G-sync bisher nicht verfügbar ist ( außer sporadisch mit einem Modell ) kann man sich die Frage stellen, ob sich das lohnt.
 
AMD hat da bei weitem nicht so viel tun müssen.

Und das weißt du woher? AMD Mitarbeiter?

Hier wird über Kosten und RoI gesprochen, dass ist echt unglaublich. Auch Freesync kostet - Softwareentwicklung, Hardwareentwicklung und Marketing. Da ist nichts kostenlos.

Warum sollten sie nicht kommen? Die geringfügigen Verzögerungen begründen sich wahrscheinlich dadurch, dass man in der Serienfertigung ASICs anstelle von FPGAs verwenden will.

Vorallem - warum sollten dann AS Monitore kommen, wenn deren Markt noch kleiner ist als der von G-Sync?! :lol:
 
Zuletzt bearbeitet:
Außerdem war die Entwicklung von GSync bestimmt nicht gratis.
Und wenn GSync (was ich hoffe) katastrophal Floppt bezweifel ich, dass man mit den 3 verkauften Bildschirmen die Entwicklungskosten drin hat. Da ist ja extra Hardware im Monitor usw.
AMD hat da bei weitem nicht so viel tun müssen.

Es muss noch immer extra Hardware im Monitor sein. Nicht jeder Monitor wird nun automatisch Adaptive Sync mit DP1.2a können.
GSync war in keinster weise schlecht. Die Frage ist ob es die Entwicklung die wir jetzt sehen überhaupt gegeben hätte wenn Nvidia nicht mit GSync gekommen wäre. Außerdem hat GSync schon bewiesen wie gut es funktioniert, wärend man bei FreeSync oder Adaptive Sync erst noch abwarten muss.

GSync dürfte trotzdem auf lange Sicht obsolent werden, für eine breite Nutzung waren die Kosten an die Endverbraucher einfach zu hoch, das dürfte auch die Monitorhersteller zurückgehalten haben.
 
Ich verdrehe dir nicht die Worte im Mund, du behauptest, AMD würde hier wirtschaftlich verlieren, ohne gesichterte Informationen zu besitzen und erstmal abzuwarten wie es sich entwickelt.

ich habe gesagt, wenn dann, aufgrund der tatsache, das amd mit async keinen cent mehr verdienen wird. schon wieder legst du meine aussagen so hin, wie du sie am besten zerstückeln kannst...

leidig mit euch, im speziellen mit schaffe, zu quasseln, deshalb mach ich hier schluss :wink:
 
Zuletzt bearbeitet:
Und das weißt du woher? AMD Mitarbeiter?
Weiß ich nicht, nehme ich an, ist sehr wahrscheinlich.
Wie lange hat AMD gebraucht um das eigene nach der Veröffentlichung von GSync zu zeigen? Ne Woche?
Man musste auch nicht viel tun, die Bildschirme einiger Laptops sind dazu schon in der Lage gewesen, man musste Softwaretechnisch ein kleines Bisschen was machen.


Hier wird über Kosten und RoI gesprochen, dass ist echt unglaublich. Auch Freesync kostet - Softwareentwicklung, Hardwareentwicklung und Marketing. Da ist nichts kostenlos.
Von kostenlos hat auch niemand etwas gesagt. Von deutlich billiger.
AMD hat (vermultich alleine innerhalb der einen Woche) etwas bestehendes modifiziert/weiterverabeitet/nutzbar gemacht. Rein Softwaretechnisch.
Marketing haben sie auch kaum gemacht. Es wurde einfach schnell das eigene demonstriert um nVidias GSync lächerlich zu machen.
Hardware hat man überhaupt keine entwickelt. (und das ist das richtig teure)

Vorallem - warum sollten dann AS Monitore kommen, wenn deren Markt noch kleiner ist als der von G-Sync?! :lol:
Async ist der in der DisplayPort 1.2A Spezifikation enthalten.
Jeder Monitorhersteller wird früher oder später von DP 1.2 auf DP1.2A oder gleich auf DP1.3 umsteigen, wo ASync enthalten sein wird.
Es müssen überhaupt keine Monitore für Async speziell produziert werden. Sie können es, indem sie den neusten DisplayPort Standard unterstützen.
Für GSync muss man dagegen einen eigenen Monitor bauen. Und der hat aufgrund des horrenden Preises eine eher kleine Zielgruppe.

Es kommen also keine ASync Monitore (mit dem so traurig kleinen Markt) es kann ganz einfach sowieso jeder neue Monitor mit DP Async. Und im Vergleich zum extra GSync-Hardwar-Modul ist das auch noch praktisch umsonst.
 
Zuletzt bearbeitet:
Ach Johnnyboy, Newsflash für dich:
Adaptive-Sync ist ein optionales Feature von 1.2a. Heißt: Nur weil etwas DP 1.2a, muss es noch lange nicht kompartibel mit Adaptive-Sync sein.
 
Köstlich, wie hier sontin und webmi verzweifelt versuchen G-Sync zu retten. :d

Als kleine Randbemerkung sollte man erwähnen, das A-Sync ein "Standard" wird bzw. schon ist und G-Sync eher eine Rarität bleibt.
 
"Adaptive-Sync is a proven and widely adopted technology. The technology has been a standard component of VESA’s embedded DisplayPort (eDP™) specification since its initial rollout in 2009."
Quelle: VESA® Adds
Und nun kommt dieser alte Hut halt auch in den "normalen" Display Port.
Und das soll NVIDIA nicht bekannt gewesen sein? Seit wann entwickeln die denn g-sync?
 
Nichts gegen dich und ich will auch nicht wirklich Nv verteidigen... Aber hast du eine Glaskugel oder so, dass du das exakt sagen kannst? :P

Weil es in der Überschrift dieses Themas so drin steht ? Naja, deutlicher könnte es eigentlich nicht sein.
 
Es gibt nicht viele Monitore, die G-Sync unterstützen.
Auch das die Hersteller der Monitor in einen erbitterten Preiskampf zueinander gehen nur um die teure Hardware und die damit verbundenen Lizenzkosten tragen zu müssen ist äußerst abwegig. Da unterstützen sie lieber den "freien" DP-Standard. Deshalb wurde dieser Standard nun auch durch VESA integriert. Die Produzenten in der Monitorindustrie haben schon gewisse Einflüsse für solche Standards. ;)

Das was die Kunden wollen bzw. das was es so neues an Technik gibt, wird zwar auch umgesetzt. Aber meistens dann das, was am wenigsten in der Umsetzung kostet und somit den Gewinn erhöht. Sprich, die neuen Monitore sind nicht nur moderner als die Alten und damit attraktiver für die Kunden, sondern sie sind auch günstig herzustellen.

Das Problem der Hersteller sind noch ganz andere als nur die Herstellungskosten ihrer Monitore. Auch die Verbrauchswerte spielen eine Rolle im Verkauf und kann ein nicht zu unterschätzender Faktor sein. Ein Monitor mit G-Sync-Hardware intus verbraucht sicherlich mehr als ein anderer Monitor mit nur A-Sync. Dadurch entstehen Nachteile, die im Wettbewerb über Flop oder Top entscheiden können. Auch die Form des Monitors, sprich Design. Die Kunden wollen es immer flacher haben und nicht noch extra eine dicke Ausladung hinten dran. Auch das Netzteil im Monitor muss nun stärker sein, was zu lauteren Betriebsgeräuschen führen kann.

G-Sync hört sich toll auf dem Papier an, aber die Monitor sind so gesehen Schrott gegen die Monitore ohne G-Sync-Gewichte an Board.
 
Zuletzt bearbeitet:
Was ist denn das für ein Blödsinn? G-Sync macht die Monitore dick? G-Sync verbraucht mehr Strom? Und zwar so viel mehr, dass das die Verkäufe senkt? Das ist wohl die nächste Lügengeschichte nach den angeblich minderwertigen PCBs bei Nvidia Grafikkarten.
 
Pickebuh schrieb:
Ein Monitor mit G-Sync-Hardware intus verbraucht sicherlich mehr als ein anderer Monitor mit nur A-Sync. Dadurch entstehen Nachteile, die im Wettbewerb über Flop oder Top entscheiden können.

Was heißt da sicherlich? Woher die Annahme G-sync verbrauche mehr Strom?

waro245 schrieb:
Was ist denn das für ein Blödsinn? G-Sync macht die Monitore dick? G-Sync verbraucht mehr Strom? Und zwar so viel mehr, dass das die Verkäufe senkt? Das ist wohl die nächste Lügengeschichte nach den angeblich minderwertigen PCBs bei Nvidia Grafikkarten.

Also da muss ich mal zustimmen. :d

Pickebuh schrieb:
G-Sync hört sich toll auf dem Papier an, aber die Monitor sind so gesehen Schrott gegen die Monitore ohne G-Sync-Gewichte an Board.

Das was du betreibst nennt sich Rufschädigung.
Ich mag G-sync auch nicht, weil proprietär, allerdings ist solche Stimmungsmache gegen einen Hersteller nicht zu unterstützen.
Zuletzte hast du behauptet Nvidias PB´s sind Minderwertiger, was kommt als nächstes?
 
Zuletzt bearbeitet:
Schaffe89
haha Rufschädigung. Ich fasse es nicht.
Hier befindet sich nach meiner Meinung niemand der auch nur im Ansatz irgendwelche Referenzen vorweisen kann, die diesem Thema wirklich Tiefe geben könnte, natürlich schließe ich mich darin ein. Vor allem die viel Poster, die nach meinem Anschein nach nichts anderes zu tun haben, kommen doch immer nur mit den gleichen Worten nur in einer anderen Zusammenstellung. Ich denke, dass niemand auch nur für eine Sekunde irgendetwas hier wichtig nimmt, außer dass es vielleicht mal eben DP 1.2a geben könnte. 99,8% werden auf Tests der Redaktionen warten die dann endlich die nötige Referenz bieten.

Insofern solltest du das nicht so wichtig machen und dies als Rufschädigung bezeichnen. Es ist einfach nicht mehr, als ein simpler Zeitvertreib der viel Poster nach meiner Meinung.
 
Zuletzt bearbeitet:
AOC/Philips:
Nein. G-SYNC ist dem Adaptive Sync Standard überlegen, bietet mehr Features, weswegen es als beste Wahl für High-Level-Gamer angesehen wird.“
 
Ich zitiere mich selber aus dem G-Sync Sammler:

Auf dem Papier kann viel stehen und reden kann man den ganzen lieben Tag, mal abwarten wann es Handfeste Vergleiche zwischen den beiden Technologien gibt, die Aussage von AOC/Philips zählt zumindest bei mir bis dahin 11.....
 
Jo bleibt abzuwarten wenn die Techniken gegeneinander antreten.
 
Naja, eine Hardware-Lösung sollte in der Regel immer eine "Softwarelösung" schlagen. Was der jeweilige Spaß kostet ist dann natürlich die andere Frage, wobei ich auch bei AMD mir passende Hardware kaufen muss.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh