waro245; schrieb:
Als nur Nvidia soetwas anbot war es deiner Meinung nach vollkommen unnütz.
Ich habe in dem ganzen Text nirgends geschrieben wie nützlich das ist und auch habe ich nie gesagt das sei unnütz.
Das habe ich lediglich in Kombination mit schnellen Bildschirmen die 120 Hertz + haben gesagt. Weil der Mehreffekt geringfügig und proprietär ist.
waro245 schrieb:
Und du zerfetzt schon wieder Posts wie letztens bei fdsonne, um dann die aus dem Zusammenhang gerissenen Zitate umzuintepretieren.
Wo habe ich denn bitte uminterpretiert? Ich lese nicht in jedem Forum und kenne daher die Meinung nicht gegen die du hier diskutierst.
Durch deine rote Brille vielleicht. Es ist nicht mein Verschulden wenn du alles aus dem Zusammenhang reißt und den extra fett geschriebenen Hinweis ignorierst.
Ich habe in dem ganzen Text rein gar nichts aus dem Zusammenhang gerissen, wenn du mir bitte zeigen würdest wo, dann könnte ich es vll verstehen, denn ich habe danach gefragt wer das behauptet.
Mal davon ab ist es schlicht legitim sein geistiges Eigentum zu sichern, als wenn AMD keine Patente eintragen lassen würde. Albern...
Das sind aber zwei verschiedene paar Schuhe ob etwas legitim ist, oder ob etwas schlicht unseriös ist. Wenn ja dann darf man das auch kritisieren. Dass muss man dann nicht als albern abtun, nach dem Motto " nach dem Gesetz dürfen die ja Jungfrauen erstechen" , aber Kritik ist nicht erwünscht, ist ja legitimiert.
waro245 schrieb:
Damit hast du dich disqualifiziert.
"When asked about a potential VESA standard to enable dynamic refresh rates, Petersen had something very interesting to say: he doesn't think it's necessary, because DisplayPort already supports "everything required" for dynamic refresh rates via the extension of the vblank interval. That's why, he noted, G-Sync works with existing cables without the need for any new standards. Nvidia sees no need and has no plans to approach VESA about a new standard for G-Sync-style functionality—because it already exists."
G-sync nutzt im Endeffekt auch nur variable VBLANK-Intevalle. Zitat von Tom Peterson.
Die machen im Prinzip absolut das gleiche, disqualifizieren tust du dich eher, aber als ich anfangs von einer Marketingblase gesprochen habe, da wurde ich ja wieder als Fanboy hingestellt.
Und der Grund warum Nvidia da sonen fetten Chip braucht ist derjeniege, weil ihre Kepler Karten noch nicht mit VBlanks klar kommen, AMD hat das schon seit 3 Gens integriert.
Auch ein Grund, weil Nvidia hier nen Prototyp baut, bis sie einen Asic haben.
Kannmir gut vorstellen dass Nvidia keine Ahnung hatte, dass AMD Karten das prinzipiell unterstützen, ansonsten hätten sie wohl mit dem Marketingsprüchen ne spur mehr hinterm Zaun gehalten.