G-Sync ohne Zusatzmodul auf manchen Notebooks mit Embedded-DisplayPort

Don

[printed]-Redakteur, Tweety
Thread Starter
Mitglied seit
15.11.2002
Beiträge
27.132
<p><img src="/images/stories/logos-2015/nvidia-gsync.jpg" width="100" height="100" alt="nvidia gsync" style="margin: 10px; float: left;" />In der vergangenen Woche tauchten erste Hinweise darauf auf, dass NVIDIAs G-Sync-Technologie auch ohne G-Sync-Modul funktionieren solle. Die Zusatzhardware würde nur als eine Art DRM-System verwendet, rein technische aber würde G-Sync die gleichen Funktionen verwenden, wie Adaptive Sync oder FreeSync des DisplayPort-Standards in der Version 1.2. <a href="index.php/news/hardware/monitore/33795-das-sind-die-freesync-modelle-der-ces-2015.html" target="_self">Auf der CES stellten zahlreiche Hersteller ihre ersten FreeSync-Monitore vor</a>, die ab März im Handel erhältlich sein sollen.</p>
<p>Eigene Tests mit einem Philips 288P6LJEB zeigten aber nicht...<br /><br /><a href="/index.php/news/hardware/grafikkarten/34088-g-sync-ohne-zusatzmodul-auf-manchen-notebooks-mit-embedded-displayport-.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
"Bleibt noch die Frage, ob sich eine Umsetzung von G-Sync ohne Zusatzhardware vom mobilen auch auf den Desktop-Bereich umsetzen lässt? Die Antwort ist vorerst nein!" Also das ist zum einen falsch und zum anderen wüsste ich gerne wer diese Antwort auf welcher Basis gegeben hat.

Hier haben ein paar Jungs vor 2 Jahren schon ein eDP-Display an einen PC angeschlossen:
News Bestätigt: GSync als grosser Bluff entlarvt - Nvidia nutzt AdaptiveSync der VESA für GSync - Seite 2

Gamestar hat das richtig beschrieben in dem Artikel:
Nvidia G-Sync - Diskussionen um die Notwendigkeit´des Monitor-Moduls - News - GameStar.de
 
Naja Nvidia war halt zuerst da & hat den Scaler als G-Sync verkauft. Da AdaptiveSync dieses nun von Hause aus mitbringt, scheint keine zusätzliche Hardware mehr notwendig zu sein & alle Monitore G-Sync fähig. Es wird halt nur nicht unterstützt.
 
Nein Nvidia war nicht zuerst da - eDP war zuerst von der VESA spezifiziert worden und wird seit Jahren in Notebooks verbaut. Nun geht Adaptives Sync mit Nvidia GTX980m ohne ein GSync-Modul mit Notebooks die ein eDP habe. Daraus hat Nvidia die Spezifikationen und sich dann überlegt was man wohl machen könnte um AMD aus einem fertig spezifizierten Standard auszuschließen. Dann hat Nvidia ein DRM-Modul erfunden um damit Kohle zu machen, was andere seit Jahren kostenlos verbauen. Denn eDP war vorgesehen für die neuen Monitore mit hohen Auflösungen und im Juni 2015 wäre der Zug abgefahren gewesen denn alle neuen Geräte verbinden nun mit eDP anstatt LVDM das Panel intern. Nur deshalb gibt es neue Scaler, die eben auch die höheren Bandbreiten von eDP in höhere Auflösungen umsetzen. Dieser Transit findet nun schon seit einigen Jahren statt, kommt jetzt aber im Consumer und Gamer Markt an.
 
Zuletzt bearbeitet:
Autsch, ich glaube 2015 wird hart für NV mit so vielen Marketing Lügen. Ich warte ja nur drauf dass sie Mitteilen dass Adaptive Sync nichts anderes ist als der DP 1.3 Standard. Wie Complicated schon sagte, NV war hier nicht der erste. Physix ist ja nunmal auch keine Begründung für eine NV Karte. Ich wäre ja auch alles andere als Unzufieden gewesen wenn man eine GTX 970 mit 3,5GB Beworben hätte, denn jeder der 256bit SI rechnen kann, wusste eigentlich dass die 4GB nicht voll anbindbar sein können.. Dass nun 512MB nur auf 32 Bit laufen ist eigentlich eben Kundenverarsche. Hier Ebenso. Nvidia sollte nicht so Großkotzig sein, sie sind NICHT Intel und können sich so etwas nicht erlauben
 
Ich hab schon vor einem Jahr gesagt das ich nicht verstehe, warum es dieses Modul überhaupt gibt.
Und jetzt wissen wir es eine ART DRM Scheiße um den Leuten teure Monitore anzubieten.
Und dann sagen sie auch noch sie hätten etwas ganz neues und nie dagewesenes produziert.
Nvidia fällt dieses Marketing jetzt ziemlich auf die Füße.

Wie sagte Petersen doch gleich: " Never Say Never" Very Very unlikely. Und jetzt ein paar Tage später tritt das unlikely ein, eben bei Lapotopmonitoren ohne G-sync Modul.
Wie kann sich dieser Vollheini da eigentlich hinstellen und sowas sagen?

Leitet Nvidia ihre Marketingabteilung mit den gekündigten AMD Marketingmenschen?
So schlechtes Marketing von NV hat man imho lange nicht mehr gesehen und das jetzt in schon 2 Fällen.

G-sync und die 4GB der GTX 970 alles mehr oder weniger nur Lügen.
 
Zuletzt bearbeitet:
Also ist die Möglichkeit die Frametimes zu variieren schon längst Teil des eDP Standards?
Cool, dann bekommt mein Surface vieleicht auch irgendwann freesync :d
 
Der zusätzliche Speicher in der g-Sync Hardware verhindert, dass das Display bei sehr niedrigen Wiederholraten anfängt zu flackern.
 
Ahja. So ein 4K-Bild mit 10 Bit Farbtiefe je Kanal hat aber nur 32 MB unkomprimiert. Für was sind die anderen 736 MB zuständig?
 
Autsch, ich glaube 2015 wird hart für NV mit so vielen Marketing Lügen. Ich warte ja nur drauf dass sie Mitteilen dass Adaptive Sync nichts anderes ist als der DP 1.3 Standard. Wie Complicated schon sagte, NV war hier nicht der erste. Physix ist ja nunmal auch keine Begründung für eine NV Karte. Ich wäre ja auch alles andere als Unzufieden gewesen wenn man eine GTX 970 mit 3,5GB Beworben hätte, denn jeder der 256bit SI rechnen kann, wusste eigentlich dass die 4GB nicht voll anbindbar sein können.. Dass nun 512MB nur auf 32 Bit laufen ist eigentlich eben Kundenverarsche. Hier Ebenso. Nvidia sollte nicht so Großkotzig sein, sie sind NICHT Intel und können sich so etwas nicht erlauben
Habe noch nie ein 512MB GDDR5 Speicherchip mit 256Bit Speicherinterface gesehen, du?


Ich hab schon vor einem Jahr gesagt das ich nicht verstehe, warum es dieses Modul überhaupt gibt.
Und jetzt wissen wir es eine ART DRM Scheiße um den Leuten teure Monitore anzubieten.
Und dann sagen sie auch noch sie hätten etwas ganz neues und nie dagewesenes produziert.
Nvidia fällt dieses Marketing jetzt ziemlich auf die Füße.

Wie sagte Petersen doch gleich: " Never Say Never" Very Very unlikely. Und jetzt ein paar Tage später tritt das unlikely ein, eben bei Lapotopmonitoren ohne G-sync Modul.
Wie kann sich dieser Vollheini da eigentlich hinstellen und sowas sagen?

Leitet Nvidia ihre Marketingabteilung mit den gekündigten AMD Marketingmenschen?
So schlechtes Marketing von NV hat man imho lange nicht mehr gesehen und das jetzt in schon 2 Fällen.

G-sync und die 4GB der GTX 970 alles mehr oder weniger nur Lügen.
Ist den jetzt schon eindeutig bewiesen das (Desktop) 'G-Sync' und (Mobile) 'G-Sync' im Notebook ein und das selbe ist samt identischem Funktionsumfang?
 
Ich warte ja nur drauf dass sie Mitteilen dass G-Sync nichts anderes ist als der DP 1.3 Standard.
Haben sie schon, wenn auch versteckt: http://www.geforce.com/sites/default/files-world/attachments/GEFORCE-G-SYNC-Performance_Chart.jpg
After G-SYNC DIY KIT modification : DisplayPort only
Ich hab schon vor einem Jahr gesagt das ich nicht verstehe, warum es dieses Modul überhaupt gibt. Und jetzt wissen wir es eine ART DRM Scheiße um den Leuten teure Monitore anzubieten.
Das DRM-Zeugs kommt wohl eher daher das die eDP-TCONs den Input im Lappy unverschlüsselt bekommen und daher nix mit normalem DP-Input anfangen können. Daher muss ein Dekoder vorgeschaltet werden, um das TCON ordentlich zu füttern.
DP663 – 4 Lane eDP 1.3 PSR Tcon | Parade Technologies, Ltd. – Innovative Silicon for the new high-speed digital display interface -> wird im Mac verbaut und sollte dort schon heute nutzbar sein!?
Wie kann sich dieser Vollheini da eigentlich hinstellen und sowas sagen?
Ich kenn da jemanden der Bulldozer als beste CPU aller Zeiten anpries.....^^
Also ist die Möglichkeit die Frametimes zu variieren schon längst Teil des eDP Standards? Cool, dann bekommt mein Surface vieleicht auch irgendwann freesync :d
Surface Pro 3 sollte es schon beherrschen...
Ist denn jetzt schon eindeutig bewiesen das (Desktop) 'G-Sync' und (Mobile) 'G-Sync' im Notebook ein und das selbe ist samt identischem Funktionsumfang?
Sieht aus wie Fisch, riecht wie Fisch -> Ngreedia sagt es ist Katze, aber ich denke es ist Fisch^^
 
Sieht aus wie Fisch, riecht wie Fisch -> Ngreedia sagt es ist Katze, aber ich denke es ist Fisch^^
Naja eigentlich völlig Wurst ob Fisch oder Katze, die Hauptsache es funktioniert und wenn möglich auch auf 'älteren' Notebooks mit eDP Display bspw. meinem 120Hz LG :d
 
Autsch, ich glaube 2015 wird hart für NV mit so vielen Marketing Lügen.

Toll, die Radeon R9 295x2 ist ,z.B., auch eine Marketinglüge, aber entweder will das keiner wissen oder es wissen nur die wenigsten. Diese Karte wird mit 8 GB Speicher beworben. Das ist zwar faktisch richtig, jedoch sind es effektiv 2x4 GB. In einem Dual-GPU System sind eben 2x4 nicht gleich 8.
 
Toll, die Radeon R9 295x2 ist ,z.B., auch eine Marketinglüge, aber entweder will das keiner wissen oder es wissen nur die wenigsten. Diese Karte wird mit 8 GB Speicher beworben. Das ist zwar faktisch richtig, jedoch sind es effektiv 2x4 GB. In einem Dual-GPU System sind eben 2x4 nicht gleich 8.
Du hast zwar recht, aber das ist "normal"...
Als käufer geht man in der Regel davon aus dass die 8Gb sich bei Crossfire halbieren - so wie man auch davon ausgeht dass die gesamten 4Gb Vram einer Einzekarte auch gleich schnell angebunden sind - Beides war "schon immer" so.
Außerdem kann man für bestimmte Anwendungen wie GPU-Computing (eben immer wenn man CF nicht nutzt) die 8Gb auch getrennt ansprechen, wenn ich mich nicht irre.
 
Zuletzt bearbeitet:
Ja das weiß ich, das war ja auch nur ein Beispiel. Marketinglügen gibt es zu Hauf, von jedem Hersteller, aber nur die wenigsten werden bemerkt, oder es interessiert ganz einfach keinen.

Es ist schon was anderes wenn man zwar mit falschen Sachen wirbt, es dann aber im "kleingedruckten" richtig stellt! Das ist bei CF/SLI der Fall - Bei der GTX 970 hat NV letzteres aber nicht gemacht. Sogar den Reviewern hat man falsche Informationen gegeben.
 
Toll, die Radeon R9 295x2 ist ,z.B., auch eine Marketinglüge, aber entweder will das keiner wissen oder es wissen nur die wenigsten. Diese Karte wird mit 8 GB Speicher beworben. Das ist zwar faktisch richtig, jedoch sind es effektiv 2x4 GB. In einem Dual-GPU System sind eben 2x4 nicht gleich 8.

Bis dato noch richtig, aber wenn die Aussage unten wahr ist und kein Marketinggeblubber dann ist spät. mit Windows 10 / Mantle das anders:

Ultimately the point is that gamers believe that two 4GB cards can’t possibly give you the 8GB of useful memory. That may have been true for the last 25 years of PC gaming, but thats not true with Mantle and its not true with the low overhead APIs that follow in Mantle’s footsteps. – @Thracks (Robert Hallock, AMD)
 
Beim XMG U702 sollte eins der Displays hier verbaut sein LCD Panel Advanced Search - Panelook.com
Den geleakten Treiber aufspielen und testen :)
Da tut sich bei mir nichts, ob ich den "Gamenab.net Unified 347.25 Driver Install" oder "ASUS Nordic tech-leaked 346.87 Driver Install" Treiber mit modifizierter inf installiere, zeigt bei mir nichts G-Sync mäßiges an?! Notebook mit eDP sowie 980M und los gehts, so einfach ist es dann scheinbar doch nicht.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh