AMD Prozessor kaufen nur um FreeSync zu nutzen?

kekse

Profi
Thread Starter
Mitglied seit
07.10.2018
Beiträge
21
Hallo! Hoffe bin im richtigen Bereich mit der Frage :d

Ich besitze zurzeit eine GTX 1080TI und bin auf der Suche nach einem guten Monitor und einem Prozessor. Für den Prozessor habe ich ein Budget von 400 Euro, also perfekt für einen 8700K von Intel.
Ich persönlich möchte aber das Konzept von G-Sync auf keinem Fall unterstützen, möchte aber meinen GTX1080Ti behalten, da es nichts vergleichbares von AMD gibt.

Nun habe ich gelesen gehabt, dass es möglich ist FreeSync mit einem Ryzen Prozessor auf einer GTX1080Ti zu nutzen und habe mir deshalb gedacht, dass ich mir auch dementsprechend den 2700x mit einem FreeSync Monitor kaufe.
Das ist nun ein großer Schritt für mich, vorallem da ich nun zum zweiten Mal eigene Hardware für den PC selber zusammenstelle und kaufen möchte, deshalb wollte ich hier um Rat bitten und um Feedback, ob dies gut Durchdacht ist.

Habe gelesen, dass der Leistungsunterschied zwischen dem 8700K und dem 2700X nicht zu stark ist. Ich habe außerdem vor, den AMD Prozessor dann auch zu übertakten.

Liebe grüße
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Egal welche CPU, für freesync brauchst du eine AMD GPU.

Wo hast du das den gelesen?
 
Das geht mit dem R7 2700X nicht dafür braucht es einen R5 2500G.


Alle Ryzen außer R3 2300G und R5 2500G haben keine iGPU die ist aber nötig. Es ist also egal ob I7 8700K oder R7 2700X FreeSync geht mit keinem.

Da musst du eine andere gpu kaufen Vega 64 und drunter.

Gesendet von meinem RNE-L21 mit Tapatalk
 
Es gibt nur 2200g und 2400g.
 
Achso der Trick via AMD APU, selbst wenn das wirklich geht, macht es wohl mit einer 1080ti kaum Sinn, weil die CPU Leistung nicht mit einem 2700X vergleichbar ist.
 
oder als zweit grafikkarte eine kleine AMD karte einbauen, die die Primäre Bildausgabe macht...
Aber extra dafür würd ich das nicht kaufen, denn es ist nur noch eine frage der zeit, wielange das noch so funktioniert.
 
Dann hat man zwar Freesync, aber die zusätzliche Latenz der Framebuffer Copy
 
Was kann den Nvidia dagegen machen? Es werden doch Standard Windows mittel dafür verwendet um die Bildausgabe umzuleiten.
 
was die dagegen machen können? z.B. verhindern, dass die Frames über PCIe in einen "fremden" Speicher ausgelagert werden...oder ähnlich wie Intel damals beim non Z Overcklocking in verbdinung mit Win10...nvidia könnte MS dazu verdonnern das per patch zu unterbinden wenn neben nVidia auch eine AMD GPU im system gefunden wird...
 
oder als zweit grafikkarte eine kleine AMD karte einbauen, die die Primäre Bildausgabe macht...

Wenn man schon so weit ist, also einen Aufpreis für Freesync zahlt - warum dann nicht direkt noch den Rest für Gsync investieren und fertig ist. Da kann man sich zumindest sicher sein, das Sync auch dauerhaft läuft. Davon mal abgesehn: 2 dGPUs laufen wohl nicht sooo einfach wie ne APU und dGPU mit dem Trick.

Auf die Schnelle hab ich als kleinste AMD Karte, die Freesync beherrscht eine HD 7790 gefunden - aber das nur am Rande.
 
@AssassinWarlord
Du überschätzt den Einfluss von nvidia auf Microsoft aber gewaltig. "verdonnern" ... Ja genau :lol:
 
Wenn man schon so weit ist, also einen Aufpreis für Freesync zahlt - warum dann nicht direkt noch den Rest für Gsync investieren und fertig ist.
Also auf solche Tricks würde ich mich auch nicht dauerhaft verlassen. Ich habe die Hoffnung auf AMD-GPUs noch nicht ganz aufgegeben und wenn ich mir nicht vor 2 Jahren schon eine 1070 gekauft hätte, fände ich eine Vega 64 jetzt durchaus interessant.
Ich möchte mir einfach die Möglichkeit offenhalten, auch andere GPU-Hersteller einsetzen zu können. Intel will ja wohl die nächsten Jahre z.B. auch bei den GPUs wieder größer einsteigen. Man weiß zwar nicht, was daraus werden wird, aber G-Sync werden die definitiv nicht können, aber wohl ziemlich sicher Free-Sync.
Wenn ich mir jetzt einen G-Sync-Monitor kaufe, bezahle ich die 200-300€ G-Sync-Aufpreis und wenn ich beim nächsten GPU-Wechsel dann doch etwas nicht-NVidia haben will, wird das teuer bezahlte Feature auf einmal gänzlich unbrauchbar. Das ist ja wohl auch eines der Ziele von NVidia mit G-Sync Grafikkarten und Monitoren die Leute in einen Vendor-Lock-in zu treiben. Wenn du dann schon einen teuren G-Sync-Monitor hast, wirst du beim nächsten GPU-Kauf gleich fünfmal weniger zu was anderem als NVidia greifen.
 
@AssassinWarlord
Du überschätzt den Einfluss von nvidia auf Microsoft aber gewaltig. "verdonnern" ... Ja genau :lol:

Microsoft darf Nvidia sicher nicht daran behindern ihr Geschäftsmodell am Markt durch zu setzen, das würde riesen Ärger geben, denke man wird sich dort außergerichtlich einigen.
 
Ich bin generell auch kein Freund vom Vendor-Lock-In. Das Problem hast du aber mit Freesync gleichermaßen. Zumindest solange, wie es keinen dritten Hersteller auf dem Markt gibt (z.B. Intel). Und ganz ehrlich ne dGPU von Intel glaube ich erst wenn ich sie sehe. Hinterher gibt das Groschengrab Nr.2 nach Larrabee und der Consumer sieht davon schon wieder nix.

Bleibt festzuhalten das der TE sich besser einfach eine Cpu seiner Wahl und einen Gsync Monitor holt oder komplett ohne Sync leben muss.
 
@Holzmann
Das bestreitet auch keiner, es wurde nur behauptet nvidia könnte MS dazu verdonnern ein Windows Feature zu deaktivieren. Was nvidia mit ihrem Treiber macht is deren Bier, genauso wie andersherum halt auch...
 
Das Problem hast du aber mit Freesync gleichermaßen. Zumindest solange, wie es keinen dritten Hersteller auf dem Markt gibt (z.B. Intel).
Nur Freesync hat überhaupt erstmal das Potential auch von anderen Anbietern genutzt zu werden, das ist bei G-Sync gar nicht möglich, weil NVidia das nicht hergibt.
Afaik können z.B. auch die neueren iGPUs von Intel Freesync? Bleibt natürlich die Frage, wofür man xSync bei einer GPU braucht, die ohnehin nicht zum Zocken taugt.

Die Xbox soll mit einem der letzten Updates wohl auch Freesync können (ok, ist ja auch eine AMD-APU drin), also kommt Freesync wohl auch langsam bei den Konsolen an. Vielleicht dann auch bald in TVs?

Es bleibt einfach dabei: Freesync kann jeder verwenden (NVidia könnte auch problemlos Freesync unterstützen, wollen die natürlich nur absichtlich nicht), G-Sync wird wohl immer NVidia-only bleiben.
 
@Sir Diablo, wieso war das aber damals bei Intel möglich,die MS regelrecht verdonnerten, das Microcode Update per Windows Update zu verteilen um eben das nonZ OC zu eliminieren?
 
Schade ist es, das es überhaupt G-Sync gibt und nicht eine Technik, worauf alle Hersteller setzen.
 
Schade ist es, das es überhaupt G-Sync gibt und nicht eine Technik, worauf alle Hersteller setzen.
Schade ist es, aber mit Freesync lässt sich eben kein Geld verdienen, mit G-Sync aber sogar einiges.

MMn ist leider aber G-Sync auch die bessere Technik. MMn eigentlich sogar die logische, wie man LC-Displays eigentlich grundsätzlich betreiben sollte. Is halt nur blöd, dass NVidia ein Patent drauf gekriegt hat.
 
Genau genommen sieht ja so aus, beide Ansätze haben Vor- und Nachteile. So ist G-Sync durch die anfallenden Lizenzgebühren für die Monitor-Hersteller (und damit die Käufer) tendenziell teurer als FreeSync, gleichzeitig werden G-Sync-Monitore dafür auch von Nvidia getestet und entsprechen damit denselben Standards, während AMD mit FreeSync primär eine Software-Lösung zur Verfügung stellt und ein weniger genaues Auge auf die passende Hardware wirft.

Das hat auch zur Folge, dass FreeSync je nach Monitor in unterschiedlichen Hertz-Bereichen funktioniert. Während G-Sync aktuell stets zwischen 30 Hertz und maximal 144 Hertz arbeitet. Generell gibt AMD einen möglichen Bereich von 9 bis 240 Hertz an, wobei das allerdings sehr wahrscheinlich von keinem FreeSync-Monitor komplett abgedeckt werden wird.

In einer offiziellen FreeSync-Präsentation hat AMD außerdem mehrfach einen weiteren (vermeintlichen) Unterschied zwischen G-Sync und FreeSync betont: Nvidias Technologie soll demnach durch die Kommunikation zwischen G-Sync-Modul und Monitor einen Leistungsverlust von drei bis fünf Prozent mit sich bringen, während FreeSync keinerlei Einfluss auf die durchschnittlichen fps haben soll.
Zu guter Letzt bleibt noch die Frage, wie sich die Grafikkarte verhalten soll, wenn höhere Bildraten erreicht werden als der Monitor darstellen kann. AMD gibt an, bei FreeSync habe man im Gegensatz zu G-Sync die Wahl, ob die Bildwiederholrate des Monitors in diesem Fall überschritten werden soll oder ob V-Sync aktiviert bleibt und sie nicht überschritten wird.

Der Kampf zw. beiden Systemen ist noch offen und man kann daher sagen, dass sich bisher keiner der beiden Systeme wirklich durchgesetzt hat, Alles in allem sehe ich aber bessere Chancen für freesync.
 
Das muss man auch nicht denn weder FreeSync noch G-Sync sind zwingend notwendig denn 1. Je mehr Hz desto weniger Tearing
Tearing ist aber immernoch da, das stört mich z.B. auch bei 144Hz noch sehr.

Auf 144Hz sind die Bildrisse noch leicht sichtbar aber solange man 144FPS schafft kann man auch V-Sync nutzen. Wenn man den Monitor auf 100Hz stellt reichen 100FPS aus.
Wenn man stabil 144fps oder 100fps schafft. Der Knackpunkt bei beiden Techniken ist aber, dass man das eben nicht schaffen muss, sondern es sich selbst regelt, wenns mal nicht ganz reicht.

Das hat auch zur Folge, dass FreeSync je nach Monitor in unterschiedlichen Hertz-Bereichen funktioniert. Während G-Sync aktuell stets zwischen 30 Hertz und maximal 144 Hertz arbeitet. Generell gibt AMD einen möglichen Bereich von 9 bis 240 Hertz an, wobei das allerdings sehr wahrscheinlich von keinem FreeSync-Monitor komplett abgedeckt werden wird.
G-Sync funktioniert theoretisch afaik von 1-144fps.

Nvidias Technologie soll demnach durch die Kommunikation zwischen G-Sync-Modul und Monitor einen Leistungsverlust von drei bis fünf Prozent mit sich bringen, während FreeSync keinerlei Einfluss auf die durchschnittlichen fps haben soll.
Dafür kann FreeSync nicht Framegenau regeln, G-Sync aber schon.

Zu guter Letzt bleibt noch die Frage, wie sich die Grafikkarte verhalten soll, wenn höhere Bildraten erreicht werden als der Monitor darstellen kann. AMD gibt an, bei FreeSync habe man im Gegensatz zu G-Sync die Wahl, ob die Bildwiederholrate des Monitors in diesem Fall überschritten werden soll oder ob V-Sync aktiviert bleibt und sie nicht überschritten wird.
Ja, ich hab mir da mal ein Tutorial angesehen, und die Einstellungen sind schon wirklich kompliziert, wenn G-Sync wirklich aktiv sein soll. Würde mich also auch nicht wundern, wenn diverse Zocker mit teurem G-Sync-Monitor gar ohne aktives G-Sync zocken, weil die Einstellungen falsch sind.
Ich persönlich brauche ja keine 144fps. So "pro" zocke ich nicht und merke da auch keinen Unterschied mehr. Im Gegenteil, ich habe auch keine Probleme, wenn es mal unter 60fps droppt. Nervig ist nur, dass das mit V-Sync dann halt gleich komplett absackt. Interessant wären beide Techniken für mich daher sowieso eher, wenn die Hardware es nichtmal hinkriegt konstante 60fps zu halten. Mit den Techniken ist es halt auch kein Problem, wenn das Spiel dann mal nur auf 49fps läuft.

Der Kampf zw. beiden Systemen ist noch offen und man kann daher sagen, dass sich bisher keiner der beiden Systeme wirklich durchgesetzt hat, Alles in allem sehe ich aber bessere Chancen für freesync.
Also meine Gamerfreunde setzen leider alle voll auf G-Sync. Ich kenne keinen einzigen, der sich bewusst für FreeSync entschieden hätte.
Also trotz Preis, sehe ich leider G-Sync definitiv vorne. Einem großen Anteil dürfte es aber auch weitgehend einfach nur egal sein. Die die einen neueren Monitor haben, haben hier und da mal FreeSync mitgekauft, nutzen es aber nicht, oder können es gar nicht nutzen, weil sie trotzdem eine NVidia GPU haben.
 
Die haben in der Tat eher 1070+.
Die Monitore aber teilweise schon angeschafft, als sie noch auf 760 oder 970 waren. Ist also alles nicht unbedingt "neu".
 
@Sir Diablo, wieso war das aber damals bei Intel möglich,die MS regelrecht verdonnerten, das Microcode Update per Windows Update zu verteilen um eben das nonZ OC zu eliminieren?

Na das eine ist/war ein Bug, das Andere ist ein offizielles Feature auf dass du sogar via DXGI "zugreifen" kannst, MS wird sicherlich nicht DXGI einstampfen, nur weil es nVidia in den Kram passen könnte :lol:
 
Zuletzt bearbeitet:
Aber warum sollte man auf Freesync verzichten, tut doch auch mit einer Nvidia GPU nicht weh und kostet keinen Aufpreis beim Monitor.

Und falls man es dann doch mal testen will, holt man sich eine gebrauchte Rx550 o.ä. und betreibt den Monitor darüber. Dürfte immer noch günstiger als der Gsync aufschlag sein.
 
Wie wäre es mit einem Ryzen und mit dem gesparten kauft man einen Gsync-Monitor? Der Intel kostet aktuell 450 € (Nur die CPU!).
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh