Von nVidia zu AMD

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
mit gsync hat man kein input lag mehr.

Das stimmt schlicht nicht...
Das Inputlag ist so wie es ist immernoch identisch... Wie soll es auch anders sein? Das Frame benötigt immernoch eine gewisse Zeit um berechnet zu werden. Auch steigt nach wie vor die Verzögerung bei Verwendung von MGPU Systemen und Profilen, die auf den AFR Rendermodus setzen...
Was du mit G-Sync nicht mehr hast ist Tearing. Und du hast bei mehr FPS den Vorteil, dass der Monitor dynamisch mit den Hz hin und her geht, eben anhand der FPS.
Im Vergleich zu VSync kann G-Sync durchaus punkten... Denn es fällt der "Zwang" weg, die FPS Rate so hoch zu halten, wie der Monitor es kann.

G-Sync für Arme wäre es, wenn man sowieso genügend FPS hat, die Hz Zahl des Monitors entsprechend einzustellen, wie es gerade passt (also je nach dem für welches Game), das lässt sich bei nem 120/144Hz Monitor idR bewerkstelligen. Also auch 90 oder 110 oder was weis des ich was. Dann dreht man VSync ein, schaltet Tripplebuffering ein und dreht ein Framelimit auf 1-2 FPS unter der Hz Zahl -> siehe da, Inputlag auf ein Minimum reduziert, und läuft äußerst geschmeidig. Einziger Nachteil ist nach wie vor, spielst du Spiele, wo die FPS Rate stark von Szene zu Szene schwankt, wirst du mit dieser Methode schlicht nicht glücklich... In Level A mal 70 FPS und in Level B vielleicht 120 FPS heist, dass du entweder nachjustieren musst für Level B oder du verschenkst in Level B bei gleichen Settings wie Level A einfach 50 FPS im Schnitt... -> da G-Sync hier dynamisch agiert, muss man auch nicht nachjustieren.

Unterm Strich ist G-Sync/FreeSync aber auch "nur" ein VSync mit dynamischer Anpassung der Hz an die FPS... Also nicht wirklich viel Zauberei ;)
Dem geschulten und empfindlichen Auge wird aber genau so ein starker Framedrop von sagen wir 120 FPS/Hz syncron auf sagen wir 40 oder 60 auffallen... Einfach weil sich binnen weniger Wimpernschläge die Frametime drastisch verschlechtert. Nicht das es nicht immernoch "flüssig" wäre, nein der Unterschied ist das Problem...
 
kurze frage. was hab ich von gsync?

unter 60fps ist die steuerung träge. mit gsync auch oder nicht?

Schon mal ausprobiert? Nein gerade bei niederen fps kommt der Effekt erst so richtig.

- - - Updated - - -

Das stimmt schlicht nicht...
Das Inputlag ist so wie es ist immernoch identisch... Wie soll es auch anders sein? Das Frame benötigt immernoch eine gewisse Zeit um berechnet zu werden. Auch steigt nach wie vor die Verzögerung bei Verwendung von MGPU Systemen und Profilen, die auf den AFR Rendermodus setzen...
Was du mit G-Sync nicht mehr hast ist Tearing. Und du hast bei mehr FPS den Vorteil, dass der Monitor dynamisch mit den Hz hin und her geht, eben anhand der FPS.
Im Vergleich zu VSync kann G-Sync durchaus punkten... Denn es fällt der "Zwang" weg, die FPS Rate so hoch zu halten, wie der Monitor es kann.

G-Sync für Arme wäre es, wenn man sowieso genügend FPS hat, die Hz Zahl des Monitors entsprechend einzustellen, wie es gerade passt (also je nach dem für welches Game), das lässt sich bei nem 120/144Hz Monitor idR bewerkstelligen. Also auch 90 oder 110 oder was weis des ich was. Dann dreht man VSync ein, schaltet Tripplebuffering ein und dreht ein Framelimit auf 1-2 FPS unter der Hz Zahl -> siehe da, Inputlag auf ein Minimum reduziert, und läuft äußerst geschmeidig. Einziger Nachteil ist nach wie vor, spielst du Spiele, wo die FPS Rate stark von Szene zu Szene schwankt, wirst du mit dieser Methode schlicht nicht glücklich... In Level A mal 70 FPS und in Level B vielleicht 120 FPS heist, dass du entweder nachjustieren musst für Level B oder du verschenkst in Level B bei gleichen Settings wie Level A einfach 50 FPS im Schnitt... -> da G-Sync hier dynamisch agiert, muss man auch nicht nachjustieren.

Unterm Strich ist G-Sync/FreeSync aber auch "nur" ein VSync mit dynamischer Anpassung der Hz an die FPS... Also nicht wirklich viel Zauberei ;)
Dem geschulten und empfindlichen Auge wird aber genau so ein starker Framedrop von sagen wir 120 FPS/Hz syncron auf sagen wir 40 oder 60 auffallen... Einfach weil sich binnen weniger Wimpernschläge die Frametime drastisch verschlechtert. Nicht das es nicht immernoch "flüssig" wäre, nein der Unterschied ist das Problem...

Es gibt Beispiele im internet wo das genau erklärt wird.

- - - Updated - - -

Ich muss auch sagen das die 980 derzeit das Optimum ist.
Die 780 Ti hat zu wenig VRAM und die Titan Black ist preislich einfach keine Option.

Ich bin mit meiner 290X auch sehr zufrieden, obwohl ich die Jahre davor nur Nvidia Karten hatte.

+1: ehrlich währt am längsten
 
Für was braucht man da Beispiele? Auch ein Beispiel kann sich über die technischen Gegebenheiten nicht hinwegsetzen... Ihr immer mit dieser (aus meiner Sicht) verquerten marketing Sichtweise...
 
Technik hin oder her. Man muss das mal einfach ausprobiert haben. Hätte den Unterschied nie geglaubt. Aber es gibt ja genügend Tests die das auch zeigen.
 
Wie es sich anfühlt, kann jeder wie oben beschrieben nachstellen... Es fehlt einzig die Dynamik. Aber das ist auch primär nicht wirklich von Relevanz beim Thema Feeling...
Unterm Strich ist das aus meiner Sicht alles nur eine Geldfrage. Wenn man bereit ist, das Geld dafür auszugeben, wird man damit glücklich. Wenn nicht? Muss man halt ohne leben.
 
Ein 144Hz monitor ist entsprechend potente Hardware vorausgesetzt auch schon ein Highlight... Für mich zumindest. Bei den 200€ die ich dafür gebraucht ausgegeben habe, hab ich mir ja schon an den Kopf gepackt. Aber 800€ für z.B. nen Swift? Ne ist klar :d
 
Innovationen sind halt teuer. Aber der Monitor bei einem PC ist das was bei einer HIFI-Anlage die Lautsprecher sind.
Es gibt Leute die haben super CD-Player, super Verstärker mit xxxWatt aber billige Boxen. Denen ist auch nicht zu helfen.
Aber man kann sich ja an den Werten aufg......
Was helfen mir geile CF Gespanne wenn ich nur einen durchschnittlichen FHD Monitor dranhabe? Das ist mit Kanonen auf Spatzen geschossen. Und wenn ich im Hinblick auf 4K investieren dann muss man 1-2 Generationen der GPUs abwarten.
 
Der Preis ist wohl der Grund wieso Gsync kaum eine breite Masse anspricht. Man muss nicht gleich den Swift nehmen, aber auch der günstigste Gsync moni kostet immernoch 420 Tacken: http://geizhals.de/aoc-g2460pg-a1132957.html

Ich bin echt gespannt ob Freesync genau so gut funktionieren wird - ohne extra Hardwaremodul wie bei NV.

Ob auch neue Grakas notwendig sein werden, wird sich wohl zeigen. Samsung hat in seinen Folien über die (UHD) Monis in 2015 neulichst ja schon konkret AMD Grakas angedeutet. Ich bin mir daher recht sicher dass mindestens die R9 3XXer Generation Freesync unterstützen wird - es muss ja auch nicht zwingend den vollständigen DP1.3 Standard unterstützen.
 
Zuletzt bearbeitet:
Es war halt schon immer teurer einen besonderen Geschmack zu haben ;-)
Bin mal auf die R9 3xxer Reihe gespannt. Die wird bestimmt gut. Aber denke für 4K im CF auch immer noch nicht potent genug.
Zumindest wird NV damit so richtig eingeheizt.
Potente GPUs vorausgesetzt werde ich zu Weihnachten 2016 werde ich wieder aufrüsten, aber da müssen dann auch mehr als 27" Zoll her.
Vor 2 Jahren hatte ich mir mit einem 680er SLI ein 24" Full HD 120Hz (BenQ) System zugelegt, das hat gepasst. Alternativ 27" hatte ich den Asus VG278HE angeschaut. Aber war grausam pixelig da ich auch viele Office mache.

FullHD -> 24", WQHD -> 27", 4k -> 32"/34"
 
Zuletzt bearbeitet:
Es ist definitiv so, dass wenn ein preislich angenehmer 4k Monitor mit FreeSync auf den Markt kommt und die entsprechenden Grafikkarten, dass ich dann garantiert zappelig werde und aufrüste. Aber bis dahin, werde ich mit den 290ern verdammt viel Spaß haben! ;-)
 
Ob auch neue Grakas notwendig sein werden, wird sich wohl zeigen. Samsung hat in seinen Folien über die (UHD) Monis in 2015 neulichst ja schon konkret AMD Grakas angedeutet. Ich bin mir daher recht sicher dass mindestens die R9 3XXer Generation Freesync unterstützen wird - es muss ja auch nicht zwingend den vollständigen DP1.3 Standard unterstützen.

Es muss scheinbar aber mehr wie einen vollständiger DP1.2 Standard sein... Und da gibt es wohl faktisch stand heute nix. Selbst die Tonga GPU scheint da nicht mehr bieten zu können, wenn ich das richtig sehe? Und das ist die mit Abstand neueste AMD Hardware heute am Markt.
Die 300er Karten werden da wohl denke ich Grundvorraussetzung. Auch dürfte aus meiner Sicht zwingend DP1.3 notwendig sein, es sei denn, man schiebt für FreeSync noch irgendwie nen DP1.2A oder sowas hinterher um irgendwas bei potentiellen Monitoren "nachzuspezifizieren". Wie soll sonst der Monitor/PC entscheiden können, ob FreeSync funkt oder nicht?

Was helfen mir geile CF Gespanne wenn ich nur einen durchschnittlichen FHD Monitor dranhabe? Das ist mit Kanonen auf Spatzen geschossen. Und wenn ich im Hinblick auf 4K investieren dann muss man 1-2 Generationen der GPUs abwarten.

Gegenfrage, was nutzt dir G-Sync/FreeSync, UHD oder 5k am Monitor was, wenn du keine GPU Power hast, die es abfedern kann? Oder keine GPUs hast, die es überhaupt beherschen?
Die Argumentation ist wenig zielführend... Da kannst du noch so viel die Vorteile von G-Sync wiederholen. Fakt ist, G-Sync ist stand heute schweine teuer. Ob die AMD Alternative dazu irgendwann mal günstiger wird und weiter verbreitet, wird sich zeigen.

Wie oben schon erwähnt, wer die überwiegende Anzahl der Nachteile eines "durchschnittlichen FHD Monitors" kompensieren will, der nehme heute eben VSync mit Tripplebuffering + Framelimiter. Ist nicht so elegant wie G-Sync, hat eine harte Grenze bei der Hz Zahl des Monitors, aber funktioniert um die wirklichen Nachteile zu kompensieren. GPU Power vorrausgesetzt ;)
 
Es muss scheinbar aber mehr wie einen vollständiger DP1.2 Standard sein... Und da gibt es wohl faktisch stand heute nix. Selbst die Tonga GPU scheint da nicht mehr bieten zu können, wenn ich das richtig sehe? Und das ist die mit Abstand neueste AMD Hardware heute am Markt.
Die 300er Karten werden da wohl denke ich Grundvorraussetzung. Auch dürfte aus meiner Sicht zwingend DP1.3 notwendig sein, es sei denn, man schiebt für FreeSync noch irgendwie nen DP1.2A oder sowas hinterher um irgendwas bei potentiellen Monitoren "nachzuspezifizieren". Wie soll sonst der Monitor/PC entscheiden können, ob FreeSync funkt oder nicht?



Gegenfrage, was nutzt dir G-Sync/FreeSync, UHD oder 5k am Monitor was, wenn du keine GPU Power hast, die es abfedern kann? Oder keine GPUs hast, die es überhaupt beherschen?
Die Argumentation ist wenig zielführend... Da kannst du noch so viel die Vorteile von G-Sync wiederholen. Fakt ist, G-Sync ist stand heute schweine teuer. Ob die AMD Alternative dazu irgendwann mal günstiger wird und weiter verbreitet, wird sich zeigen.

Wie oben schon erwähnt, wer die überwiegende Anzahl der Nachteile eines "durchschnittlichen FHD Monitors" kompensieren will, der nehme heute eben VSync mit Tripplebuffering + Framelimiter. Ist nicht so elegant wie G-Sync, hat eine harte Grenze bei der Hz Zahl des Monitors, aber funktioniert um die wirklichen Nachteile zu kompensieren. GPU Power vorrausgesetzt ;)

Wollte damit nur sage dass für 24" Full HD ein CF der overkill ist und für die 4K Zukunft zu wenig. Also im Prinzip wollte ich dem TE sagen dass warten besser gewesen wäre. Ein 970er hätte gereicht und wäre billiger gewesen. Aber er wollte ja nicht. Aber ausschauen tut es toll.
 
Full HD ein CF der overkill ist

Ohne AA vll

mit AA insbesondere hohes AA nein


es kommt immer auf die settings, spiel und ansprüche an die min fps des GPU limits an
 
Zuletzt bearbeitet:
Stimme absolut zu, ich habe zwei Titanen und spiele zur Zeit in FHD, Leistung reicht mir persönlich lange nicht.
 
Es muss scheinbar aber mehr wie einen vollständiger DP1.2 Standard sein... Und da gibt es wohl faktisch stand heute nix. Selbst die Tonga GPU scheint da nicht mehr bieten zu können, wenn ich das richtig sehe? Und das ist die mit Abstand neueste AMD Hardware heute am Markt.

Um Freesync zu nutzen ist meiens Verständnis nach aber weder höhere Auflösung, noch höhere Bildrate notwendig als DP 1.2 leisten kann notwendig, oder?
Es muss nur die Information über die Frametime (oder wie sich diese Zeitverzögerungen zwischen den Einzelbildern nennt) übertragenw erden können. Ich halte es nicht für ausgerschlossen dass z.B. Tonga das schon unterstützt und nur per Firmware freigeschaltet werden muss - so wie es ja angeblich schon einen Monitor im verkauf gibt (weiss man jetzt eigentlich welchen?) der Freesync per Firmware nachträglich erhalten soll/wird.
 
Zuletzt bearbeitet:
Na denn Prost ;-) wo reicht Dir eine 970er nicht in Full-HD? Es sei denn Du spieltst 3D. Das AA Feature ist total überbewertet. Bei 27" in WQHD braucht man es eigentlich nich tmer.
 
Jungens, es gibt die Option im Sapphire Trixx die Spannung festzusetzen, also immer dieselbe Spannung anliegen zu lassen. Sollte ich diese Option aktivieren, ermöglicht diese bessere OC Ergebnisse?
 
Na denn Prost ;-) wo reicht Dir eine 970er nicht in Full-HD? Es sei denn Du spieltst 3D. Das AA Feature ist total überbewertet. Bei 27" in WQHD braucht man es eigentlich nich tmer.
Da gebe ich Dir mal ausnahmsweise Recht.
 
Na denn Prost ;-) wo reicht Dir eine 970er nicht in Full-HD? Es sei denn Du spieltst 3D. Das AA Feature ist total überbewertet. Bei 27" in WQHD braucht man es eigentlich nich tmer.

FC4. keine chance. dafür sioeht das spiel bei niedrigeren settings nicht viel anderster aus als auf ultra. bzw. mit HBAO, MSAA oder TXAA und die Nvidia Felle

ich hab das mittlere AO, nur SMAA und die nvidia felle aus. schatten auf sehr hoch statt ultra oder nvidia schatten. auflösung 1920x1080. damit bleib ich meist über 60fps.

wenn das cpu limit greif bin ich aber machtlos
 
Zuletzt bearbeitet:
FreeSync kannst du dir sowieso abschminken, dann dafür wird DP1.3 notwendig sein, wenn ich das richtig sehe... Das ist wie HDMI 2.0 im entfernteren Sinne. Schön das der Anschluss irgendwelche Features inkludiert hat, aber du brauchst auch die Hardware dafür ;)

Das mit DP1.3 stimmt nicht, und seine 290 sind laut AMD schon fit für Freesync
 
Ah, cool! Danke für die Info! Perfekt :-)

Scheint also so, als käme es auf den Monitor an, der muss DP 1.3 haben, richtig?
 
Jungens, es gibt die Option im Sapphire Trixx die Spannung festzusetzen, also immer dieselbe Spannung anliegen zu lassen. Sollte ich diese Option aktivieren, ermöglicht diese bessere OC Ergebnisse?

Jemand dazu eine Antwort? :-)
Besser Voltage adaptiv oder fest?
 
Freesync ist bestandteil von DP1.2a, allerdings ein freiwilliges.
Heist der Monitorhersteller muss schon entsprechende Hardware verbauen.

DP1.3 ist eher was für die Zukunft, er ist nämlich schon für 8k bereit oder glaube ich auch für 4k 120Hz.
Letzteres noch mit Freesync wenn da Nvidia nicht schon vorlegt und trotzdem sich gegen sperrt :hmm:
 
Ich dachte eigentlich, dass es erst im nächsten DP Standard drin wäre... Wenn es da noch einen 1.2a Standard gibt und die Grafikkarten es können um so besser ;)
Fehlen nur noch die Monitore :fresse:

Wirbt AMD eigentlich mit DP 1.2a? Ich meine mich da nur dran zu erinnern, dass überall die Rede von 1.2 ist... aber nicht 1.2a.
 
Bin grad mobil unterwegs deswegen sehe ich nicht welche Hardware verbaut ist.
Kann mich mal wer mit einer Sapphire 290x ref Design anschreiben?

Danke
 
Sagt mal, was muss ich tun, damit ich bei CrossFire mit der zweiten also sekundären Karte die Bildschirmausgabe hin bekomme? Leider bleibt der Bildschirm immer schwarz wenn ich an der sekundären Karte einstecke, mit der primären geht das ohne Probleme. Ob mit oder ohne ULPS macht keinen Unterschied
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh