Radeon RX Vega: AMD stellt Direktvergleich zur GeForce GTX 1080 her

Nö, aber das ist doch inzwischen jedem bekannt wie es hier abläuft. Ich scroll die Seiten nur immer nach Links ab, wenn keine Links da sind, heißt es zu 98% dass nur wieder stupide Argumentiert wird :fresse:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Stimmt, da kullern dann immer noch die Tränen weil es AMD schon lange nicht mehr gibt.
Ist mir ehrlich gesagt völlig wuscht, weswegen du rumheulst. ;)

Unserem Pro scheint entgangen zu sein, dass Nvidia bereits seit Jahren auch abseits von dGPUS für Consumer aktiv ist.
Dummerweise mehr schlecht als recht. ;)

Und was ist an dem Standard so toll? Die Range, die bei 48Hz beginnen kann?
Keine Ahnung, aus welchem Märchenbuch du dein Halbwissen her hast. Aber Adaptive Sync beginnt nicht bei 48 Hz. Das kann deutlich tiefer liegen. Freesync Monitore gibt's zB schon ab 30 Hz. Alles darunter macht eh wenig Sinn. Und das tolle an Adaptive Sync ist, dass es keine proprietäre Hardware benötigt. Im Gegensatz zu G-Sync. ;)

Aus Sicht von Nvidia ist diese Kundenverarsche natürlich ideal, das ist korrekt.
Hab's mal korrigiert. So passt es. In der Tat, G-Sync ist Kundenverarsche. Gut erkannt. ;)
 
Dummerweise mehr schlecht als recht. ;)
Da scheinst du wenig bis gar nichts mitbekommen zu haben.

Keine Ahnung, aus welchem Märchenbuch du dein Halbwissen her hast. Aber Adaptive Sync beginnt nicht bei 48 Hz. Das kann deutlich tiefer liegen. Freesync Monitore gibt's zB schon ab 30 Hz. Alles darunter macht eh wenig Sinn. Und das tolle an Adaptive Sync ist, dass es keine proprietäre Hardware benötigt. Im Gegensatz zu G-Sync. ;)
Wie erklärst du dir dann Modelle wie diesen hier:
Dell SE2717H Preisvergleich Geizhals Deutschland

Hab's mal korrigiert. So passt es. In der Tat, G-Sync ist Kundenverarsche. Gut erkannt. ;)
Merkst du nicht wie lächerlich du dich mit solchen Verleumdungen machst? Was bist du für ein armes Würstchen, das Zitate fälschen muss, weil es nicht argumentieren kann...
Naja, es passt zu dir.
 
Zuletzt bearbeitet:
Jo bei dem Monitor beginnt Freesync erst bei hohen Frequenzen und jetzt? Er sagte kann. Mein Monitor beginnt ab 35 Hz und geht bis 120 Hz. Wow 5 Hz mehr als bei G-sync. Wobei ich das Future gerade sowieso nicht nutzen kann, da ich eine 1070 drin habe.
 
Jo bei dem Monitor beginnt Freesync erst bei hohen Frequenzen und jetzt?
Das "Feature" ist für den Popo. Genauso wie der Standard, der unwissenden Käufern die am Ende schnell enttäuscht sind das Geld aus der Tasche ziehen soll.
35Hz sind schon mal wesentlich besser. Nvidia macht es jedoch richtig und schreibt für G-Sync 30Hz vor. Da gibts dann keine Extrawürste. Zwar ist das teurer, aber immerhin kann sich der Kunde auf das Logo verlassen und muss keine Lotterie eingehen.
 
Das "Feature" ist für den Popo. Genauso wie der Standard, der unwissenden Käufern die am Ende schnell enttäuscht sind das Geld aus der Tasche ziehen soll.
35Hz sind schon mal wesentlich besser. Nvidia macht es jedoch richtig und schreibt für G-Sync 30Hz vor. Da gibts dann keine Extrawürste. Zwar ist das teurer, aber immerhin kann sich der Kunde auf das Logo verlassen und muss keine Lotterie eingehen.

Keine lotterie aber sich bei jeder neunen karte nicht nur beim moni von NV aufs neue abzocken lassen. ;)
 
Zuletzt bearbeitet:
Das "Feature" ist für den Popo. Genauso wie der Standard, der unwissenden Käufern die am Ende schnell enttäuscht sind das Geld aus der Tasche ziehen soll.
35Hz sind schon mal wesentlich besser. Nvidia macht es jedoch richtig und schreibt für G-Sync 30Hz vor. Da gibts dann keine Extrawürste. Zwar ist das teurer, aber immerhin kann sich der Kunde auf das Logo verlassen und muss keine Lotterie eingehen.

Es ist doch egal, ob es 35, 48 oder 60HZ als Minimal Frequenz sind, sowohl adaptive Sync als auch G-Sync beherschen Frame-doubling, sollte die FPS unter die min. Refreshrate fallen, wird das selbe Bild eben mehrfach angezeigt. Wichtig ist nur, dass die max. Refreshrate doppelt so groß ist, wie die minimale ist. Und ja, da gibt es ein paar Monitore, bei denen das nicht so ist. Hier muss man etwas aufpassen und in die Specs schauen!

Da so niedrige FPS im allgemeinen aber sowieso als unspielbar gelten, liegt der Vorteil jetzt wo?


Und ein anderer Punkt, warum die 30Hz von GSync per se nicht besser sein müssen (gilt natürlich auch für Adaptive Sync). Hast du ein Display mit hoher Refreshrate, willst du das die Pixel ihre Farben schnell ändern können und das ist ein Widerspruch zu lange Farben anzeigen.
Wird der Frequenzbereich zu groß, forcierst man so entweder Ghosting im hohen Hz Bereich, weil die Pixel zu träge sind oder Flackern im niedrigen Hz Bereich, weil die Pixel schon ihre Werte verlieren (bleeding). Letzteres hatten übrigens die ersten G-Sync Monitore ;). Wie da aktuell der Stand ist, weiß ich nicht.
 
Echt ermüdend. Egal ob im CPU oder GPU Bereich. Ständig die Gleichen die sich gegenseitig dumm anmachen.
Trefft euch doch alle mal und haut euch gegenseitig schön in die Fresse. :fresse:
Vielleicht kehrt dann hier im Forum Ruhe ein und wir müssen eure seichten Posts nicht mehr ertragen. :rolleyes:
 
So "hart" hätte ich es zwar nicht ausgedrückt, stimme dir aber im Ansatz zu. (erinnere mich noch gut, damals mit der 970er und den damaligen AMD Karten. (3.5GB)
 
So "hart" hätte ich es zwar nicht ausgedrückt, stimme dir aber im Ansatz zu. (erinnere mich noch gut, damals mit der 970er und den damaligen AMD Karten. (3.5GB)

Das waren spaßige Zeiten. Sobald Nvidia genannt wurde war mindestens einer da der auf die 3,5gb angespielt hat.
Oder etwas davor die Ramdebatte um die 770er 2gb. Da waren die Nvidia Jünger ja noch fest davon überzeugt das die 2gb ja noch Jahrzehnte ausreichen werden und 3gb total überflüssig sind.
 
Zwar ist das teurer, aber immerhin kann sich der Kunde auf das Logo verlassen und muss keine Lotterie eingehen.

In meinen Augen ist das keine Lotterie. Sollte man aus irgendwelchen Gründen wirklich ins Klo greifen und es ergibt sich ein Problem bei der Zusammensetzung der Komponenten, dann wird zurückgeschickt. Es schicken alle möglichen Menschen mehrfach Krempel hin und her weil sie entweder gänzlich unwissend oder extrem penibel sind. So tickt die Welt doch heute. Sich vier Fernseher nach hause senden lassen, testen, zurückschicken (natürlich alles kostenlos) und dann das Angebot bei Blödmarkt kaufen.
Lotterie siehst du im Marktplatz, wo Leute ihre "Perlen" verkaufen. Egal ob 5,X GHz oder was weiß ich wie viel MHz GPU.
Meiner Meinung nach sollte man einfach seine GPU so stark dimensionieren, dass man auf Synch Quatsch verzichten kann (ist natürlich schwierig wenn man 4K toll findet).
 
Wird mit Freesync 2 nicht die Range vorgegeben?
Hatte eben gelesen, dass die Maximalfrequenz das 2,5-fache der Minimalfrequenz sein muss.
Startet die Range also bei 30Hz muss Freesync bis mindestens 75Hz funktionieren.
Da man bei 30Hz bzw 30fps allerdings eh nicht mehr wirklich gut spielen kann, braucht man sich mMn auch nicht nach Monitoren umschauen, die dort starten.
Bei 40Hz hätte man dann schonmal bis 100Hz abgedeckt, was schon einiges besser sein sollte.

Und wieso die Technik, laut Hardwareaner dem NVidia-Troll (was hat der hier eigentlich zu suchen?), hier für den Popo sein soll, G-Sync aber scheinbar der heilige Gral ist, muss ich auch nicht verstehen.
Er soll mir mal einen G-Sync Monitor mit einem 144Hz IPS Panel und WQHD Auflösung zeigen...Ach da gibts ja nur noch 5 zur Auswahl...Mensch, der Rest ist TN und VA ist damit gar nicht vorhanden...und die fangen bei dann lächerlichen 690€ an weil G-Sync ja so toll ist.
Bei Freesync gibts ähnlich viele Monitore mit ebenfalls ordentlicher Range und kann dann noch zwischen TN, VA oder IPS wählen und zahle für einen IPS mit 40-144Hz Freesync range knapp über 500€.
Aber scheint völlig für den Popo zu sein.
 
Der dürfte einfach unmnegen Geld haben der Hardwareaner, nur dann könnt ich auch einen oled fernseher und xbox X kaufen
 
Meiner Meinung nach sollte man einfach seine GPU so stark dimensionieren, dass man auf Synch Quatsch verzichten kann (ist natürlich schwierig wenn man 4K toll findet).

Weißt du überhaupt was der Synch "Quatsch" macht?
Es eliminiert Tearing und da kannste so viele FPS haben wie du willst, das geht ohne eine Sync-Methode nicht weg.
 
Ich nehme an er meint damit er verwendet einfach V-Sync und braucht dafür keine eigene Hardware.
Mach ich aktuell auch so.
 
.... oder Nvidia FastSync - kostet nix, geht mit Nvidiahardware & ohne Sync Monitor bei genügend frames kaum einen Tearingeffekt und keinen Inputlag.
 
natürlich hat man über fastsync auch input lag, genau wie mit jeder anderen sync technik auch. es gibt kein sync feature, egal von wem und egal was, das KEIN input lag verursacht, egal wie hoch/gering dieser ist

mag bei vielen spielen egal sein, im professionellen gaming bereich, gerade was FPS angeht spielt das allerdings ne sehr große rolle
 
kaum einen Inputlag gegenüber VSync:

xvxI77U.jpg

https://forums.geforce.com/default/topic/936446/fast-sync-and-maxwell/
 
Zuletzt bearbeitet:
Fastsync ist ne Katastrophe...
Kein Tearing mehr, kaum inputlag aber Stottering aus der Hölle.
Da spiele ich lieber mit V-Sync und begrenze per Framelimiter auf 59FPS --> kein Tearing, kein input lag, kein Stuttering.
 
habe ich andere Erfahrungen gemacht - OK ich spiele aber auch jenseits der 120fps und würde 59fps schon als Augenkrebs fördernd bezeichnen .....
 
Ich weiß nicht, warum ihr immer solche Herstellerfolien postet...

c621fb96b051140c8614992bbb36f716.png


Hier ist Fast Sync plötzlich das langsamste. Es ist halt doch nur eine alte Technik, die mehr oder weniger schon in OpenGL drin ist. Und es würde doch auch keinen Sinn ergeben, wenn es tatsächlich so gut funktionieren würde, wie angegeben, denn dann wäre ja G-Sync sinnlos, und Nvidia könnte einfach Adaptive Sync supporten und kostenlos integrieren.

Edit: Wenn die Bilder verzögert werden, damit sie auf die Refresh-Rate des Monitors passen, entstehen auch Mikroruckler. Da bringt es dann nichts, wenn dafür kein Tearing mehr da ist...
 
Zuletzt bearbeitet:
Meiner Meinung nach sollte man einfach seine GPU so stark dimensionieren, dass man auf Synch Quatsch verzichten kann (ist natürlich schwierig wenn man 4K toll findet).

Leider nicht möglich bei dem Müll den man als PC Spieler vorgesetzt bekommt, zumindest wenn man nen 120Hz+ Monitor + mindestens 1440p hat :grrr:
 
@Overclocker - und wo ist da VSync Only in deinem Vergleich? Fastsync ist einzig und allein eine Alternative zu VSync - Nicht für Freesync nicht für Gsync, und funktioniert auch nur wenn man genügend FPS liefert - sprich bei einem 120HZ Monitor müssen es merh als 120fps sein sonst funktioniert es nicht .....
 
.... oder Nvidia FastSync - kostet nix, geht mit Nvidiahardware & ohne Sync Monitor bei genügend frames kaum einen Tearingeffekt und keinen Inputlag.

Fast Sync ist leicht verbessertes Triple Buffering also nur hilfreich wenn man mehr FPS hat als der Monitor Refresh Rate hat.

Die einzige sinnvolle Sync Technik ist meiner Meinung nach Freesync/Gsync aka Adaptive Sync wie es offiziell heißt. (nicht zu verwechseln mit Nvidias Adpative VSync)

Nvidia Fast Sync Better Than G-Sync and V-Sync? - YouTube
Schöne Erklärung von einer neutraleren Quelle zu allen Sync Varianten.
Hier sieht man auch wunderschön, dass Fast Sync einfach nur Triple Buffering ist ;)

Verdammt wird Zeit dass Vega erscheint, hier gibts ja nurnoch Offtopic :fresse2:
 
Zuletzt bearbeitet:
habe ich andere Erfahrungen gemacht - OK ich spiele aber auch jenseits der 120fps und würde 59fps schon als Augenkrebs fördernd bezeichnen .....

Aha...gleich mal wieder völlig übertreiben. Aber gut, das kann ich auch, denn dein TN Monitor würde bei mir das gleiche verursachen.
Ich besitze seit ein paar Jahren einen Dell IPS Bildschirm und der hat nunmal 60Hz.
Ich kaufe mir keine neue Harware, wenn die jetzige noch einwandfrei läuft.
Fastsync habe ich getestet und das auch bei 80-100fps in BF1. Es ist ne Krankheit! Es ruckelt ohne Ende!
Da spiele ich lieber mit Tearing als mit dem gestotter bei dem mir auch 120fps oder mehr nichts mehr bringen.
 
Bei mir ruckelt Fastsync überhaupt nicht. Jedenfalls merke ich nichts davon. Habe auch ein IPS Panel.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh