AMD Radeon RX Vega 64 und 56 offiziell vorgestellt – Preise, Details und mehr

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Beim Film kommt aber noch heftiges Motion Blur dazu was beim Zuschauen nicht groß stört, aber bei nem Shooter den man Selbst spielt zum verrecken führt.
 

Nope, aktuelle Treiber und nicht welche vom April:
https://www.phoronix.com/scan.php?page=article&item=amdgpu-1730-radeonsi&num=1

Du musst natürlich die Werte manuell abgleichen um vergleichen zu können - ist ein wenig unschön als Übersicht, aber die Daten sind da. :)

@Shevchen
Aha. Ich soll also auf Linux wechseln mit massiv weniger supporteten Spielen um zu zocken damit ich AMD verwenden kann? Vor allem: Glaubst du nicht auch, dass Nvidia dort auch Potential hat? Für so blöd halte ich dich nicht, dass du nicht weißt, dass Vega dort auch nicht schneller ist wenn die Treiber vergleichbar sind. Dort sind nur Nvidas nicht optimiert, wozu auch, Zocken unter Linux ist ne Nische. Sollte sich das ändern, wird sich auch das Bild dort ändern. Das ändert nichts am Fakt, dass Vega auch mit optimierten Treiben nicht eine Ti schlagen wird und Nvidia ihre Treiber bereits zu Release soweit optimiert hatte, dass die Leistung abrufbar war. Ich kauf doch jetzt keine Vega, damit sie in nem Jahr ihr Potential ausspielt. Dann kauf ich sie in nem Jahr deutlich günstiger...

PS: Nicht mal glauben kann man dir wie man an Storms Link sieht... Ich hatte es jetzt mal geglaubt, weil ich von Zocken unter Linux so gut wie keine Ahnung habe.

Die Treiber sind eben NICHT vergleichbar. :) Die git-Treiber kommen ~1-2 Monate auf die stabilen Platformen wie Ubuntu. Und Ubuntu kann von meiner Mutter bedient werden, die es nicht mal ohne Hilfe schafft ihr E-Mail Programm einzurichten.

Hier ist also mein konstruktiver Vorschlag: Probier es unter Ubuntu aus, wenn aktuellen git Treiber stable sind und dann reden wir noch mal darüber. :-)
Wenn du das nicht willst, dann kann ich da leider auch nicht helfen. Ist nur mein Vorschlag mal "über den Tellerrand zu gucken".

Ansonsten zum Support: Da hat sich in den letzten Jahren auch viel getan. Steam kannst du nativ laufen lassen und falls es doch mal nicht klappen sollte und ein Port fehlen sollte, hast du immer noch Wine, welches sich so langsam zu einem Tool entwickelt, wo du einfach nur noch installierst und doppelklickst.

PS: Glaub auch nicht irgendwelchen alten Benchmarks sondern aktuellen. ;-)
PPS: Die Leistung kannst du- wenn du selbst kompilierst - jetzt schon abrufen. Ist aber nix für Normalo-User - schon klar.
 
Zuletzt bearbeitet:
Sind doch super news, mit einem TI Konkurrent hat keiner gerechnet nach den Infos der letzten Wochen.

was daran super ist will sich mir nicht erschliessen - amd schafft es nach 1 Jahr mit Hängen und Würgen (und dadurch einen sehr hohen Stromverbrauch) die 2tschnellste Karte der Konkurrenz so halbwegs einzuholen ...

selbst die Preise sind jetzt keine Offenbarung ab umgerechnet (und inklusive Mwst) wohl so 480-500 Euro für ne RX56 und 600-650 Euro für die RX 64 eine 1070/1080 bekommt man um denselben Kurs ...
 
naja überschäumende Erwartungen gabs damals zur Fury X - die macht die 980 Ti total Platt.
Das man jetzt dann noch so deutlich hinter Nvidia liegt ist aber echt unterhalb der Erwartungen.
Vega ist keine Fury 2.0, da würde man Fury schlecht machen.
Fury X schaffte es bei Release an die 980Ti ranzukommen, zwar auch mit biegen und brechen, aber sie waren wirklich knapp dran.
Eine 980 hat Fury in allen Belangen abgehängt, dafür hat sie halt etwas mehr Strom gebraucht, aber im Vergleich zur 980Ti nicht dramatisch.

Bei Vega zeigt AMD nicht einmal mehr einen Vergleich mit der 1080Ti, die existiert für AMD gar nicht und kommt anscheinend nur gleichauf mit der 1080 raus.
Muss man aber berücksichtigen dass AMD nur die Min-fps angegeben hat, also behaupte ich jetzt mal dass die 1080 im Avg sogar noch drüber liegen wird und bei Min-fps eben gleichauf.
Vega 64.. ist anscheinend weiter weg von der Ti als es Fury jemals war von der Leistung her und das mit einer TBP höher als damals bei Fury

Und der Preis, naja, sie würden eh gerne mehr verlangen, können sie aber nicht weil sonst überhaupt kein Argument mehr für Vega sprechen würde.
Die Packages sind natürlich nett für Leute die komplette Systeme aufbauen wollen, aber gerade beim Monitor will ich mir mein Teil selbst aussuchen.

P.S: Können wir die Linux-Geschichte bitte aus dem Vega-Thread raushalten
 
Zuletzt bearbeitet:
auch wenn klar ist was du meinst kann man so nicht vergleichen. Du sagst ja auch nicht Intel hängt zehn Jahre in der Entwicklung zurück weil ein OC 2600K mehr MHz auf die Straße bringt als ein 7700K@stock.
Ich glaube sogar, AMD sind entwicklungsmäßig ganz gut dabei. Nur sind sie halt noch lange nicht fertig, müssen aber irgendwas rausbringen und stecken eigentlich noch mitten im Entwicklungsprozess.
Das passiert, wenn man von herkömmlichen Pfaden abweicht. Hoffentlich stolpern sie den Weg erfolgreich weiter. Wenn sich das Wagnis auszahlt heiligt der Zweck die Mittel. Zurückrudern und auf dem bisherigen Pfad der Konkurrenz unterlegen sein bringt jetzt ja auch nichts mehr..

Leider passt dein Vergleich nicht!
1. braucht ein 2600k schon 5,3GHz um mit einem 7700k in Games gleich zu ziehen, solange man nicht im GPU Limit hängt.
2. verbraucht der 2600k dann auch mehr als nur deutlich mehr. Auch weniger Verbrauch ist Entwicklung. ;) Außerdem war Intel 2011 nicht in der Lage, einen 2600k mit Stock 5+GHz zu liefern.

Jedoch wäre Nvidia 2015 schon dazu in der Lage gewesen eine GTX980TI, mit rund 1450MHz zu liefern.

Aber ja, zurück rudern bringt jetzt nichts mehr, aber eine Falsche Entscheidung, bleibt eine, auch wenn man hofft, das es irgendwann noch besser wird. Mehr als Hoffnung ist das nämlich nicht.

@all,
bei dem was manche hier so glauben und, oder hoffen, bin ich wirklich auf die ersten qulitativ hochwertigen Tests gespannt (zum Beispiel TH) was die ganzen Frametimediagramme usw wirklich offenbaren! Bitte nicht blind irgendein Hersteller geschafel glauben!
 
Zuletzt bearbeitet:
was daran super ist will sich mir nicht erschliessen - amd schafft es nach 1 Jahr mit Hängen und Würgen (und dadurch einen sehr hohen Stromverbrauch) die 2tschnellste Karte der Konkurrenz so halbwegs einzuholen ...

selbst die Preise sind jetzt keine Offenbarung ab umgerechnet (und inklusive Mwst) wohl so 480-500 Euro für ne RX56 und 600-650 Euro für die RX 64 eine 1070/1080 bekommt man um denselben Kurs ...


Und wo liegt genau das Problem? Das Vega die 1080ti nicht vom Thron stoßen wird war die ganze Zeit klar. Man will Konkurrenzfähige Produkte zu einem ähnlichen/besseren Preis der den mehr an Stromverbrauch kompensiert. Es ist das gleiche Spiel wie bei der RX580 vs GTX 1060. Die Leute die eine Karte im Form von einer 1080ti kaufen sind eben eine klare Minderheit und sollten nicht das Ziel von AMD sein. Einfach mal die aktuelle Situation betrachten und realistisch sein..
 
Na also, ob die Vega sich bei den Min Fps deutlich von einer GTX1080 unterscheidet, wird man wohl erst mit den Tests im Netz sehen können. Das ist auch sehr stark, von der Auswahl der Spiele abhängig. Wir werden sehen...

Wenn sich die Leistung unterscheidet, dann höchstens nach unten. AMD hat seine Zahlen geliefert, welche die eigenen Karten natürlich so gut es geht unterstützen. AoS und Doom beispielsweise sind die AMD-Vorzeigespiele. Besser wird es im realen Schnitt jedenfalls nicht.
 
was daran super ist will sich mir nicht erschliessen - amd schafft es nach 1 Jahr mit Hängen und Würgen (und dadurch einen sehr hohen Stromverbrauch) die 2tschnellste Karte der Konkurrenz so halbwegs einzuholen ...

selbst die Preise sind jetzt keine Offenbarung ab umgerechnet (und inklusive Mwst) wohl so 480-500 Euro für ne RX56 und 600-650 Euro für die RX 64 eine 1070/1080 bekommt man um denselben Kurs ...

Was daran super ist? Das man mit einer ganz neuen Architektur es geschafft hat zumindest auf 1080 Niveau zu kommen. Was mir besonders gefällt ist das das spielgefühl mit weniger FPS sich anfühlen soll wie mit mehr. Wenn es Vega z.b in Game x nur auf 35 fps schafft, es sich aber ruhiger und spielbarer anfühlt als mit einer GTX 1080TI die vll. 45 fps liefert, dann interessieren doch keinen mehr die FPS... Dann muss man die Testparcours ganz neu mischen. Denn sollte es sich so rausstellen das dies so ist, dann hat AMD hier was Großes geworfen, aber das verstehen Menschen nicht, dessen Glied sich regt, wenn ihre Hardware immer denn höchsten Messbalken hat....
 
Mini 1070 bis 1080 Ti gibts doch. :)
GTX1070 - ja. Passt gerade so in ein ITX System.
GTX1080 - nein. Das einzige "kleine" Modell von Zotac ist deutlich zu groß für ITX Systeme.
Vega nanao - ja. Zumindest wenn sie die Abmessungen der Fury nana haben soll. Aber danach sieht es ja aus.

A behauptest du das es sowas bei nvidia nicht gibt und B das es sowas in form der 1070 gibt..
ja was denn nun?
letzteres ist natürlich korrekt.
diese vega nano muss erstmal zeigen ob sie besser ist die über 1 jahr alte 1070.

Die GTX 1070 gibt es als ITX taugliche Variante - die GTX1080 nicht. VEGA zieht aber auf die 1080

Das stimmt nicht, ich selber habe eine Zotac GTX 1080TI mini, welche in 95% der ITX gehäuse passt. Die GTX1080 gibt es auch als Mini.
Nop. Die 1080 ist zu lang - alles über 170mm ist zu groß. Die Zotac hat irgendwas um 200mm
 
Zuletzt bearbeitet:
Was daran super ist? Das man mit einer ganz neuen Architektur es geschafft hat zumindest auf 1080 Niveau zu kommen. Was mir besonders gefällt ist das das spielgefühl mit weniger FPS sich anfühlen soll wie mit mehr. Wenn es Vega z.b in Game x nur auf 35 fps schafft, es sich aber ruhiger und spielbarer anfühlt als mit einer GTX 1080TI die vll. 45 fps liefert, dann interessieren doch keinen mehr die FPS... Dann muss man die Testparcours ganz neu mischen. Denn sollte es sich so rausstellen das dies so ist, dann hat AMD hier was Großes geworfen, aber das verstehen Menschen nicht, dessen Glied sich regt, wenn ihre Hardware immer denn höchsten Messbalken hat....

Darum sollten endlich mal 4k freesinc benches erscheinen dafür sind solche karten wichtig darunter reicht auch ne 1080.
 
Zuletzt bearbeitet:
... Was mir besonders gefällt ist das das spielgefühl mit weniger FPS sich anfühlen soll wie mit mehr. Wenn es Vega z.b in Game x nur auf 35 fps schafft, es sich aber ruhiger und spielbarer anfühlt als mit einer GTX 1080TI die vll. 45 fps liefert, dann interessieren doch keinen mehr die FPS... ...

das halte ich für Marketing-Geblubber wie "poor Volta" auch (und dabei ist "Geblubber" echt noch sehr wohlwollend formuliert), die NUR mitm freesync-Monitor haltbar wäre (wenn überhaupt).
 
Was daran super ist? Das man mit einer ganz neuen Architektur es geschafft hat zumindest auf 1080 Niveau zu kommen. Was mir besonders gefällt ist das das spielgefühl mit weniger FPS sich anfühlen soll wie mit mehr. Wenn es Vega z.b in Game x nur auf 35 fps schafft, es sich aber ruhiger und spielbarer anfühlt als mit einer GTX 1080TI die vll. 45 fps liefert, dann interessieren doch keinen mehr die FPS... Dann muss man die Testparcours ganz neu mischen. Denn sollte es sich so rausstellen das dies so ist, dann hat AMD hier was Großes geworfen, aber das verstehen Menschen nicht, dessen Glied sich regt, wenn ihre Hardware immer denn höchsten Messbalken hat....

Das Problem, sowas ist subjektiv, genauso wie die Adaptive Sync Technologien also kann man das durch Tests nicht darstellen :/
 
Man, man ... Preise & Stromaufnahme waren ja zu erwarten. Ich denke bei der tatsächlichen Gaming-Leistung wird es auch keine Jubelschreie mehr geben.

Da wartet man Ewigkeiten mit den höchsten Erwartungen auf Vega, und bekommt nach einer fragwürdigen Info-Politik jetzt wieder dieses Präsentiert - jetzt kriegen auch die letzten militanten Vega Foren-Schreier lange Gesichter, für die ich mich auch pers. freue das sie auf die Nase gefallen sind, so wie man teilweise angeraunzt wurde wenn man sich an den Spekulationen beteiligt hat und besorgt war über den Vega release nach dem die ersten FE Daten draussen waren.

Für den Konkurrenzkampf ist es natürlich scheisse, im Prinzip wird sich auf den Markt weiter nix mehr tun - die ersten benches kommen um den 15. dann die ersten Standard Karten, die Custom-Herstellerkarten noch später & teurer. Ein Vorteil? Ja, als freesync Kunde vielleicht - ansonsten --> zu teuer, zu spät, zu Stromhungrig.

Aber keine Sorge - wird hier im forum so wie bei fury weitergehen, und man verweisst schon jetzt wieder auf die Zukunft und täglich grüsst das Murmeltier.
Damals fury der heilsbringer "Overclockers Dream", ach doch nicht so doll geworden aber Vega wird es richten "poor Volta" ... hm, wartet mal - es kommt ja Navi - fury war ein Testballon, najaa, vega ja eigentlich auch .... aber Navi 11!11!11 Achja, und die hardware reift ja auch noch mit der Zeit ...


Hier nochmal die AMD Roadmap ( wo vega für am Anfang 2017 eingezeichnet war) und da steht auch Navi, da kann man sich so ungefähr denken wann die kommt - also noch genug Zeit sich hier im forum die Köpfe einzuschlagen :fresse:

Roadmap-640x360.jpg
 
GTX1070 - ja. Passt gerade so in ein ITX System.
GTX1080 - nein. Das einzige "kleine" Modell von Zotac ist deutlich zu groß für ITX Systeme.
Vega nanao - ja. Zumindest wenn sie die Abmessungen der Fury nana haben soll. Aber danach sieht es ja aus.

So ein quatsch, die 1080mini hat quasie exact die selben abmessungen wie die 1070mini... 1mm länger 2mm breiter und passt in das ITX Format, lediglich die 1080TI mini passt nur noch in 95% der ITX gehäuse...
 
Was daran super ist? Das man mit einer ganz neuen Architektur es geschafft hat zumindest auf 1080 Niveau zu kommen. Was mir besonders gefällt ist das das spielgefühl mit weniger FPS sich anfühlen soll wie mit mehr. Wenn es Vega z.b in Game x nur auf 35 fps schafft, es sich aber ruhiger und spielbarer anfühlt als mit einer GTX 1080TI die vll. 45 fps liefert, dann interessieren doch keinen mehr die FPS... Dann muss man die Testparcours ganz neu mischen. Denn sollte es sich so rausstellen das dies so ist, dann hat AMD hier was Großes geworfen, aber das verstehen Menschen nicht, dessen Glied sich regt, wenn ihre Hardware immer denn höchsten Messbalken hat....

kein mensch spielt bei 35 fps außer das spiel gibt es vor. das ist sowieso nicht mehr flüssig und da ist es schon fast egal ob amd da besser ist^^

Finde ich auch ✌️

/vote kick/ban
 
Zuletzt bearbeitet:
Das Problem, sowas ist subjektiv, genauso wie die Adaptive Sync Technologien also kann man das durch Tests nicht darstellen :/

Das ist nicht subjektiv, smoothes spielgefühl ist ein resultat von gleichen zeitabständen der FPS und dessen Synchronisation mit dem Ausgabegerät und das lässt sich messen.

- - - Updated - - -

kein mensch spielt bei 35 fps. das ist sowieso nicht mehr flüssig und da ist es schon fast egal ob amd da besser ist^^

Und genau da setzt Vega doch an, eas keiner versteht. Du merkst nicht mehr, das du mit 35fps unterwegs bist....
 
Vega msuss erst noch zeigen ob er 4k mit freesinc lagfrei kann oder eben nicht. Die NV highend karten haben schon bewiesen das sies lagfrei ohne sync eben nicht können.
 
Fraglich ist eher, ob AMD das Umdenken in den Köpfen der Spieler schafft und genau da setzt das Marketing ein Stichwort "Blindtest"

Ein positiver Nebeneffekt könnte ja zb sein, dass die Karten in Zukunft langleber werden ;)
 
Und genau da setzt Vega doch an, eas keiner versteht. Du merkst nicht mehr, das du mit 35fps unterwegs bist....

Doch - schon. Nur sind die 35 FPS bei Leibe nicht so krebsig als wenn du die ohne Sync benutzen würdest. Ein High-FPS Shooter mit <1ms _Reaktionszeit beim Monitor (und entsprechend geringem Input Lag) mit 144 Hz wird sich definitiv anders anfühlen als 35 FPS. Nur sind die Framedops kein "Ruckeln" mehr, sondern eher ein weiches Abfedern. Das ist schon mal super - keine Frage. Aber die 100+ Hz würde ich trotzdem gerne mitnehmen.

Zur Zeit ist da ein 4k Monitor halt eher suboptimal (und genau der wird im Bundle angeboten - derp)
 
Und genau da setzt Vega doch an, eas keiner versteht. Du merkst nicht mehr, das du mit 35fps unterwegs bist....

doch, genau das wird man auf einem 60hz schirm immer sehen

stabile 30fps auf 60hz sehen aber recht passabel aus. vermutlich weil es genau die hälfte ist sodass ich jedes bild genau doppelt solange sehe. das hab ich in zelda festgestellt. aber natürlich ist das von 60fps@60hz noch ein weites stück entfernt
 
Zuletzt bearbeitet:
Und wo liegt genau das Problem? Das Vega die 1080ti nicht vom Thron stoßen wird war die ganze Zeit klar. Man will Konkurrenzfähige Produkte zu einem ähnlichen/besseren Preis der den mehr an Stromverbrauch kompensiert. Es ist das gleiche Spiel wie bei der RX580 vs GTX 1060. Die Leute die eine Karte im Form von einer 1080ti kaufen sind eben eine klare Minderheit und sollten nicht das Ziel von AMD sein. Einfach mal die aktuelle Situation betrachten und realistisch sein..

ich hab mich nunmal vor 2 Jahren aufgrund von Amds Versprechungen (perfektes 4K Gaming Erlebnis mit Fury) für Amd und Freesync für entschieden und nun steh ich da mit einem 4K Freesync Monitor und bekomme seit nun 3 Jahren (Fury+Wartezeit auf Vega) keine adequate Grafikarte von Amd dazu geliefert - nun darf ich den Freesync Monitor mit ordentlich Verlust verkaufen und auf Gsync umsteigen weil ich von Amd nichts für 4K bekomme - soll ich mich darüber freuen und sagen super danke Amd.

es war auch nicht nötig Nvidia vom Thron zu stoßen sondern einfach nur zur ti halbwegs aufzuschliessen und selbst das gelingt scheinbar nicht
 
Zuletzt bearbeitet:
ich falle aber nun genau diese Minderheit - die sich vor 2 Jahren aufgrund von Amds Versprechungen (perfektes 4K Gaming Erlebnis mit Fury) für Amd und Freesync entschieden hat und nun steh ich da mit einem 4K Freesync Monitor und bekomme keine adequate Grafikarte von Amd dazu geliefert - nun darf ich den Freesync Monitor mit ordentlich Verlust verkaufen und auf Gsync umsteigen weil ich von Amd nichts für 4K bekomme - soll ich mich darüber freuen und sagen super danke Amd.

Mit Vega solltest du da aber halbwegs glücklich sein. Vielleicht bekommst du da keine 144 FPS hin, aber die 60 sollten mit etwas getweake locker drin sein. Du wartest seit 2 Jahren auf ne anständige Lösung (und ja, ich kann deinen Frust verstehen) - die Fury war ein Rohrkrepierer, weil sie nur 4 GB VRAM hatte und jetzt erst kommt Vega raus. Aber: Ich würde genau *jetzt* einen Freesync-Monitor kaufen. Ist natürlich frustrierend für Leute, die da seit 2 Jahren drauf warten - verständlich.
 
Und wo liegt genau das Problem? Das Vega die 1080ti nicht vom Thron stoßen wird war die ganze Zeit klar. Man will Konkurrenzfähige Produkte zu einem ähnlichen/besseren Preis der den mehr an Stromverbrauch kompensiert. Es ist das gleiche Spiel wie bei der RX580 vs GTX 1060. Die Leute die eine Karte im Form von einer 1080ti kaufen sind eben eine klare Minderheit und sollten nicht das Ziel von AMD sein. Einfach mal die aktuelle Situation betrachten und realistisch sein..

amd würde die karte mit sicherheit teurer verkaufen wollen. sie können es aber nciht weil die uralte 1080 besser zu sein scheint. der "gute" preis entsteht durch die konkurrenz. macht das produkt dadurch aber nicht automatisch besser^^
 
ich falle aber nun genau diese Minderheit - die sich vor 2 Jahren aufgrund von Amds Versprechungen (perfektes 4K Gaming Erlebnis mit Fury) für Amd und Freesync entschieden hat und nun steh ich da mit einem 4K Freesync Monitor und bekomme seit nun 3 Jahren

Kein early access kaufen. Politiker nicht wählen weil sie ein super tolles Versprechen in den Raum schmeissen. Keine Abhängige Hardware aufgrund von Versprechen kaufen (völlig egal ob PC, HiFi oder weiß der Geier was). Solche Fehlkäufe lassen sich total einfach vermeiden. Trotzdem tätigen wir sie, weil wir Konsum Menschen sind und es uns halt einfach leisten können.
Ich gehöre zu den Deppen, die sich DayZ für 23,99 gekauft haben. Ist kein Geld, ärgert mich aber bis heute, dass ich wieder auf sowas reingefallen bin..
 
Das ist nicht subjektiv, smoothes spielgefühl ist ein resultat von gleichen zeitabständen der FPS und dessen Synchronisation mit dem Ausgabegerät und das lässt sich messen....

wäre dem so, warum hat AMD keine frametime-Diagramme gezeigt? weil die mit Vega an Bedeutung verlieren und es einen neuen, unbekannten Faktor gibt? die Vega-times?
die Karten sind offiziell, die Treiber wieder mal erst in irgeneiner Zukunft gut und echte Werte sucht man vergebens. AMD wird gute Gründe dafür haben. und die kann sich jeder denken: neue Architektur und AMD selber kann damit kaum umgehen, geschweige denn sie richtig ausreizen. wie immer.
 
Naja aber es ist doch auch verständlich, dass sie bis zuletzt noch am Treiber arbeiten wollen, wenn so Bahnbrechendes bevorsteht, oder nicht?
 
Mit Vega solltest du da aber halbwegs glücklich sein. Vielleicht bekommst du da keine 144 FPS hin, aber die 60 sollten mit etwas getweake locker drin sein. Du wartest seit 2 Jahren auf ne anständige Lösung (und ja, ich kann deinen Frust verstehen) - die Fury war ein Rohrkrepierer, weil sie nur 4 GB VRAM hatte und jetzt erst kommt Vega raus. Aber: Ich würde genau *jetzt* einen Freesync-Monitor kaufen. Ist natürlich frustrierend für Leute, die da seit 2 Jahren drauf warten - verständlich.

ich brauch auch keine 144 Fps weil das in 4k sowieso utopisch ist aber ich brauche 60+ um für die nächsten Jahre für neue Spiele genug Raum zu haben - aber selbst das klappt mit Leistung auf 1080 Niveau niemals - ich hab ja eine 1080 und selbst mit viel Regler nach links bekomme ich im Schnitt so zwischen 35-55 fps und wie soll Vega da besser sein - es ist im Prinzip dasselbe Spiel wie bei Fury auch da ging 4K am Anfang halbwegs mit 30-40 Fps mit Sync aber schon nach einem Jahr kam man kaum mehr auf die 30 für Sync. und bei der Ti hat man laut Benches doch auch in 4K mit ein bisschen Tweaken 60-80 fps also noch viel Spiel um zumindest das untere Sync Limit von 35 fps zu erreichen - bei Vega bin ich wie es scheint nun bereits direkt nach dem Kauf wieder direkt am Limit mit 4K und auf das kann ich verzichten.
 
Zuletzt bearbeitet:
wäre dem so, warum hat AMD keine frametime-Diagramme gezeigt? weil die mit Vega an Bedeutung verlieren und es einen neuen, unbekannten Faktor gibt? die Vega-times?
die Karten sind offiziell, die Treiber wieder mal erst in irgeneiner Zukunft gut und echte Werte sucht man vergebens. AMD wird gute Gründe dafür haben. und die kann sich jeder denken: neue Architektur und AMD selber kann damit kaum umgehen, geschweige denn sie richtig ausreizen. wie immer.

Lange kanns ja nicht mehr dauern bis amd die karten auf den tisch legen muss. Sollte es so kommen wie ich langsam vermute geht der 4K freesinc moni weg und ein gsync 4k moni kommt. :confused:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh