AMD Radeon RX Vega: Beide Modelle in der Redaktion eingetroffen

Schlechtreden tun das eh nur die die keinen freesync moni haben. ;)

Freesync ist eine feine Sache. Teste es selbst mit einer RX 560 derzeit. Solange die Framerate nicht unter 40 Fps fällt, gibt es keine Ruckler oder fühlbaren Inputlag. Mal sehen wie Vega in 1-2 Jahren gegenüber Pascal performt, ich denke besser.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Die GTX1080 kann kein FreeSync. Daher fällt sie schon mal komplett aus der Rechnung heraus.
VEGA ist die einzige logisch Wahl.

Klar, es hat auch jeder einen Freesync-Monitor Zuhause oder interessiert sich für den Sync-Kram :rolleyes:

Da AMD die zusätzliche Fläche für PF16 gesteckt hat, müssen die Spiele aber erst mal so kompiliert werden, das auch auszunutzen.

Es müsste erst einmal explizit von den Entwicklern genutzt werden, einfach mal so kompilieren ist da nicht...

Da aber Vega nicht langsamer als die 1080 ist, macht sie natürlich, wenn man sie für etwa den gleichen Preis bekommen kann, mehr Sinn, als eine Karte mit gleichbleibender Leistung ohne mehr Potenzial.

Ohja gerade durch den extremen Stromverbrauch, macht die Karte bei ähnlicher Leistung und Preis extrem viel Sinn. Also wenn man sie gleichzeitig als Herd und Heizung mitbenutzt :hust:

Was den Stromverbrauch anbelangt, ist man natürlich auch etwa auf Ti-Niveau, auch wenn die Karte gerade nicht volle Leistung bringen kann.

Über 1080ti-Nieveau*
 
Fangelaber, Anti-Fangelaber und sinnfreies theorycrafting mal beiseite, gibt es schon irgendwelche neuen Meldungen bezüglich der RX Vega Nano?
 
Zuletzt bearbeitet:
rechne nach bevor du so einen quark schreibst. da mit das aufgeht müßte man die karte wohl mehr als ein jahr lang 24 stunden am tag bei voller leistung laufen lassen. im normaler spieleralltag kommst du problemlos auf jahre ;)

Nein ! Nehmen wir mal an es gibt eine Differenz von ~75W bei den Karten unter Volllast zugunsten der 1080. Bei 24/7 wären das 1800 Wattstunden pro Tag Differenz. Pro Monat 54000 Wattstunden, also 54 Kilowattstunden. Rechnet man das übers Jahr sinds 648 Kilowattstunden. Bei sagen wir mal großzügig 25Cent pro Kilowattstunde wären das für die Vega unter den Voraussetzungen im Jahr 162 EUR Mehrkosten. Ich glaube nicht dass die Vega über 150 EUR weniger kosten wird als die 1080. Klar ist das ein fiktives Szenario, aber ich denke viele nutzen auch die Hardware länger als ein Jahr. Außerdem muss man evtl. ein neues Netzteil anschaffen, die Kühler haben mehr zu leisten, die Lautstärke ist höher und last but not least zeigt mir das wieder dass AMD nur noch das Brecheisen kennt. NV hat im Moment die bessere Architektur, die bekommen ihre Rohleistung "auf die Straße" ! Die Vega wird so eine Art Pendant zu NVs GTX480 damals glaube ich allmählich.

Und bevors wieder losgeht: Ich habe im Moment eine 280X. Und ich hatte schon genau so viele AMD Karten drinne wie NV. Sogar schon einmal eine von Matrox und eine von Diamond. Damals...
 
Nein ! Nehmen wir mal an es gibt eine Differenz von ~75W bei den Karten unter Volllast zugunsten der 1080. Bei 24/7 wären das 1800 Wattstunden pro Tag Differenz. Pro Monat 54000 Wattstunden, also 54 Kilowattstunden. Rechnet man das übers Jahr sinds 648 Kilowattstunden. Bei sagen wir mal großzügig 25Cent pro Kilowattstunde wären das für die Vega unter den Voraussetzungen im Jahr 162 EUR Mehrkosten. Ich glaube nicht dass die Vega über 150 EUR weniger kosten wird als die 1080. Klar ist das ein fiktives Szenario, aber ich denke viele nutzen auch die Hardware länger als ein Jahr. Außerdem muss man evtl. ein neues Netzteil anschaffen, die Kühler haben mehr zu leisten, die Lautstärke ist höher und last but not least zeigt mir das wieder dass AMD nur noch das Brecheisen kennt. NV hat im Moment die bessere Architektur, die bekommen ihre Rohleistung "auf die Straße" ! Die Vega wird so eine Art Pendant zu NVs GTX480 damals glaube ich allmählich.

Und bevors wieder losgeht: Ich habe im Moment eine 280X. Und ich hatte schon genau so viele AMD Karten drinne wie NV. Sogar schon einmal eine von Matrox und eine von Diamond. Damals...


Was für ein gequirtler Mist. Auch mit einer GTX 1080 muss man sich vielleicht ein neues Netzteil anschaffen. Der Kühler muss mehr leisten? So what? Die Lautstärke ist höher? Kommt auf die Umstände drauf an. Referenzversion? Kann sein. Custom? Wohl eher nicht. Die leisesten RX580er sind nicht leiser/lauter als die leiseste GTX 1060. Beide Karten auf einem ähnlichen Leistungsstand, die RX580 zieht aber mehr Strom. Jedoch ist es eine Tatsache das eine extrem gute RX580 (was den Kühler betrifft) ca gleichviel kostete wie die günstigsten GTX 1060. Auf dem selben Preisniveau gab es KEINE GTX 1060 die so leise waren wie die guten RX580er. Wird es bei Vega genauso sein? Keine Ahnung, ist aber nicht undenkbar.

Also solche Aussagen rauszuhauen bevor man Infos hat, bevor man die Custom Karten kennt usw ist einfach nur Schwachsinn.
 
Ich habe im Moment eine GTX 1080 verbaut und kann es kaum erwarten bis ich sie endlich durch die RX Vega ersetzen kann! Ich habe 2x 27" @2560x1440 und einen gebogenen 34" @3440x1440 Monitor in der Mitte und leider ist es nicht möglich Nvidia Surround in Spielen zu Nutzen wenn alle 3 Monitore nicht die gleiche Auflösung haben :(
Auf meiner Rx 480 funktioniert es einwandfrei doch leider reicht die Leistung nicht.
Daher würde ich mir die Vega bei GTX 1080 Leistung auch kaufen wenn Sie 200€ mehr kostet wie eine GTX 1080
 
Sieht ja mal nicht so verkehrt aus, die GTX1070 sieht die Rücklichter im Vergleich zur RX Vega 56 und die RX Vega 64 liegt vor der GTX 1080. Mit besseren Treibern und neuen Spielen verschiebt sich die Tendenz vermutlich mehr in Richtung von AMD, müssten noch gut 10-20% gehen.

Ja Nvidia scheint eindeutig geschlagen zu sein. Durch neue Treiber könnten auch nochmal eher 30 bis 40% draufkommen.
Schaut guat aus.
 
Zuletzt bearbeitet:
Ich habe im Moment eine GTX 1080 verbaut und kann es kaum erwarten bis ich sie endlich durch die RX Vega ersetzen kann! Ich habe 2x 27" @2560x1440 und einen gebogenen 34" @3440x1440 Monitor in der Mitte und leider ist es nicht möglich Nvidia Surround in Spielen zu Nutzen wenn alle 3 Monitore nicht die gleiche Auflösung haben :(
Auf meiner Rx 480 funktioniert es einwandfrei doch leider reicht die Leistung nicht.
Daher würde ich mir die Vega bei GTX 1080 Leistung auch kaufen wenn Sie 200€ mehr kostet wie eine GTX 1080
Und du willst dann 12 Megapixel (50% mehr als 4k) mit einer graka befeuern die etwa die Leistung einer gtx1080 hat? :fresse:

Gesendet von meinem SM-G950F mit Tapatalk
 
Die fury schlägt die 980 ti in 4k, wo sie deutlich zu langsam für ist, um sagenhafte 2% im cb test, liegt aber in full hd und 1440p deutlich abgeschlagen hinter der 980ti und du palaverst dann davon, dass die fury schneller ist? So ein derartig selektives fanboygesabbel ohne sinn und verstand.

Im neuen Leistungsindex vom 08.08.2017 hat sich das Blatt wieder gedreht.
8.8.2017.png

Erstens sind m.M.n beide Karten einfach zu langsam für 4K und zweitens gibts ja bei der GTX 980ti auch Customs.
Meine macht out of the Box @1430MHz und ist mit sicherheit nicht langsamer als eine stock GTX 980ti:d
 
es ist und bleibt postfaktisch gesabbel von nem Fanboy, der verzweifelt sich das selektiv rauspickt, was seine Aussage grade so unterstützt wenn man Kontext und Details außen vor lässt. Selbst seine gepostete AMD Folie sieht Fury hinter der 980 Ti, natürlich nur knapp. In 4k Sind sie halt dann ca. gleich shcnell, was nicht darüber hinwegtäuscht, dass beide zu wenig fps liefern als das 4k Benchmarks für diese Karten ne Rolle spielen würden abseits der Leistungsbewertung.
 
mal nebenbei kann mir jemand erklären wieso z.b. die Fury und der Threadripper in 4k ihr volles Potential ausspielen?
oder anders rum wieso Intel bei niedrigeren Auflösungen so viel besser ist als AMD? Aber dafür in Hohen Auflösungen beim Intel die Power ausgeht ?
 
mal nebenbei kann mir jemand erklären wieso z.b. die Fury und der Threadripper in 4k ihr volles Potential ausspielen?
oder anders rum wieso Intel bei niedrigeren Auflösungen so viel besser ist als AMD? Aber dafür in Hohen Auflösungen beim Intel die Power ausgeht ?
Die fury ist verhältnismäßig schwer auszulasten, so was geht in 4k natürlich gut.

Wie kommst du denn darauf das Intel in 4k einbricht?

Gesendet von meinem SM-G950F mit Tapatalk
 
mal nebenbei kann mir jemand erklären wieso z.b. die Fury und der Threadripper in 4k ihr volles Potential ausspielen?
oder anders rum wieso Intel bei niedrigeren Auflösungen so viel besser ist als AMD? Aber dafür in Hohen Auflösungen beim Intel die Power ausgeht ?
Nvidia hat weniger shader beinmehr takt, was bedeutet dass bei niedrigeren auflösungenen mehr leistung erzielt wird.

Amd geht eher in die breite bei weniger taktnwas bei hohen auflösungen besser ist. War schon zu zeiten der hd 4870 so.

Ist wienmit autos 300kg ladung auf 100 kmh beschleunigen wird ein porsche gegen einen lkw gewinnen. 30.000kg sieht es andersrum aus.

Das ist jedochceine recht einfach gehaltene antwort, zum prinzipiellen verständniss jedoch ausreichend
 
AMD hatte schon immer in hohen Auflösungen Reserven dank der hohen Rohleistung die immer aufgefahren aber nie in Gänze genutzt wird :d 4K profitiert mehr davon als FHD...
 
also ist es emphelenswert eher auf eine Vega upgraden wenn ich in 1440p spiele?
meiner GTX 980 geht langsam dir puste aus wenns dsrum geht mich 60 FPS zu zocken und nicht unbedingt auf Niedrigen Einstellungen zu hocken
 
Einfach mal heute den Test von Vega abwarten ;)
 
Korrekt. Einfach mal warten :d
 
Kommen die Tests nicht immer um 14 Uhr ?
 
also ist es emphelenswert eher auf eine Vega upgraden wenn ich in 1440p spiele?
meiner GTX 980 geht langsam dir puste aus wenns dsrum geht mich 60 FPS zu zocken und nicht unbedingt auf Niedrigen Einstellungen zu hocken

naja warte doch einfach die benches heute ab - aber grundsätzlich ja Vega dürfte für 1440p ganz ok sein - umso mehr falls du einen freesync Monitor hast - falls nicht spricht auch nichts gegen eine 1080 - so wie es jetzt aussieht werden sich die 2 Karten nicht viel nehmen und die 1080 hat den Vorteil das es bereits leise Customs gibt - bei Vega kann ich mir bei der Referenz Version mit Lukü nicht vorstellen das die beim kolportiertem Stromverbrauch auch nur halbwegs leise sein wird - sondern eher Richtung 290 Referenz geht...

zudem könnten die Preise jenseits von gut und böse landen wenn die Mining Leistung von Vega wirklich so gut ist wie es im Netz rumschwirrt, aber auch das wird sich erst zeigen müßen...

naja dauert ja nun nicht mehr lange - dann hat die 2 Jahre Warterei ein Ende
 
Bin ich ja mal gespannt ob sich der Link mit den Ergebnissen nachher deckt. Wenn ja: heilige Makrele Herr Stromverbrauch :d
 
@ilovebytes
LuKü ist mir eh egal. Bei mir kommt die neue Karte unter Wasser.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh