AMD Radeon RX 480 im Test

Ja das warten nervt, wobei für CF die Refs doch garnicht so übel wären, wegen dem DE Kühler, der zudem nicht schlecht wirkt auf der Rx480 ... ;)

Bin kurz davor ne zweite Ref. zu holen, morgen ist WE. :bigok:
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bei den Werten doch lieber zu einer 1070. Man tut sich keinen gefallen mit MGPU.

wird viel versprochen und wenig gehalten. WO MGPU sehr gut funktioniert sind Heaven und 3d Mark :fresse:
 
Zuletzt bearbeitet:
aber dann bitte auch auf die anderen Provokationen reagieren :)

Die sind aber offen und nicht versteckt. ;)

Ich verstehe auch nicht warum sich manche an irgendwelchen lustigen Videos aufregen, die eindeutig der Parodie und Komik zuzuschreiben sind und gleich mit wüsten Beschimpfungen über alle herfallen wollen nur weil andere darüber lachen.

Ein fünkchen Wahrheit ist ja trotzdem drin.
 
Zuletzt bearbeitet:
"Toleranz" ist sicherlich das Wort der Stunde.
Jeder darf so "blöd" sein wie er will, solange er nicht eklatant gegen Forenregeln verstößt.
Das muss das Forum einfach aushalten können.
 
Zuletzt bearbeitet:
Bei den Werten doch lieber zu einer 1070. Man tut sich keinen gefallen mit MGPU.

wird viel versprochen und wenig gehalten. WO MGPU sehr gut funktioniert sind Heaven und 3d Mark :fresse:

Solange die FPS gut über 60Hz gehen, ist es recht brauchbar. Wird nur kritisch, wenn sie drunter fallen. Ist eben eine Möglichkeit statt mit FullHD dann mit WQHD zu zocken.
 
MGPU ist sowieso die Zukunft ( mehrere dedizierte GPUs oder mehrere auf einem Chip) denn irgendwann können die Chips nichtmehr kleiner werden, sind ja schon bei 14nm
also entweder etwas gänzlich neues entwickeln oder eben MGPU
 
Ich frage mich auch was dann nach Vega oder GP100 noch kommen soll. bis 10nm erscheint vergehen wohl wieder 5 Jahre und da kann man ja nicht ständig nur eine Grafikkartenserie anbieten.
Vulkan ist eben so ein Versuch nochmals kräftig an der Leistungsschraube zu drehen. Ist doch ein sehr guter Ansatz und steckt noch in den Kinderschuhen.
Da wird noch so einiges an Konkurrenz kommen. DX12,Vulkan,OpenGL oder gar wieder etwas neues. Statt ständig nur die Hardware zu puschen, wird jetzt eben an der Software optimiert.
 
MGPU ist sowieso die Zukunft ( mehrere dedizierte GPUs oder mehrere auf einem Chip) denn irgendwann können die Chips nichtmehr kleiner werden, sind ja schon bei 14nm
also entweder etwas gänzlich neues entwickeln oder eben MGPU

Das wäre aber auch nur eine kurzfristige Lösung... Denn wenn du nicht die Chips selbst kleiner bekommst, würde mehr von diesen Chips immernoch mehr Flächenbedarf, Energiebedarf und möglicherweise abflachendere Skalierung bedeuten...
Ich denke nicht, dass dies die Lösung ist, die langfristig aufgeht...
Es muss irgendwie was "gänzlich" neues her. Wann? Ja das wäre halt die Frage :wink:
 
sehe ich auch so, aber als mittelfristige Lösung wirds wohl MGPU (immerhin werden die Nachteile von MGPU mehr und mehr minimiert.)
ist doch bei den CPUs schon länger der Fall, warum auch nicht bei den GPUs :)

AMD experimentiert ja schon damit.

- - - Updated - - -

Ich frage mich auch was dann nach Vega oder GP100 noch kommen soll. bis 10nm erscheint vergehen wohl wieder 5 Jahre und da kann man ja nicht ständig nur eine Grafikkartenserie anbieten.
Vulkan ist eben so ein Versuch nochmals kräftig an der Leistungsschraube zu drehen. Ist doch ein sehr guter Ansatz und steckt noch in den Kinderschuhen.
Da wird noch so einiges an Konkurrenz kommen. DX12,Vulkan,OpenGL oder gar wieder etwas neues. Statt ständig nur die Hardware zu puschen, wird jetzt eben an der Software optimiert.

wird auch Zeit, wenn ich sehe, was die Konsolen mit ihrer miesen Hardware auf den TV zaubern können.
Problem ist nur, Softwareoptimierung bringt kein $$$
 
Zuletzt bearbeitet:
Vielleicht hält man die Custom Karten absichtlich zurück bis der Konkurrent gelauncht hat, um dann wiederum zu kontern. Keine Ahnung, ist nur so ne Vermutung, die sich nicht bestätigen muss. So mordsviel mehr OC werden auch die Partnerkarten nicht mehr machen als die Referenz, aber wer weiß. Wird sicher irgendeine Strategie dahinterstecken. :confused:

edit: man hat zwar schon nen Haufen Karten zu sehen bekommen, überall aber mit unkenntlich gemachten Taktraten - keiner weiß was Genaues...
 
Zuletzt bearbeitet:
Im Moment aber noch nicht so richtig gut praktikabel denn die Geräte sind nur mit einem Anschluss versehen, das heisst man muss beide finalen Bilder, auf eine Graka bekommen, was Latenz erzeugt...

Wieso?
Das Bild muss von der GPU auch erst in den Videobuffer... Kostet ebenso Latenz.
Der Vorteil bei VR ist/wäre, dass zur selben Zeit beide Bilder (also eins pro Auge) auf einem MGPU Gespann berechnet werden kann und die Ausgabe dann optimalerweise gesync erfolgt. Das heist, entweder mit VSync oder mit G-/FreeSync und variable. In beiden Fällen muss einfach nur sicher gestellt werden, dass beide Bilder zur selben Zeit im Videobuffer verfügbar sind. -> im Moment kombiniert man wohl dort einfach beide Teilbilder zu einem ganzen und die Brille zerhackt das in der Mitte für links und rechts...
Rein formal macht das wenig bis keinen Unterschied, wenn es richtig angegangen wird...
 
Wieso?
Das Bild muss von der GPU auch erst in den Videobuffer... Kostet ebenso Latenz.
Der Vorteil bei VR ist/wäre, dass zur selben Zeit beide Bilder (also eins pro Auge) auf einem MGPU Gespann berechnet werden kann und die Ausgabe dann optimalerweise gesync erfolgt. Das heist, entweder mit VSync oder mit G-/FreeSync und variable. In beiden Fällen muss einfach nur sicher gestellt werden, dass beide Bilder zur selben Zeit im Videobuffer verfügbar sind. -> im Moment kombiniert man wohl dort einfach beide Teilbilder zu einem ganzen und die Brille zerhackt das in der Mitte für links und rechts...
Rein formal macht das wenig bis keinen Unterschied, wenn es richtig angegangen wird...
Naja, das Bild muss aber auf jeden Fall zum Display.
D.h. man muss die Daten erstmal vom Grafikausgang zur Brille bekommen. Damit das geschehen kann, muss das gesamte Bild vorliegen, sonst müsste doch die Brille drauf warten, dass erst das Bild fürs eine Auge ankommt und dann erst das für das zweite.
Oder wie sollen die beiden Grafikkarten gleichzeitig das Bild übertragen?

Ich sage ja nicht dass CF/Sli garnicht funktioniert, sondern nur dass es dort keinen größeren Vorteil bringt, als es bei normalen games auf dem Monitor bringt.
 
Naja, das Bild muss aber auf jeden Fall zum Display.
D.h. man muss die Daten erstmal vom Grafikausgang zur Brille bekommen. Damit das geschehen kann, muss das gesamte Bild vorliegen, sonst müsste doch die Brille drauf warten, dass erst das Bild fürs eine Auge ankommt und dann erst das für das zweite.
Oder wie sollen die beiden Grafikkarten gleichzeitig das Bild übertragen?
Indem das Bild bei der aktuellen Umsetzung (bei einem Anschluss) einfach in der Länge durch zwei Einzelbilder zusammengesetzt wird im Framebuffer?
Aus bspw. 2*960x1080 würde das Teil einfach 1x1920x1080 machen und die Brille zeigt dann die linken 960 Pixel in der Breite bei voller Höhe auf dem linken Display an und die rechten 960 Pixel bei voller Höhe auf dem rechten...

Bin mir nicht 100% sicher, wie es die Grafikkarte heute genau macht, aber es muss entweder zwei Bilder zu 960x1080 (respektive bei größeren Displays entsprechend mehr) sequenziell hintereinander berechnen (was bedeutet, dass das erste Bild definitiv mindestens um die Dauer der Berechnung für das zweite Bild älter ist -> also eine Latenz entsteht, Stichwort Input Lag) oder die Grafikkarte in einem Rutsch ein Bild zu 1920x1080 Pixel berechnet, wo auf der linken Seite das linke Bild und auf der rechten Seite das rechte Bild zu sehen ist. (quasi wie im SBS Verfahren bei 3D Bildern) Das bedeutet dabei fast doppelte Rechenzeit. Letzteres hätte allerdings den potentiellen Vorteil, dass keine Wartezeit für das zweite Bild anfallen würde, sondern sich einfach die gesamte Zeit zur Fertigstellung des Bildes eben annähernd verdoppelt.
-> gilt natürlich alles für eine SGPU.

Ich sage ja nicht dass CF/Sli garnicht funktioniert, sondern nur dass es dort keinen größeren Vorteil bringt, als es bei normalen games auf dem Monitor bringt.
Der Vorteil liegt (zumindest in der Theorie) doch auf der Hand... Zwei GPUs rechnen idealerweise bei zwei (unabhängig von einander) benötigten Bildern mit Faktor 2 schneller. Denn du kannst völlig ohne jegliche Einschränkung durch Multithreading zwei Bilder zur Berechnung zur gleichen Zeit lostreten und zwei Grafikkarten können diese auch zur gleichen Zeit berechnen.
Das hast du auf einem Monitor bei normalen Games so definitiv nicht... Bei MGPU und Single Monitor hat es eben genau EIN Bild pro Berechnungsdurchlauf... Also entweder zerhackstückelt man das Bild (SFR) oder man berechnet im Wechsel pro GPU je ein Bild (AFR). Ersteres hat A) ein Verteilungs-Problem zwischen den GPUs und B) erzeugt es zusätzlichen Aufwand für die Intelligenz einer halbwegs passenden Verteilung. Letzteres hat klar ein Inputlag-Problem durch das zweite (oder bei mehr GPUs noch mehr) Bild. In die Zukunft berechnen geht halt nicht, weswegen man in die Vergangenheit rechnet. Der Versatz ist also um mindestens die Dauer einer Frameberechnung...

All das würde (theoretisch) wegfallen... Denn der einzige notwendige Schritt ist/wäre, das Bild vom Framebuffer der zweiten GPU nach Beendigung der Berechnung zur ersten zu übertragen. Oder, noch besser, bei Auslösen des Flushes der Framebuffer, die Daten direkt aus dem Framebuffer der zweiten GPU zu ziehen.
Selbst WENN da eine Lazenz von ein paar ms vorhanden wäre, bei den üblichen sagen wir ~90 FPS, die man wohl haben sollte für VR, wäre das eher was um die 1/10-1/5tel der Zeit, wie ein einziges Frame brauchen würde -> im Vergleich zum Leistungszugewinn dadurch um Faktor 2.
 
Darfst aber nicht vergessen das große Teile des Bildes doppelt vorhanden sind.
Die beworbene VR Leistung der neuen Generationen ist weitaus höher als die Rohleistung vermuten lässt.
Wahrscheinlich kommen diverse Tricks zum Einsatz welcher Rechenaufwand spart indem Objekte welche doppelt abgebildet werden "intelligenter" verarbeitet werden.
Für mich klingt dies wie die Implementation von SFR auf "interner" Basis beim Rendern der beiden Bilder.

Würde man nun Links / Rechts Parallel und unabhängig voneinander berechnen dürfte dieser interne SFR Faktor runterfallen und Faktor 2 wäre nicht haltbar.
 
Zuletzt bearbeitet:
Würde man nun Links / Rechts Parallel und unabhängig voneinander berechnen dürfte dieser interne SFR Faktor runterfallen und Faktor 2 wäre nicht haltbar.

Faktor 2 kommt bei zwei GPUs doch direkt ohne jegliche Optimierungen... Die Frage ist halt, ob es eben möglich ist, durch irgendwelche Optimierungen da mehr rauszuholen, wenn alles auf einer GPU Berechnet wird. bspw. eben das Berechnen von zwei Bildern durch unterschiedliche Blickwinkel, wo die Shadereffekte möglicherweise nur 1x durchlaufen werden müssen und der Zusatzaufwand nur die Blickwinkel her kommt.

Im Moment ist mir zumindest nicht bekannt, dass es da dedizierte Vergleiche zwischen SingleScreen und VR einer einzigen vollständig vergleichbaren Testszene gibt... Sprich wie hoch der Performanceunterschied zwischen SingleScreen und VR genau ist, lässt sich aktuell nur bedingt ermitteln...
 
MGPU ist sowieso die Zukunft ( mehrere dedizierte GPUs oder mehrere auf einem Chip) denn irgendwann können die Chips nichtmehr kleiner werden, sind ja schon bei 14nm
also entweder etwas gänzlich neues entwickeln oder eben MGPU

Aber nicht mit der unteren Mittelklasse (RX480).
Nichtsdestotrotz gibt es auch Leute, welche ihren Golf für viel Geld tunen.
 
Bei dem Preis kann man auf jeden Fall zuschlagen. Schätze das die 480 Customs leider 280-320 € kosten werden.
 
Die Fury ist zu groß fürs Case-.-

Warum werden andere nicht mal billiger und nur immer die TriX?

Man will endlich ne neue Karte die sollen mal hinne machen.....
 
Sapphire schrieb auf Nachfrage nach dem Release der Nitro bei Facebook das es für sie eine spannende nächste Woche wird. Ich finde den Beitrag jetzt grade leider nicht mehr.
 
Habe jetzt auch bei der Fury Nitro zugeschlagen. Hatte ja schon die ganze Zeit neben dem Warten auf die RX480 Customs immer die Fury Preise im Auge und gerade die Nitro ist die Beste Fury. Wahrscheinlich mit die leiseste HighEnd Karte überhaupt und vielleicht kann ich sie sogar zur Fury-X freischalten. Zuerst war übrigens die XFX Fury tagelang f. 350€ zu haben und jetzt auch ihre Fury-X f. 429€. Das ist zwar immer noch zu teuer, aber deutlich günstiger als alle anderen. Also XFX u. Sapphire fahren ihre Fury Bestände aggressiv runter. Wer an den Karten Interesse hat, sollte diese beiden Hersteller im Auge behalten.

Jetzt kann ich mir ja die RX480 Customs ganz entspannt angucken und die Fury soll ja auch nur bis Vega drin bleiben, also mache ich mir wegen den nur 4GB auf keine Sorgen. Trotzdem ärgerlich und mich auch unverständlich warum die Customs so lange auf sich warten lassen. Aus meiner Sicht wäre es clever gewesen, wenn die vor dem GTX1060 Launch kämen.
 
Zuletzt bearbeitet:
MGPU ist sowieso die Zukunft ( mehrere dedizierte GPUs oder mehrere auf einem Chip) denn irgendwann können die Chips nichtmehr kleiner werden, sind ja schon bei 14nm
also entweder etwas gänzlich neues entwickeln oder eben MGPU

Prinzipiell hat MGPU schon seinen Reiz.
Sowas macht man wenn dann aber mit Karten, die in der Oberen Liga spielen.

Was würde ein CF Gespann aus 2x RX480 bringen?

Pro:

- Ordentliche Leistung auf dem Niveau einer übertakteten 980Ti / 1070

Contra:

- Teuer, aktuell etwa 80-100€ teurer als eine 1070
- Deutlich höherer Stromverbrauch
- Deutlich lauter
- Die üblichen MGPU Probleme, Skalierung, Microruckler etc.

Am Ende kannst du eine 1070 kaufen, hast die gleiche Leitung, bist günstiger, verbrauchst weniger Strom, bist leiser, und hast weniger Probleme.
 
10100531222l.jpg

Der Tomb Raider patch, der vor ~1 Woche gekommen ist, bringt eine Menge.
Gibt es schon Benchmarks mit der RX 480?
 
Prinzipiell hat MGPU schon seinen Reiz.
Sowas macht man wenn dann aber mit Karten, die in der Oberen Liga spielen.

Warum ? Was spricht dagegen mit zwei günstigen Karten eine Oberligakarte zu übertreffen ?

Was würde ein CF Gespann aus 2x RX480 bringen?

Pro:

- Ordentliche Leistung auf dem Niveau einer übertakteten 980Ti / 1070

Die Leistung liegt eher auf dem Niveau einer übertakteten GTX 1080 und deutlich über einer GTX 1070. ;)
https://www.youtube.com/watch?v=GMHJhP7Y7oM
Und das noch mit den Referenzkarten, die wohl noch deutlich runter takten.

Contra:

- Teuer, aktuell etwa 80-100€ teurer als eine 1070

Die GTX 1070 kostet ca. 500 Euro.
2x RX480 bekommt man ebenfalls für 500 Euro.
PCIe mit GPU (AMD/ATI): RX 480 Preisvergleich
Da sehe ich keinen gravierenden Nachteil.

- Deutlich höherer Stromverbrauch

Jein.
Die Custom-Karten der GTX 1070 ziehen mehr Saft aus der Dose als die FE und sind trotzdem langsamer als 2xRX480.
Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test - Hardwareluxx

Klar, soviel wie 2xRX480 ist es nicht, dafür haben aber 2xRX480 mehr 3D-Leistung.
Schlussendlich stehen 100 Watt mehr Verbrauch auf der Rechnung, die aber in höhere Leistung umgerechnet werden muss, was dann effektiv gesehen nur 20-30% schlechtere Effizienz bedeutet. Also so schlecht ist das nun wieder auch nicht.

- Deutlich lauter

Mit den Referenz RX480 sicherlich.
Aber das ändert sich dann sobald die Customs auf den Plan treten.

- Die üblichen MGPU Probleme, Skalierung, Microruckler etc.

Wieder ein Jein.
Es kommt drauf an was man spielt. 2xRX480, die konstant 60 FPS abliefern können sind besser als eine GTX 1070 die 50-55 FPS liefern kann. Dazu benötigt man dann noch einen sündhaft teuren G-Sync-Monitor um da einen gewissen Ausgleich zu bekommen.
Wenn zwei Karten im CF oder SLI die 60 Hz im V-Sync halten können, so sind Microruckler so gut wie kein Thema.

Wenn du natürlich schon einen G-Sync-Monitor hast, so ist der Kauf von 2xRX480 nicht zu empfehlen, aber da hast du ja schon viel Geld für den Monitor verballert, da kannst du auch eine teure Grafikkarte dazu kaufen.

Hast du einen FreeSync-Monitor oder noch einen alten Monitor der noch gut läuft und du nicht einsiehst extra nochmals einen kaufen zu müssen, für den ist die Option 2xRX480 eben auch vorhanden.

Am Ende kannst du eine 1070 kaufen, hast die gleiche Leitung, bist günstiger, verbrauchst weniger Strom, bist leiser, und hast weniger Probleme.

Wie gesagt. Günstiger bist du nicht dran. Hast aber mehr Leistung und benötigst nicht zwingend einen G-Sync-Monitor.
Die Option 2xRX480 ist eben für Leute, die nicht nochmals einen neue Monitore kaufen wollen und mit 2xRX480 eben die Leistung einer 800 Euro Karte bekommen.

Daher finde ich es sehr schade, das NVIDIA bei der kommenden GTX1060 den SLI-Support komplett einstellt.
 
Zuletzt bearbeitet:
Die GTX 1070 kostet ca. 500 Euro.
2x RX480 bekommt man ebenfalls für 500 Euro.

Wie gesagt. Günstiger bist du nicht dran.

Ich weiß nicht wo du lebst, aber wenn ich mir das mal ansehe:

Günstigste RX480 8GB 269€ : https://geizhals.de/sapphire-radeon-rx-480-21260-00-20g-a1450841.html

Macht 538€ für ein CF Gespann.

Günstigste 1070 (sogar Custom) 459€ : https://geizhals.de/inno3d-geforce-gtx-1070-twin-x2-n1070-1sdn-p5dn-a1457088.html

Macht 78€ WENIGER.

Hier ist klar zu was ich greifen würde.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh