Battlemage überzeugt durch Preis und 12 GB: Intel Arc B580 Limited Edition im Test

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.147
Mit der Arc B580 hat Intel die ersten dedizierten Grafikkarten der zweiten Arc-Generation vorgestellt, die als Battlemage-Design und mit Xe2-Architektur einen besseren Start vollführen soll, als dies damals Anfang Oktober 2022 mit der Arc A770 und Arc A750 gelang. Mit der verbesserten Xe2-Architektur und 12 GB Grafikspeicher adressiert Intel dieses Mal nicht mehr nur den Spieler, der sich mit 1080p begnügt. Aber natürlich ist auch Intel bewusst, dass der Preis und die Positionierung der Karte eine entscheidende Rolle spielen. Wir schauen uns heute die Limited Edition der Arc B580 genauer an.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn der Preis noch was fällt klingt diese GPU gar nicht mal so schlecht, vor allem weil die 750/70 noch kommt. Allerdings werden auch die anderen Hersteller im nächsten halben Jahr ihre Lowendkarten nachschieben. Für AMD ist ja bereits die 2048-Shader-RDNA4 bestätigt. Die anderen Karten sind ja so gesehen auch schon wieder 2 Jahre alt.
 
Je nach Spiel sehr durchwachsen mal schneller als die 4060, mal langsamer. Aber die 7600XT um 340€ wird klar geschlagen. :lol:
 
Bin ich blind oder fehlen die Tests ohne Raytracing?
Das feature verzerrt das Gesamtbild doch massiv in Richtung Nvidia.
Bitte alle Spiele ohne (!) RT testen.
Erst dann wird ersichtlich, wie gut Amd, Nvidia und Intel performen.
 
Angesichts der recht ansehnlichen Ergebnisse wäre es doch wirklich schade, wenn Intel die Entwicklung diskreter GPUs aufgäbe.
Zumindest scheint man nicht in die falsche Richtung entwickelt zu haben.
 
Wieso ist der Haupttest nur mit RT? Können die ohne nichts oder was?
 
Wir befinden uns aktuell in der Umstellung des Grafikkarten-Testsystems und wurden von der Veröffentlichung der Arc B580 noch im Dezember dann doch etwas überrascht. Insofern haben wir nur eine Auswahl an Arc-, GeForce- und Radeon-Grafikkarten getestet und auch bei den Spielen stellt dies noch nicht den Stand dar, den wir in der finalen Version der Tests anbieten wollen.

Das bisher schon gegebene Feedback zeigt uns, in welche Richtung ihr weiterhin gehen wollt. Danke!
 
Wie lange soll man an Raster only festhalten wenn bald jedes Spiel RT unterstützt?,
da könnte man gleich wieder D3D9 Spiele mit aufnehmen.
 
Je nach Spiel sehr durchwachsen mal schneller als die 4060, mal langsamer. Aber die 7600XT um 340€ wird klar geschlagen. :lol:
Es zeigt dass Potenziale da sind. Vor allem mit RT scheint die auch ganz gut zu laufen in der Performanceklasse.
Bin ich blind oder fehlen die Tests ohne Raytracing?
Das finde ich auch, da gerade in dieser Preisklasse das RT eher nebenrangig ist.
Wie lange soll man an Raster only festhalten wenn bald jedes Spiel RT unterstützt?,
da könnte man gleich wieder D3D9 Spiele mit aufnehmen.
Weil das eine Budget-Einsteigerkarte ist. Ein paar DX11/12 Titel wären schon nett im Test. Denn dafür werden sich die meisten die Karte kaufen. Insgesamt wirkt es stark wie eine "bessere" 2080 Ti auf mich, vielleicht sieben Jahre zu spät aber dafür kostet sie auch nur ein Sechstel.
 
300€ also mehr als die Häflte einer Ps5 ist sicher Mittelklasse und hat mit Einsteiger nichts zu tun ;)
 
An sich keine schlechte Karte und durchaus nen Blick wert wenn der Preis stimmt.

Bitte aber mal die "MSI GeForce RTX 4060 Venus 2X" korrigieren. (Sehen zwar manchmal aus wie ne Venus, soll doch aber Ventus heißen)
:wink:

LG
Martin
 
Bei Black Myth: Wukong in 2K schlägt die Karte 7800XT?
In dieser Leistungsklasse ist RT doch fehlplatziert. Ich mein, d schafft die Karte selbst bei FHD keine 60fps.
 
Am Ende dann doch wieder ein krasserer Fail als ich dachte. Die ersten Infos ließen sich ja ganz gut an, aber nicht mal die 4060 wird konstant geschlagen, das Ganze dann noch bei 30% mehr Verbrauch unter Last und 100% mehr im Idle (außer man hat einen 60Hz Office Monitor), lol. Die 4060 wird bald zwei Jahre alt. Intel hinkt technologisch locker 3-4 Jahre hinterher.
 
1440p Ultra Grafikkarte :rofl: und schaft keine 1080p 60FPS, was für ne Krücke

1734016740534.png
 

Anhänge

  • 1734016713537.png
    1734016713537.png
    12,4 KB · Aufrufe: 49
Das kommt schon auch auf die Testseiten an wie diese in welchem Grafik Setting benchen. :lol:

Ich spiel mit einer A750 in 1440p und dazu sei erwähnt das man am PC unter Settings Regler für die Grafik hat.
 
Im Fazit steht "weiterhin einige Probleme in aktuellen Spielen". Beim überfliegen des Reviews konnte ich die entsprechende Stellen allerdings nicht finden.
Welche Probleme gab/gibt es denn nach wie vor?
 
Im Fazit steht "weiterhin einige Probleme in aktuellen Spielen". Beim überfliegen des Reviews konnte ich die entsprechende Stellen allerdings nicht finden.
Welche Probleme gab/gibt es denn nach wie vor?
Wir hatten 2-3 Spiele, die mit dem ersten (und zweiten) der drei Presse-Treiber nicht funktioniert haben, wie sie sollten. Zumindest für diese drei Spiele (Black Myth: Wukong, F1 24 und Star Wars: Outlaws) konnten diese Probleme dann weitestgehend ausgeräumt werden.
 
Dieses mal die 4060, nächstes mal die 5070 und danach die 6080.

Let's go Intel!
 
Am Ende dann doch wieder ein krasserer Fail als ich dachte. Die ersten Infos ließen sich ja ganz gut an, aber nicht mal die 4060 wird konstant geschlagen, das Ganze dann noch bei 30% mehr Verbrauch unter Last und 100% mehr im Idle (außer man hat einen 60Hz Office Monitor), lol. Die 4060 wird bald zwei Jahre alt. Intel hinkt technologisch locker 3-4 Jahre hinterher.

Da kommt die nicht sooo schlecht weg.
Mit den aktuellen Karten kann sie noch gut mithalten aber die werden auch bald abgelöst.
 
Wo genau widerspricht der Test? Er bestätigt doch nur das Gesagte. Die Leistungsaufnahme ist nur @ Low Hz Idle Desktop verbessert, sobald es losgeht mit 144Hz, Multi Monitor, Videovideogabe etc. ist es vorbei.

Zudem müssen offenbar diverse BIOS Einstellungen gesetzt werden und es funktioniert nicht out of the box.
 
Zuletzt bearbeitet:
Aber hier immerhin effizienter als AMD KArten. NV hat bei der 4060 auch die Default Voltage im Treiber schon sehr niedrig angesetzt vermute ich. Bei älteren Karten kann man über Undervolting viel mehr rausholen, so ca. 30%. Meine 6600XT läuft mit 100 statt 130W fast identisch schnell.
 
Zuletzt bearbeitet:
Wie lange soll man an Raster only festhalten wenn bald jedes Spiel RT unterstützt?,
da könnte man gleich wieder D3D9 Spiele mit aufnehmen.
Solange, bis es nicht nur bloße Gimmicks sind, die die FPS halbieren. Bei der letzten Diskussion wurden fleißig Vergleichsvideos gepostet, wo man die Unterschiede trotzdem mit der Lupe suchen musste und teilweise sah es nicht einmal besser aus.
Von daher im Highend-Bereich kann man da ja gerne Vergleiche machen, aber bei Budget-Karten ist RT das Erste, was man getrost ausschalten und sich über die Zusatz-FPS freuen kann.
 
Wow, es gibt noch brauchbare Karten unter 300€?
 
Werden ab 330 € jetzt aufgeführt. Die Custom-Modelle werden doch teurer werden. Habe als mit 350 € richtig gelegen.
 
Solange, bis es nicht nur bloße Gimmicks sind, die die FPS halbieren. Bei der letzten Diskussion wurden fleißig Vergleichsvideos gepostet, wo man die Unterschiede trotzdem mit der Lupe suchen musste und teilweise sah es nicht einmal besser aus.
Von daher im Highend-Bereich kann man da ja gerne Vergleiche machen, aber bei Budget-Karten ist RT das Erste, was man getrost ausschalten und sich über die Zusatz-FPS freuen kann.
100% Zustimmung.
Für alle, die keine Unsummen ausgeben wollen, spielt RT keine Rolle.
Also ausschalten bei allen Tests von Einsteiger- und Mittelklassegrafikkarten.
 
Solange, bis es nicht nur bloße Gimmicks sind, die die FPS halbieren. Bei der letzten Diskussion wurden fleißig Vergleichsvideos gepostet, wo man die Unterschiede trotzdem mit der Lupe suchen musste und teilweise sah es nicht einmal besser aus.
Von daher im Highend-Bereich kann man da ja gerne Vergleiche machen, aber bei Budget-Karten ist RT das Erste, was man getrost ausschalten und sich über die Zusatz-FPS freuen kann.
Also man sieht nichts, ist Bullshitbingo.

Man könnte RT niedriger gewichten und macht bei RT z.b. Niedrig an, aber im Spiel sieht man sehr viele Unterschiede und auf einem Standbild als Screenshot mag das nicht auf fallen aber im "bewegten" Spiel ist RT selbst auf niedrig gegenüber Raster schon ganz klar im Vorteil.

Edit:
Wer aber RT und Raster getrennt haben will:
PCGH und TPU haben es getestet. Nicht gerade zum Vorteil von AMD :lol:
 
Zuletzt bearbeitet:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh