Intel Arc B580: Preisattraktive Grafikkarte für das 1440p-Gaming vorgestellt

Finde die Karte wirklich interessant und jetzt auch für 1440p brauchbar (an das gezeigte Ultra Setting glaube ich jetzt aber nicht).
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich warte unanbhängige Tests ab und wenn die ordentlich ausfallen, werd ich mir die B580 wohl einfach mal zu eigenen Testzwecken holen.
Top. Ich sehe die HW auch erst völlig neutral. Ich fragte mich aber direkt wie kann etwas was noch nicht getestet wurde, bereits "preisattraktiv" sein? Ergibt sich das nicht erst, wenn man sich das P/L anschaut?
 
Dann hat die 7800 XT mehr fps geliefert, denn bei gleichen limitierten fps verbraucht die 4060 Ti nie im Leben nur 30% der 7800 XT.

Kurz mal nachgeschaut und mit meiner 4070 Super jetzt 35W, die 4060Ti hat da 27-30W angezeigt in GPU-Z, ein Monitor läuft in UHD mit 120Hz, der andere in UHD mit 60Hz, Limit ist entsprechend auf 120fps gesetzt, war schon damals mit 7900XT so, dann der 4060Ti und der 7800XT, also FPS Limit, mehr macht keinen Sinn und ist in UHD sowieso selten erreichbar.

Musste sogar erst im Treiber VSync bewusst deaktivieren damit ich auf die 700fps im Menü erreiche, das Spiel selbst hat keine Vsync Option. Und auch bei AMD hab ich immer mit FPS Limit von 120 gespielt.

Weiß gerade nicht mehr wie viel die 7800XT Watt angezeigt hat, hatte da aber das AMD Overlay an und es waren es um die 100W.
Hab zusätzlich an der Steckdose gemessen und es waren einfach ~80W mehr, gleiches System, gleiche Einstellungen, nur andere GPU, kannst mir Glauben oder nicht.

Genauso wie die 7800 aufm Desktop bei meinen 2 UDH Monitoren gefüllt immer mit 40-50w lief, egal was ich eingestellt hab, während es mit der 7900XT bis auf 20w runter ging, keine Ahnung was bei der 7800 falsch lief aber da ich die 7900XT über ein Jahr hatte, wusste ich was einzustellen ist damit die korrekt runtertaktet.

Wenn die Leistung nicht reicht, holst mit mehr VRAM halt auch nicht mehr raus. Das ist Quark von Intel. Mit den 12 GB gleicht man in 1080p maximal das magere PCIe-Interface aus. Immerhin etwas. Das ist aus meiner Sicht auch die Schwäche der 7600/4060. Nicht einmal unbedingt die 8 GB VRAM. Sondern die Kombination aus dem halben PCIe-Interface und zu wenig VRAM in Verbindung mit beim Kunden häufig noch PCIe 3.0 auf dem Board....

Wenn der VRAM nicht reicht, weil in WQHD oder UHD noch mehr benötigt wird, müssen eben Settings runter, idR zuerst Texturen, Schatten.
Und aktuell hast du das Problem bereits in 1080p dank der 8GB...

Geht ja nicht immer um die absolut neusten Spiele die abartige Anforderungen haben, sondern auch gerne mal ältere Spiele die man mit einer 4060 sehr wohl ohne Probleme in UHD zocken kann, gerade wenn man nicht alles auf Ultra stellt.

Settings auf Medium/Hoch statt Ultra und man hat nicht mehr 25fps sondern vllt knapp 60, nur limitieren dann eben wieder die 8GB.

Außerdem sind AMDs 7600/6600 bereits mit x8 angebunden und bei NV die 4060(Ti) ebenso, einzig die 3060 und 6700er waren voll angebunden, macht für Leute mit 3.0 also keinen Unterschied ob die zu Intel, AMD oder NV greifen, und ich bezweifle stark, dass die kommenden 5060 und 8600 wieder mit x16 angebunden werden.

Hatte ich in dem Thread schon beschrieben: https://www.hardwareluxx.de/communi...e-16gb-sinnvoll-nutzen.1360855/#post-30597182
 

Anhänge

  • Screenshot 2024-12-03 212025.png
    Screenshot 2024-12-03 212025.png
    956,1 KB · Aufrufe: 38
  • Screenshot 2024-12-03 214711.png
    Screenshot 2024-12-03 214711.png
    891,9 KB · Aufrufe: 40
Ob es noch weitere Arc-Grafikkarten mit Battlemage-GPU geben wird, ist zum aktuellen Zeitpunkt unklar. Intel sprach im Rahmen der Vorstellung der Arc B570 und B580 nur über diese beiden Modelle und die zugrunde liegende BMG-G21-GPU.
Intel macht wieder Intelsachen. :-[ Bin gespannt ob sie wirklich keine B7xx bringen werden, würde aber leider mal wieder voll ins (Nicht)Konzept passen.
 
Wir sollen jetzt irgend nen Dreck kaufen? So aus Charity? Mitleid? Nächstenliebe?
Du kapierst echt nicht, dass Intel das Ganze schlicht wieder einstellen wird, wenn sie nichts verkaufen? Den simplen Zusammenhang checkst du nicht?

Das hat nichts mit Nächstenliebe oder Mitleid zutun.
Es ist das gleiche Spiel, was auch auf AMD zutrifft. Wenn alle Welt so oder so immer wieder nur NVidia kauft, dann lohnt sich die Entwicklung von GPUs für andere Hersteller nunmal nicht. Immer wieder nur davon zu reden, dass man gern Konkurrenz im Markt hätte, während man letztlich doch immer vom gleichen Hersteller kauft, wird den Markt nicht ändern.

Jetzt gerafft?
 
Hey, was zieht ihr denn jetzt alle so lange Gesichter hier??? Ist des nicht geil, dass es für 0815 Gamer ne neue GraKa Option gibt, die nicht ne gebrauchte 1660 super, ne rx6400/6500 oder ne rtx 3050 ist?? Soll noch Menschen geben die einfach keine 300€+ für ne GraKa ausgeben wollen. Genau auf irgendwelche 1060/1660 Besitzer zielt diese Karte, warum auch nicht. Der Rest hat ja ne Stange Geld für ne zukünfftige 5070/5080/5090.
 
Und dafür musstest du dich registrieren um uns das mitzuteilen? :sneaky:
 
Einerseits ist es nicht verwunderlich, dass der Chip schrumpfen musste, weil die erste Generation viel zu teuer in der Herstellung war. Andererseits: Jetzt haben sie so viele Kerne rausgenommen, dass es wieder nur reicht um sich mit zwei Jahre alten Low-End Produkten der Konkurrenz zu vergleichen und der Verkauf wieder über den Preis gehen muss. :hmm:
 
Einerseits ist es nicht verwunderlich, dass der Chip schrumpfen musste, weil die erste Generation viel zu teuer in der Herstellung war. Andererseits: Jetzt haben sie so viele Kerne rausgenommen, dass es wieder nur reicht um sich mit zwei Jahre alten Low-End Produkten der Konkurrenz zu vergleichen und der Verkauf wieder über den Preis gehen muss. :hmm:
Ein kleiner Chip kann jedoch potenziell im idle gegenüber einem großen Chip sehr sparsam sein. Die Dickschiffe lassen sich ja unter geringer Last oftmals nicht ganz so weit herunterfahren in der Leistungsaufnahme.

Und soweit ich es mitbekommen habe, hatte Intel im Niedriglastbetrieb mit den bisherigen Karten Probleme beim Stromverbrauch.

Eine hohe Dynamik im Takt in Verbindung mit einer geringen Chipgröße bietet vielleicht ganz neue Möglichkeiten.
 
Welche „ganz neuen Möglichkeiten“ sollen das denn sein? Die ~10-15W Idle Verbrauch der AMD/Nvidia Low-End Chips dürften kaum zu schlagen sein, wenn überhaupt passt Intel sich dem an, aber erstmal abwarten ob sie da hinkommen. Alchemist lag bei 40-50W im Idle.
 
Grad die wird doch durch Framegeneration signifikant erhöht...
Genau wie die Latency. :hust:

DLSS (bzw. XeSS) finde ich als Technologie richtig gut und nutze sie in jedem Spiel. Teilweise sehen die damit ja auch besser aus als mit "herkömmlichem" AA. Aber FG nutze ich noch in keinem Spiel, damit fühlt sich alles zu unpräzise an.
 
Grad die wird doch durch Framegeneration signifikant erhöht...
Auf Kosten der Latenz.
Das ist eine Mogeltechnologie und für mich moderne Prospektverarsche.

Leistung muss eine Karte haben, pure Leistung. Punkt.
 
Bei den Grafikkarten gibt es nur 2 Wege .
Der Erste Weg ist das man gute Hardware hat aber schlechte Treiber (siehe Nvidia)
Der zweite Weg ist das man keine Perfekte Leistungsfähige Hardware hat ,dafür aber bessere Treiber ( Siehe z.B. AMD)
Bei Intel war seit je her Hardware und Software immer ein Graus gewesen. Wer kann sich noch an die Integrierten Grafikeinheiten der Ersten Generation von Intel erinnern ?
Die Teile waren einfach nur Grottig in jeglicher Hinsicht.
Mittlerweile hat sich Intel etwas im Bereich HW gebessert ,aber im SW Bereich was Treiber angeht sind Sie nach wie vor absoluter Müll.
Im Windows wie Linux Bereich. Wobei der Open Source Treiber für Intel GK Modelle im Linux Kernel deutlich besser ist als der von Intel gelieferte (Herstellerseite).
Wenn Intel die Treiberproblematik in den Griff kriegen würde ,wären die GK Modelle echt im Mid Size Bereich Nutzbar. Aber bis dahin entweder Warten oder zu einer AMD GK greifen.
 
Das anvisierte Preissegment sieht sehr interessant aus. Wenn dann noch die Leistung stimmt und die Treibergeschichten rund laufen, könnte ich schwach werden und meine Vega 64 in Rente schicken.
Bin auf die Tests gespannt.
 
Der Erste Weg ist das man gute Hardware hat aber schlechte Treiber (siehe Nvidia)
Der zweite Weg ist das man keine Perfekte Leistungsfähige Hardware hat ,dafür aber bessere Treiber ( Siehe z.B. AMD
Die Aussage, dass AMD bessere Treiber als NVIDIA hat ist definitiv eine wilde Aussage :fresse:
 
Ich bin sehr gespannt, ~280€ ist ein super Preis wenn die Leistung Richtung Nvidia 4060 geht (y).

Intel hat die Treiber dermaßen stark verbessert in den letzten Jahren, wenn sie da weiter Fortschritte
machen ist die neue Generation für den Preis ein noBrainer.

Im Januar soll ich einen Budget-Gaming PC für den 12 Jährigen eines Nachbarn zusammen stellen und
bauen und da steht die B580 aktuell ziemlich weit oben auf meiner Liste.

Bin gespannt auf den finalen Test :).
 
Einerseits ist es nicht verwunderlich, dass der Chip schrumpfen musste, weil die erste Generation viel zu teuer in der Herstellung war. Andererseits: Jetzt haben sie so viele Kerne rausgenommen, dass es wieder nur reicht um sich mit zwei Jahre alten Low-End Produkten der Konkurrenz zu vergleichen und der Verkauf wieder über den Preis gehen muss. :hmm:
Das ist es, was ich auch nicht verstehe. Die 4060 kostet ja knapp unter 300€, mal VRAM hin oder her. Mit Steuern wird die B580 auch nicht billiger sein. Welchen Anreiz sollte man da haben, wenn doch die nächsten Generationen von Nvidia und AMD vor der Tür stehen. Es ist eine brauchbare Karte und angemessen eingepreist, aber halt locker 1 Jahr zu spät. 4060 Ti Performance hätte es schon sein müssen für etwa 300€.

Die 8x PCI E Anbindung ist auch unverständlich. Eine Karte dieser Leistung wäre für AM4 geeignet. Da haben viele B450 mit nur PCI E 3.0. 50% davon sind dann nur noch PCI E 2.0.
 
Zuletzt bearbeitet:
Auf Kosten der Latenz.
Das ist eine Mogeltechnologie und für mich moderne Prospektverarsche.

Leistung muss eine Karte haben, pure Leistung. Punkt.
Das ist wie du sagen würdest "Anti Aliasing ist Verarsche, die Karte soll in so hoher Auflösung rendern dass man nur Downsampling nutzen muss".
Es ist gut dass es Technologien gibt die beinahe das Selbe Ergebnis auf efizientere Art und Weise erreichen.
 
Das ist wie du sagen würdest "Anti Aliasing ist Verarsche, die Karte soll in so hoher Auflösung rendern dass man nur Downsampling nutzen muss".
Es ist gut dass es Technologien gibt die beinahe das Selbe Ergebnis auf efizientere Art und Weise erreichen.
Die erhöhte Latenz ist doch aber im Gaming ein absolutes worst case.
Ich habe deshalb auch seit jeher v-sync im Treiber global deaktiviert.
Es gibt nichts Schlimmeres als eine verzögerte Eingabe, im Gaming absolut furchtbar.
Es kann vielleicht für den ein oder anderen ein Pluspunkt sein.

Jedoch ist es kein Ersatz für echte Leistung.
 
Zuletzt bearbeitet:
Du kapierst echt nicht, dass Intel das Ganze schlicht wieder einstellen wird, wenn sie nichts verkaufen? Den simplen Zusammenhang checkst du nicht?
Check ich schon. Aber wir sind hier in keiner Charity-Show, ich muss (auch) für mein Geld viel Arbeiten, speziell für den Anteil, der mir bleibt, wenn alle "Allgemeinkosten" abgezogen sind (in denen auch die großzügigen Subventionierungen bzw. der Ersatz für die Steuerfreistellungen für die armen globalen Lead-Player eingepreist sind), sehe ich da keinen Grund so einer Firma aus Mitleid etwas abzukaufen.
Einem Obdachlosen eine gemeinnützige Zeitung abkaufen ist eine Sache, Intel eine schlechte Grafikkarte abzukaufen ist eine andere - wenn die Graka hingegen gut wird, wird sie sich schon von selbst verkaufen, sofern sinnvoll eingepreist.

Sollte im Management aber in einem globalen Marktführer-Milliardenunternehmen irgendwie auch klar sein, dass es sich nicht verkaufen wird, wenns nicht konkurrenzfähig ist. Dort gibts bestimmt einige Leute, die 7-stellig im Jahr heimgehen, von denen erwarte ich, dass sie Themen hinbekommen, die man im ersten und zweiten Semester jedes Wirtschaftstudiums in den Grundlagen lernt, eigentlich braucht man dafür noch nicht mal studieren, sollte man selbst in ner Kaufmannslehre lernen.
Den simplen Zusammenhang checkst du nicht, oder?

Wie sagt "der Held" so schön? Dafür musste studiert haben.
Die 8x PCI E Anbindung ist auch unverständlich. Eine Karte dieser Leistung wäre für AM4 geeignet.
Das ist nicht so schlimm, wie diverse Tests belegen (zb vom Der8auer auf YT).
Stimmt zwar, dass es keine Schönheit ist, in der Leistungsklasse aber kein Beinbruch, zudem geht es bei vielen MBs offenbar immer mehr in Richtung Lane-Sharing, so dass eh nur noch 8 Lanes an der GPU sind (was mit PCIe 4.0 ja okay ist und mit PCIe 5.0 ohnehin, aber selbst mit PCIe 3.0 isses kein Drama).
 
Ich bin sehr gespannt, ~280€ ist ein super Preis wenn die Leistung Richtung Nvidia 4060 geht (y).

Intel hat die Treiber dermaßen stark verbessert in den letzten Jahren, wenn sie da weiter Fortschritte
machen ist die neue Generation für den Preis ein noBrainer.

Im Januar soll ich einen Budget-Gaming PC für den 12 Jährigen eines Nachbarn zusammen stellen und
bauen und da steht die B580 aktuell ziemlich weit oben auf meiner Liste.

Bin gespannt auf den finalen Test :).
Dann doch lieber eine 2080ti für 250€ ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh