Intel Arc B580: Preisattraktive Grafikkarte für das 1440p-Gaming vorgestellt

Finde die Karte wirklich interessant und jetzt auch für 1440p brauchbar (an das gezeigte Ultra Setting glaube ich jetzt aber nicht).
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich warte unanbhängige Tests ab und wenn die ordentlich ausfallen, werd ich mir die B580 wohl einfach mal zu eigenen Testzwecken holen.
Top. Ich sehe die HW auch erst völlig neutral. Ich fragte mich aber direkt wie kann etwas was noch nicht getestet wurde, bereits "preisattraktiv" sein? Ergibt sich das nicht erst, wenn man sich das P/L anschaut?
 
Dann hat die 7800 XT mehr fps geliefert, denn bei gleichen limitierten fps verbraucht die 4060 Ti nie im Leben nur 30% der 7800 XT.

Kurz mal nachgeschaut und mit meiner 4070 Super jetzt 35W, die 4060Ti hat da 27-30W angezeigt in GPU-Z, ein Monitor läuft in UHD mit 120Hz, der andere in UHD mit 60Hz, Limit ist entsprechend auf 120fps gesetzt, war schon damals mit 7900XT so, dann der 4060Ti und der 7800XT, also FPS Limit, mehr macht keinen Sinn und ist in UHD sowieso selten erreichbar.

Musste sogar erst im Treiber VSync bewusst deaktivieren damit ich auf die 700fps im Menü erreiche, das Spiel selbst hat keine Vsync Option. Und auch bei AMD hab ich immer mit FPS Limit von 120 gespielt.

Weiß gerade nicht mehr wie viel die 7800XT Watt angezeigt hat, hatte da aber das AMD Overlay an und es waren es um die 100W.
Hab zusätzlich an der Steckdose gemessen und es waren einfach ~80W mehr, gleiches System, gleiche Einstellungen, nur andere GPU, kannst mir Glauben oder nicht.

Genauso wie die 7800 aufm Desktop bei meinen 2 UDH Monitoren gefüllt immer mit 40-50w lief, egal was ich eingestellt hab, während es mit der 7900XT bis auf 20w runter ging, keine Ahnung was bei der 7800 falsch lief aber da ich die 7900XT über ein Jahr hatte, wusste ich was einzustellen ist damit die korrekt runtertaktet.

Wenn die Leistung nicht reicht, holst mit mehr VRAM halt auch nicht mehr raus. Das ist Quark von Intel. Mit den 12 GB gleicht man in 1080p maximal das magere PCIe-Interface aus. Immerhin etwas. Das ist aus meiner Sicht auch die Schwäche der 7600/4060. Nicht einmal unbedingt die 8 GB VRAM. Sondern die Kombination aus dem halben PCIe-Interface und zu wenig VRAM in Verbindung mit beim Kunden häufig noch PCIe 3.0 auf dem Board....

Wenn der VRAM nicht reicht, weil in WQHD oder UHD noch mehr benötigt wird, müssen eben Settings runter, idR zuerst Texturen, Schatten.
Und aktuell hast du das Problem bereits in 1080p dank der 8GB...

Geht ja nicht immer um die absolut neusten Spiele die abartige Anforderungen haben, sondern auch gerne mal ältere Spiele die man mit einer 4060 sehr wohl ohne Probleme in UHD zocken kann, gerade wenn man nicht alles auf Ultra stellt.

Settings auf Medium/Hoch statt Ultra und man hat nicht mehr 25fps sondern vllt knapp 60, nur limitieren dann eben wieder die 8GB.

Außerdem sind AMDs 7600/6600 bereits mit x8 angebunden und bei NV die 4060(Ti) ebenso, einzig die 3060 und 6700er waren voll angebunden, macht für Leute mit 3.0 also keinen Unterschied ob die zu Intel, AMD oder NV greifen, und ich bezweifle stark, dass die kommenden 5060 und 8600 wieder mit x16 angebunden werden.

Hatte ich in dem Thread schon beschrieben: https://www.hardwareluxx.de/communi...e-16gb-sinnvoll-nutzen.1360855/#post-30597182
 

Anhänge

  • Screenshot 2024-12-03 212025.png
    Screenshot 2024-12-03 212025.png
    956,1 KB · Aufrufe: 21
  • Screenshot 2024-12-03 214711.png
    Screenshot 2024-12-03 214711.png
    891,9 KB · Aufrufe: 21
Ob es noch weitere Arc-Grafikkarten mit Battlemage-GPU geben wird, ist zum aktuellen Zeitpunkt unklar. Intel sprach im Rahmen der Vorstellung der Arc B570 und B580 nur über diese beiden Modelle und die zugrunde liegende BMG-G21-GPU.
Intel macht wieder Intelsachen. :-[ Bin gespannt ob sie wirklich keine B7xx bringen werden, würde aber leider mal wieder voll ins (Nicht)Konzept passen.
 
Wir sollen jetzt irgend nen Dreck kaufen? So aus Charity? Mitleid? Nächstenliebe?
Du kapierst echt nicht, dass Intel das Ganze schlicht wieder einstellen wird, wenn sie nichts verkaufen? Den simplen Zusammenhang checkst du nicht?

Das hat nichts mit Nächstenliebe oder Mitleid zutun.
Es ist das gleiche Spiel, was auch auf AMD zutrifft. Wenn alle Welt so oder so immer wieder nur NVidia kauft, dann lohnt sich die Entwicklung von GPUs für andere Hersteller nunmal nicht. Immer wieder nur davon zu reden, dass man gern Konkurrenz im Markt hätte, während man letztlich doch immer vom gleichen Hersteller kauft, wird den Markt nicht ändern.

Jetzt gerafft?
 
Hey, was zieht ihr denn jetzt alle so lange Gesichter hier??? Ist des nicht geil, dass es für 0815 Gamer ne neue GraKa Option gibt, die nicht ne gebrauchte 1660 super, ne rx6400/6500 oder ne rtx 3050 ist?? Soll noch Menschen geben die einfach keine 300€+ für ne GraKa ausgeben wollen. Genau auf irgendwelche 1060/1660 Besitzer zielt diese Karte, warum auch nicht. Der Rest hat ja ne Stange Geld für ne zukünfftige 5070/5080/5090.
 
Und dafür musstest du dich registrieren um uns das mitzuteilen? :sneaky:
 
Einerseits ist es nicht verwunderlich, dass der Chip schrumpfen musste, weil die erste Generation viel zu teuer in der Herstellung war. Andererseits: Jetzt haben sie so viele Kerne rausgenommen, dass es wieder nur reicht um sich mit zwei Jahre alten Low-End Produkten der Konkurrenz zu vergleichen und der Verkauf wieder über den Preis gehen muss. :hmm:
 
Einerseits ist es nicht verwunderlich, dass der Chip schrumpfen musste, weil die erste Generation viel zu teuer in der Herstellung war. Andererseits: Jetzt haben sie so viele Kerne rausgenommen, dass es wieder nur reicht um sich mit zwei Jahre alten Low-End Produkten der Konkurrenz zu vergleichen und der Verkauf wieder über den Preis gehen muss. :hmm:
Ein kleiner Chip kann jedoch potenziell im idle gegenüber einem großen Chip sehr sparsam sein. Die Dickschiffe lassen sich ja unter geringer Last oftmals nicht ganz so weit herunterfahren in der Leistungsaufnahme.

Und soweit ich es mitbekommen habe, hatte Intel im Niedriglastbetrieb mit den bisherigen Karten Probleme beim Stromverbrauch.

Eine hohe Dynamik im Takt in Verbindung mit einer geringen Chipgröße bietet vielleicht ganz neue Möglichkeiten.
 
Welche „ganz neuen Möglichkeiten“ sollen das denn sein? Die ~10-15W Idle Verbrauch der AMD/Nvidia Low-End Chips dürften kaum zu schlagen sein, wenn überhaupt passt Intel sich dem an, aber erstmal abwarten ob sie da hinkommen. Alchemist lag bei 40-50W im Idle.
 
Grad die wird doch durch Framegeneration signifikant erhöht...
Genau wie die Latency. :hust:

DLSS (bzw. XeSS) finde ich als Technologie richtig gut und nutze sie in jedem Spiel. Teilweise sehen die damit ja auch besser aus als mit "herkömmlichem" AA. Aber FG nutze ich noch in keinem Spiel, damit fühlt sich alles zu unpräzise an.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh