Battlemage schon im Dezember: Gerücht zur nächsten Arc-Generation macht die Runde

Thread Starter
Mitglied seit
06.03.2017
Beiträge
114.147
Bis auf die ersten Details zur Xe2-Architektur im Rahmen der Vorstellung der Core-Ultra-200V-Prozessoren alias Lunar Lake ist es in den vergangenen Wochen und Monaten erstaunlich ruhig um die nächste Arc-Generation namens Battlemage geworden. Per Weibo-Posting (via Videocardz) meldet sich nun der treffsichere Leaker Golden Pig Upgrade und spricht davon, dass es schon im Dezember Neuigkeiten geben wird.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Boha das wäre so geil wenn die in ein paar Jahren eine wirkliche Konkurrenz zu Nvidia wären.
 
Boha das wäre so geil wenn die in ein paar Jahren eine wirkliche Konkurrenz zu Nvidia wären.
So wie es bei Intel imo läuft hoffe ich eher das sie zumindest auf AMD Level kommen.
 
Boha das wäre so geil wenn die in ein paar Jahren eine wirkliche Konkurrenz zu Nvidia wären.
Sorry, aber der INTEL Oberindianer hat bereits angekündigt, dass man sich bei INTEL nach Battelmage von dedizierten GPUs von INTEL verabschieden wird und sich (wieder Mal) auf den (für INTEL sicheren) Markt der iGPUs konzentriert.

Ein Schritt, der angesichts der Lage von INTEL zwar irgendwie nachvollziehbar ist, mir dennoch zu kurz gedacht scheint, jetzt wo man gerade die Kinderkrankheiten aus den Treibern raus hat und selbst die Alchemist GPUs eine echte Alternative zu AMD und NVIDIA anbieten, was das Einstiegss und Midrage-Segment für Gamer-GPUs angeht.
 
Vor allem als wenn Nvidia direkt damals die geilste GPU auf den Markt geworfen hat. Das hat etliche Jahre gebraucht. Aber so sind die Techkonzerne von heute. Wenn es nicht sofort klappt und Kohle bringt wird es halt gekillt.
 
Ist leider so.
Aus meiner Sicht haben Sie Battlemage auch mit ihrem Vorstoß so etwas kurz vor dessen Release rauszuhauen jegliche Chance auf wirklichen Erfolg beraubt.
Eigentlich müsste man den Typen dafür abmahnen. Ich kann mir gut vorstellen, dass Battlemage an die 4070er RTX rankommen könnte und damit für die breite Masse an Spielern auch tatsächlich spannend wäre. Aber wer kauft schon eine GPU wenn man weiß, dass es ohnehin die letzte des Herstellers sein wird?
Ich hab das Gefühl, der Typ wollte direkt verhindern, dass in den Reihen von INTEL selbst vielleicht durch einen etwaigen Erfolg noch Stimmen lauter werden, die dedizierten GPUs fortzuführen. Keine Ahnung warum man sowas ansonsten machen sollte.

Ich habe selber eine ARC 310 GPU als Arbeitstier und bin ziemlich überwältigt, was das 100€ Teil zu leisten vermag. Deshalb ist es für mich umso unverständlicher.
 
...und selbst die Alchemist GPUs eine echte Alternative zu AMD und NVIDIA anbieten, was das Einstiegss und Midrage-Segment für Gamer-GPUs angeht.
Echte Alternative? In welcher Welt bitte?
Die Leistungsaufnahme ist viel zu hoch und somit in keinster Weise alternativ zu AMD/NVidia. Auch gibt es noch immer viele Treiberprobleme, speziell in älteren Spielen, aber auch in aktuellen Titeln.
Was das Featureset hinsichtlich Konkurrenz zu DLSS/FSR usw. angeht, ist Intel ebenfalls weit hinten dran.

Ich hatte gehofft, dass es mit Battlemage weiter in die richtige Richtung geht. Aber wenn sie bereits damit ihre GPU Ambitionen wieder begraben, war das einmal mehr nur ein Strohfeuer. Echt erbärmlich, dass dieser riesige "Weltkonzern" offenbar so gut wie gar nichts mehr gescheit gebacken bekommt.
"Arrow Lake" ist ja ebenfalls eine ziemliche Lachnummer geworden und im Server Segment haben sie gegen AMDs Epyc CPUs ebenfalls das Nachsehen.
 
Naja das Zitat als direkten Tod zu deuten ist schon hart:
"...dass man sich auf "große integrierte Grafikfunktionen" konzentrieren werde, da die Nachfrage nach diskreten Grafikkarten auf dem Markt in Zukunft geringer sein werde."
Fokus heißt (erstmal) nur Resourcenverteilung.

Igpus's werden mittelfristig das Einstiegssegment (nahezu komplett) ablösen, was das Potenzial für dedizierte GPU's bei Intel aber ohne Frage weiter schmälert.
Gerüchte zu Arc 3 gab es dennoch schon...
 
Zuletzt bearbeitet:
This doesn't mean that Intel will completely ditch the discrete GPU manufacturing, as Ian Cutress reports that Intel is still committed to Arc. It does seem like Intel is not going to be aggressive in the discrete GPU department, but it will keep producing discrete GPUs for desktops.
Wie soll man sich eine "nicht aggressive" Fortführung dedizierter GPUs sonst vorstellen? Wozu sollte man "moderat" entwickelte GPUs im Consumer-Bereich nutzen? Was ist das dann überhaupt? Sowas wie eine GTX1030? Mir fällt da absolut kein Usecase mehr ein in Zeiten von Intel XE iGPUs und AMD Ryzen iGPUs. Im iGPU Segment (Notebooks) war INTEL schon immer weit vorn. Für mich klingt es als zöge man sich, wie schon einmal Anfang der 2000er in diese Komfortzone zurück.

Echte Alternative? In welcher Welt bitte?
Zum Beispiel in einer Welt in der Leute im Einstiegs- Segment (200-300€) auf den Preis und die Leistung schauen.
Mich hat noch nie jemand gefragt "Du Dave, welche Grafikkarte mit vernünftiger Leistung bis 250€ kannst Du mir empfehlen, die vor Allem nicht viel Strom verbraucht?"
Mit dem was AMD mit FSR abliefert konnte XESS bisher locker mithalten- zumindest qualitativ. Die Treiber sind inzwischen deutlich stabiler. AMD hat dafür 20 Jahre gebraucht und ist immer noch nicht wirklich weiter. Was alte Spiele angeht...keine Ahnung..obwohl ich Ü40 bin kenne ich niemanden der sich für "alte Spiele" ne neue Grafikkarte kauft. Interessiert mich nicht und kann ich daher nicht beurteilen. Ich würde in Frage stellen, ob man da überhaupt eine dedizierte GPU braucht.
 
Zuletzt bearbeitet:
Was alte Spiele angeht...keine Ahnung..obwohl ich Ü40 bin kenne ich niemanden der sich für "alte Spiele" ne neue Grafikkarte kauft.
Das vielleicht nicht, aber ich (noch nicht ganz 40) kenne genügend Leute, die auch auf ihrer aktuellen Hardware ab und an auch mal etwas ältere Spiele zocken.

Im Bereich 200-300€ haben AMD und NVidia wahrlich genügend Karten im Angebot, die insgesamt deutlich attraktiver sind als das, was Intel da anbietet.
Wenn ich mir bspw. mal den CB Test zu Call of Duty: Black Ops 6 als aktuellen Spieletitel anschaue, dann sehe ich eine über 300€ teure Intel A770 Karte in FullHD bei mickrigen 55 FPS, während sogar eine RTX 3060 (mit 12GB derzeit ab 250€ zu bekommen) 75 FPS liefert und eine RX 7600 (aktuell ab 230€) sogar 97 FPS.

Auch in der kürzlich erschienenen PC Version von Red Dead Redemption schneidet die A770 schlechter ab als RTX 3060 und RX 7600. Hier ist der Unterschied zwar geringer (12 bzw. 15 FPS mehr als Intel), aber er ist da.

Fazit: Die über 300€ teure Intel A770 ist langsamer als die 60-80€ günstigere Konkurrenz.
Mit der A750 existiert zwar eine Intel Karte auf vergleichbarem Preisniveau wie die beiden von mir genannten Konkurrenten, ist aber eben nochmal langsamer.

Und du willst mir erzählen, dass die Intel Karten eine "echte Alternative" darstellen?

Übrigens, wenn man wirklich so hart aufs Geld schauen muss, dann schnappt man sich ein gutes Gebrauchtangebot. Da bekommt man bspw. schon eine RX 6700XT für 220-230€, die nochmals schneller ist.
 
Zuletzt bearbeitet:
Also ich wünsche mir eine preiswerte Intel-Graka mit zwei Video-Encodern! :geek:
Das wäre toll, denn die sind im Graka-Markt praktisch die besten, und das aktuell zum Dumpingpreis. Nvidia ist auch nicht schlecht, aber zwei Encoder gibts nur im Premium-Segment (ab 4070ti)
 
wenn die in ein paar Jahren eine wirkliche Konkurrenz zu Nvidia wären
Eine Intel-Karte mit der Leistung einer RTX 4070 und einem 16 bis 20GB großen Arbeitsspeicher könnte für mich interessant werden. Dazu müssten dann aber auch die Treiber wirklich gut sein und die Preise deutlich unterhalb der von Nvidia sein. Die Raytracing-Leistung sieht ja teilweise schon recht gut aus, wenn man das z. B. mit AMD vergleicht. Aber ich denke, es werden noch so einige Jahre vorbeiziehen, bevor ich ernsthaft über eine Grafikkarte von Intel nachdenke. Aber es wäre wirklich schön, wenn wir in Zukunft einen dritten ernsthaften Anbieter hätten.
 
Soso Exit Gerüchte da Werd ich dann ordentlich zu schlagen bei den Karten und lagern 🤣🤣🤣

Ich freu mich drauf endlich wieder was zum spielen, testen und ins Regal stellen den Rest was der Intel Vogel da meinte mal Abwarten der kocht auch nur mit lauwarmen Wasser
 
Ich habe selber eine ARC 310 GPU als Arbeitstier und bin ziemlich überwältigt, was das 100€ Teil zu leisten vermag. Deshalb ist es für mich umso unverständlicher.

Ist echt so, habe auch eine Arc310 seit Release absolute geniale GPU für Multimedia/Rendering, AV1 Decoding und Encoding Onboard, Intel VSR für Upscaling bei Videoquellen und dabei sehr sparsam. Nur am Anfang hatte ich ein paar Probleme mit dem Intel GPU Treiber, seit einigen Monaten aber absolut Stabil und Problemfrei.
 
@Morrich Ich schließ mich da Dave an, es gibt einige Einsatzzwecke, wo die Intel-Karten (für mich) sehr interessant sind.
Nicht jeder nützt den PC vorrangig zum Zocken !!! Aber wir hatten diese Diskussion bereits im Juni.

Es zwingt Dich ja auch keiner eine Intel Karte zu kaufen. Leben und leben lassen. Aber betrachte es mal so, ein weiterer Mitbewerber am Markt, der zumindest (je nach Betrachtungsweise mehr oder weniger) als Konkurrent betrachtet werden kann, hilft doch im Endeffekt allen Konsumenten...

Und wenn Intel dann für Dich auch "nur" Mittel zum Zweck ist, dass Du die eine oder andere AMD-Karte dann ev. etwas günstiger bekommst...
 
Weil es hier gerade paßt:

Ich hab im April 2023 einen Bug an Intel gemeldet. Ich hatte das Problem, das beim Videoschnitt auftrat, und sich so äußerte, daß beim Abspielen bzw. schnellen durchspulen eines Videos in der Schnittsoftware, der Desktopfenstermanager von Windows den RAM irrsinnig schnell mit Daten füllte, die in keinem Verhältnis zum Video standen. Nach kurzem Spulen waren da schnell 10 oder 15GB an RAM belegt, und wenn ich es nicht schnell genug bemerkte, konnte ich den PC auch fast zum Abstürzen bringen, weil der RAM einfach voll war. Abhilfe schaffte das zwischenzeitliche Minimieren des Schnittfensters. Dann leerte sich der RAM, und das Problem war "behoben" - jedenfalls bis zum Öffnen des nächsten Videos. Dann ging der Spaß von vorn los.

Das Problem trat reproduzierbar nur auf, wenn eine Intel-Grafikkarte (Arc A380) im System war. Mit der Nvidia zuvor und auch mit der zwischenzeitlich benutzten AMD-Karte war nichts. Bei ansonsten identischer Hard- und Software. Ich hab Intel das Problem geschildert und auch ein Beweisvideo geschickt, und die versprachen, sich darum zu kümmern.... man kennt das ja...

Aber sie haben Wort gehalten! Auch wenn es verdammt lange gedauert hat. Ich hatte mich schon daran gewöhnt, beim Schnitt immer den Taskmanager geöffnet zu halten, um die RAM-Auslastung im Auge zu behalten. Vor kurzem fiel mir auf, daß es nicht mehr passierte. Warum, war erst mal nicht ersichtlich. Und da es nicht immer auftrat, konnte das auch Zufall sein. Gestern aber bekam ich eine Mail von Intel, in der mir froh mitgeteilt wurde, daß mein geschildertes Problem seit der Treiberversion 6127 endlich behoben sei! Und man entschuldigte und bedankte sich bei mir.

Hallelujah! :d

Was lange währt....
Und schon deshalb wäre es schade, wenn Intel sich aus dem Grakamarkt zurückziehen würde....
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh