Intel Arc B580: Erste Modelle ab 319 Euro gelistet

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Auch wenn der Dollar stark ist, eine UVP von 300€ fände ich sportlich in Anbetracht der deutlich besseren 6750XT, die schon für 319€ zu haben ist.
 
sollte die Meldung stimmen, dass Intel 18A nur 10% yields hat, dann hat Intel fertig.
Und ARC ist leider nicht gut genug, als das der neue CEO überhaupt die Option hat, das dGPU Projekt weiterzuführen.
Intel ist 5-7 Jahre zu spät dran, die Taschen sind leer und das Marktumfeld hat sich wesentlich verschlechtert, too little too late...
 
Diese 10 % kursieren ja seit August als Pat Gelsinger eine Defektrate von d=0.40 für Intel 18A angegeben hat. Diese Angabe bezieht sich auf Chips am Reticle Limit von 26 x 33 mm = 858 mm². Nimmt man deutlich kleinere Chips von sagen wir 100 mm², liegt die Ausbeute schon bei 68 %.

Umgekehrt wird von TSMC von einer Ausbeute von 60 % für deren Fertigung in N2 gesprochen. Dabei bezieht man sich auf Chips von 1,5 x 1,5 = 2,25 mm². Nimmt man diese 2,25 mm² bei d=0.40 für Intel 18A, dann landen wir da auch bei einer Ausbeute von 99 %.

Warum diese News da jetzt kursieren weiß ich nicht, vielleicht sollte ich da mal eine aufklärende News machen.
 
hoffen wir mal das du recht hast, aber wie auch immer man es rechnet, die Yields müssen gut genug sein für die Chips die Intel damit produzieren muss.
Ich habe die Meldung in Zusammenhang mit Pats abrupten Abgang gesehen.
 
Momentan im Bereich um die 300€ macht imho nur die 67x0XT Sinn, nächstes wäre eine 3060. Die 67x0XT werden mit Sicherheit auch bald abverkauft sein. Mich wunderts.eh, dass es diese noch zu kaufen gibt.

Deswegen brauchts einfach ne Alternative in dem Bereich mit mehr als 8GB VRAM.

Gut, im Mindstar gabs mal eine 7700XT für 329€, war auch nur 1x bisher, könnte aber wieder kommen.

Aber ich bin gespannt auf die Intel Karten.
 
Und die Karte kann noch nicht mal an einer 2080ti von 2018(!) vorbeiziehen.

Nunja, mein Mitleid mit Intel hält sich in Grenzen.
 
2080Ti hat neu wieviel gekostet?
Dann vergleicht sie auch bitte dementsprechend 😉
 
Warum ist das relevant? Die neuen Karten müssen auf dem Markt bestehen der jetzt herrscht, nicht in der Vergangenheit.
 
Man muss halt einfach sehen, dass die alten Dinger keine Garantie/Gewährleistung mehr haben, vermutlich Miningkarten waren und wars die 2080Ti die so nen bescheidenen VRAM Bug hatte?

Zudem gibts attraktivere Karten wie eine 2080Ti.
 
vermutlich Miningkarten waren
Dann passts doch. Wenn die bis jetzt durchgehalten haben, kanns wohl nicht so schlecht gewesen sein.
Das Thema wird viel krasser hochgekocht als es wirklich ist.
Mein Kumpel hat mit seiner 3090 2 Jahre durchgemined und zockt jetzt mit der Karte wie es sich gehört.
Day 1 Powerlimit voll offen.
Was hald viele Menschen nicht sehen wollen: wenn damit gemined wird, dann soll das absolut effizient ablaufen für den maximalen Gewinn.
Darauf sind Miner eben aus.
Daher sind die meisten Miner bemüht die Karten so effizient wie möglich laufen zu lassen.
Das bedeutet den Stromverbrauch und die Temperaturen so gering wie möglich zu halten.
Ich hab selbst auch 2 Jahre sehr profitabel Eth gemined und kann dir daher sagen, dass eine 3080 bei etwa 225W angesiedelt war.
Jetzt vergleich das mal im Gaming mit heftigen Lastspitzen usw. Mining ist ein Witz dagegen und deswegen gibt es auch kaum Defekte!
Das höchste der Gefühle was du bekommen wirst bei einer Eth Mining Karte sind defekte Lüfter(lager).


Zudem gibts attraktivere Karten wie eine 2080Ti.
Das stimmt, aber selbst eine recht "unattraktive" Karte wie die 250€ 2080Ti, sieht dann recht attraktiv gegen die "tolle" B580 aus.
Spielt die B580 einfach den Wingman in 2024 für die 2080Ti.
 
Miningkarten wurden effizient betrieben, aber der VRAM hochgejubelt, denn dieser machte doch den Unterschied aus, oder?
Ich kann das nicht beurteilen, würde mir aber eine solche Karte dennoch nicht kaufen wollen.

Eine 2080Ti, 3080 etc. kosteten alle neu wieviel?
Und aus diesem Grund sollte man sie auch mit den neuen und auch wieder bald alten 4070 aufwärts vergleichen.

Eine 2080ti sieht für mich nicht attraktiv aus, selbst für 250€ nicht, da gäbe es, wenn es unbedingt gebraucht sein muss 6700XT teils sogar schon 6800er.

Und selbst neu gibts momentan eine 6750XT für 309€, vor paar Monaten sogar für 289€, die sind nicht arg viel schlechter als eine 2080Ti, dafür neu und mit Gewährleistung/Garantie.

Die B580 wird sich halt bewähren müssen und der Markt wird den Preis regeln.
 
Auch wenn der Dollar stark ist, eine UVP von 300€ fände ich sportlich in Anbetracht der deutlich besseren 6750XT, die schon für 319€ zu haben ist.
Das war zu erwarten, da muss Intel schon gehörig am Preis drehen bevor das Ding attraktiv wird. Sehe ich das richtig dass man das vorbestellen soll ohne dass Benchmarks draußen sind? Da muss man schon ein starker Fanboy sein das mitzumachen. Und die 770 scheint ja doch nocht zu kommen, 2025 dann. Dann sind aber auch die RDNA4 draußen, das wird nicht leicht für Intel.
 
Man muss halt einfach sehen, dass die alten Dinger keine Garantie/Gewährleistung mehr haben, vermutlich Miningkarten waren und wars die 2080Ti die so nen bescheidenen VRAM Bug hatte?

Zudem gibts attraktivere Karten wie eine 2080Ti.
Das verwechselst du mit der 970.

Es ging mir darum, dass Intel es sechs(!) Jahre später hinbekommt, eine Karte auf den Markt zu bringen, die, bei etwas weniger Leistungsaufnahme, etwas weniger leistet.
 
Intel ist eben neu in dem Business, erst die zweite Gen in Folge, da hat nVidia anfangs viel öfter verkackt, ebenso wie ATI (heutiges AMD).

Außerdem bieten die anderen beiden in dem Preisbereich auch nicht wirklich was besseres.

Hier besagtes 2080 VRAM Problem:

 
Helft mir mal bitte. Ich besitze aktuell eine MSI RTX 3060 Ti Gaming X LHR und einen Acer XB271HU A. Wäre die B580 zur Graka erstmal ein sinnvolles Update was Performance in Spielen (aktuell bei mir Scum und Cities Skylines 2) ? Falls es relevant ist, die CPU ist ein Intel Core i7-13700KF.

Und aktuell nutze ich ja Gsync. Darüber habe ich wenig Infos gefunden. Speziell was die Kompatibilität mit Monitoren angeht. Adaptive Sync soll die B580 unterstützen, richtig? Komme ich da mit meinem Monitor trotzdem auf ein Tearingfreies Spielerlebnis? Oder gibt es da spürbare Performancedefizite, oder Nachteile gegenüber einer echten Gsynckarte?

Gruß
Jens
 
Leute, lest doch mal: Sparkle Arc B580 ist eine echte TITAN. Deshalb der Preis. :bigok:
 

Wenn selbst AMD nur irgendwo bei 15% Marktanteil liegt sieht es nicht gut aus für Intel. Dazu noch die ganzen Glitches, Bugs und XESS wird auch selten unterstützt.
Im November gabs Meldungen das Battlemage die letzte diskrete GPU sei und jetzt auf einmal arbeite man schon an der 4. Generation:

Naja, Konkurrenz belebt hoffentlich das Geschäft.
Was vielleicht noch für Absatz sorgen könnte sind die 12GB.
 
Helft mir mal bitte. Ich besitze aktuell eine MSI RTX 3060 Ti Gaming X LHR und einen Acer XB271HU A. Wäre die B580 zur Graka erstmal ein sinnvolles Update was Performance in Spielen (aktuell bei mir Scum und Cities Skylines 2) ? Falls es relevant ist, die CPU ist ein Intel Core i7-13700KF.

Und aktuell nutze ich ja Gsync. Darüber habe ich wenig Infos gefunden. Speziell was die Kompatibilität mit Monitoren angeht. Adaptive Sync soll die B580 unterstützen, richtig? Komme ich da mit meinem Monitor trotzdem auf ein Tearingfreies Spielerlebnis? Oder gibt es da spürbare Performancedefizite, oder Nachteile gegenüber einer echten Gsynckarte?

Gruß
Jens
Du bist mit einem echten G-Sync Monitor in der Nvidia Welt gefangen, sofern du variable Refreshrates nutzen willst.
Bleibt dir also nur Nvidia oder ein neuer Monitor mit Freesync.
 
Du bist mit einem echten G-Sync Monitor in der Nvidia Welt gefangen, sofern du variable Refreshrates nutzen willst.
Bleibt dir also nur Nvidia oder ein neuer Monitor mit Freesync.
Vielen Dank für deine Antwort.
Ich meine gelesen zu haben, dass Intel Adaptive Sync nutzt, und das eine "abgespeckte" Version von G Sync bzw Freesync sein soll. Also sollte, wenn es die B580 werden sollte, ausschließlich ein Adaptive Sync Monitor werden? Adaptive Sync soll wohl auf Freesync aufbauen. Kann es dann evtl auch ein Freesync Monitor werden, bei dem kein Tearing entsteht?
 
Vielen Dank für deine Antwort.
Ich meine gelesen zu haben, dass Intel Adaptive Sync nutzt, und das eine "abgespeckte" Version von G Sync bzw Freesync sein soll. Also sollte, wenn es die B580 werden sollte, ausschließlich ein Adaptive Sync Monitor werden? Adaptive Sync soll wohl auf Freesync aufbauen. Kann es dann evtl auch ein Freesync Monitor werden, bei dem kein Tearing entsteht?
Intel Karten funktionieren ganz normal mit Freesync.
 
9ddjqt.jpg
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh