Intel Arc A750 und A770 in der Limited Edition im Test

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was aber nichts anderes heißt als die Banane reift beim Kunden.
Die Leistung muss nicht perfekt zum Start sein, aber sollte sich im Rahmen bewegen.

Wenn es um Linux geht hab ich deutlich toleranter als bei Windows. Liegt wohl daran das ich in Windows fast nur zocke und da keine Probleme mag.
 
Ich muss neidlos anerkennen, dass Intel genau auf dem Punkt gelandet ist, der an der Wand eingezeichnet war.
 
Danke für den ausführlichen Test. (y)
Ja, da denke ich hat Intel sich in gewissen Form als Alternative platzieren können. Für HD/WQHD durchaus performant. Treiberprobleme wird es immer geben, siehe NV und AMD, ständige Updates hält es am Laufen. Ich denke auch die Hardware wird mit der Zeit immer besser und effizienter werden. Trotzdem muss man den Entwicklern Respekt zollen, für ein Erstlingswerk in diesem Umfang und mit der neuer XeSS Implementierung, was auch funktioniert. Jetzt nur noch den Preis in vernünftigen, bezahlbare Bereiche bringen. Sehr guten Support anbieten und hier und da an der Stellschraube drehen, um es effizienter zu machen. :fresse2:
 
Für eine erste Generation bin ich positiv überrascht, hätte mit deutlich mehr Rückstanf gerechnet bzw. schlechterer Effizienz.

Kann richtig gut werden.
 
Wenn man die synthetischen Benchmarks betrachtet, auf die der Treiber wohl von Intel genauso wie von AMD und Nvidia bis zum Erbrechen optimiert wird, dann sieht der Chip doch relativ gut aus. 3070 halbwegs in Schlagdistanz, 3060 Ti und 6700 XT geschlagen.
Die Baustelle wird offensichtlich wenn man die Diskrepanz zwischen synthetischen Benchmarks und real in Spielen abgelieferter Leistung sieht (Rest mal außen vor).
Heißt für mich dass die Architektur, wie schon mehrfach berichtet, zwar erhebliche Flaschenhälse, Design Flaws, nennt es wie ihr wollt, hat, aber Potential ist da. Es steht und fällt wohl mit Intels Motivation dran zu bleiben, die Software in Angriff zu nehmen, Battlemage zu optimieren (dürfte für tiefgreifende Änderungen zu spät sein), Geld zu investieren und dann mit Celestial die erste richtige Konkurrenz zu präsentieren.
Wir werden sehen. Hoffentlich liegt MLID dieses Mal daneben. Würde mich freuen wenn wir von Intel mehr als integrierte Grafik und Datacenter sehen.
So, go Intel! Fix your software stack like you never did before!
pun intended
 
+ vernünftige Leistung mit DirectX 12, gutes Video Encoding, super für AI
- rBAR notwendig, alles unter DirectX 12 wird nur emuliert und ist daher langsam

349 $ bei der Die-Größe und 16 GB Speicher - da wird wohl kein Gewinn gemacht. Hoffentlich bekommt Intel aber einen Fuß in die Tür, damit es in Zukunft mehr Konkurrenz gibt.
 
Zuletzt bearbeitet:
An sich liest sich das besser als erwartet aber der Idle Verbrauch ist nen NO GO, ich hoffe die kriegen das noch in den Griff.
 
Ich muss neidlos anerkennen, dass Intel genau auf dem Punkt gelandet ist, der an der Wand eingezeichnet war.

Eben das ist ja nicht der Fall.
A770 hat zum Teil richtig abgeliefert und gezeigt, dass wenn man mit dem Treiber schon ganz fertig wäre durchaus das Niveau einer RTX3070 erreicht oder eben auch AMD 6800.
Da bewegen wir uns schon Richtung Oberklasse.
Das Treiber noch Probleme machen war auch bekannt, wichtig ist hier aber zu sehen, dass Optimierungen bereits zum Teil gegriffen haben.
Die Karten werden nachreifen, da sind sich eigentlich alle einig.

Einen Pluspunkt muss man Intel wirklich für das realistische Marketing geben.
Statt negativen Überraschungen gibt es die positive bei der Raytracing Leistung.

 
Zuletzt bearbeitet:
Ich hoffe, dass Miner nicht auf die Idee kommen die Kerne nutzen zu wollen.....bei diesem aktuellen Preis. Dann werden wir nur Testsamples in den Rezessionen zu sehen bekommen. Intel CEO: "We love Gamers (and Miners)" :hust:
 
Die 750 ist langsamer als die 6600, zieht dafür knapp 90W mehr aus der Dose.
Leerlauf: 6600 5W, die 750 41W
YouTube Video: 6600 20W, 750 45W
Dual Monitor Leerlauf: 6600 23W, 750 41W
Dual Monitor YouTube: 6600 30W, 750 50W
Kosten: 6600 282€, 750 289$ + MwSt. Also günstiger ist auch noch gelogen.
Treiberprobleme beim Vorzeigetitel Spider-Man
Millionen Spieler noch in diesem Jahr eine preisgünstige Alternative zu bieten, ist auch gelogen.

Zudem sorgenfreies Spielen mit der 6600.
 
Danke für den Hinweis! vGPUs vs GPU passthrough ist ja eine völlig andere Sache. Schade, das wäre ein weiteres Alleinstellungsmerkmal gewesen.
Naja, nicht wirklich allein, nVidia Grid via mdev gibt's ja schon und sriov passthrough geht eh immer

(ja mdev, geht aktuell "nur" bis zur 2000er im Mainstream. Aber ne 2080ti (oder die Titan dazu) ist auch schneller als die A770
)
 
Sieht relativ in Ordnung aus, außer der Eine oder Andere Bereich. Man bedenke, dass da sogar RDNA2 mit der 6800XT am Anfang langsamer war, als die 3080 und nun schneller ist (außer RT). Ich denke, dass da bestimmt um die 10-15% Performance noch kommen wird in den nächsten Monaten und sich die Idle Leistungsaufnahme auch bessern wird. Glückwunsch Intel!

@Defuqisthis - Was waren denn deine Erwartungen? Die Karte ist eigentlich genau da gelandet, wo es die meisten Gamer gibt und mit der Macht, was da Intel im OEM Markt hat, können die viel verkaufen.
 
Mein Problem mit der Karte ist die Chipfläche, 4096 Shader und 406 mm² für die Leistung einer halb so großen 6600 XT, mit dem kannst du keinen Gewinn machen.
Intel steht aktuell stark unter Druck und ein unrentabler Chip schreit nach der Axt.
Arc würde sicher nicht ganz eingestellt werden, aber man konzentriert sich auf Low-End und Server oder sogar nur auf Server.
 
Glückwunsch Intel!
Hmm, ja. Schauen wir mal:

- Schlechtere Performance gegenüber den zwei Jahre alten Architekturen der Konkurrenz
- Deutlich höherer Stromverbrauch gegenüber den jeweils gleichschnellen Konkurrenzkarten (trotz deutlich besserer Fertigung ggü. Nvidia)
- Massiv höhere Produktionskosten gegenüber bei den gleichschnellen Konkurrenzkarten
- Ältere Games sind problematisch dank Fake D3D9
- XeSS sieht gegenüber DLSS mies aus und läuft auch noch langsamer

Stimmt, da kann man schon mal klatschen, großer Wurf.
 
Man beachte mal die 4K Werte, inkl. Test mit deaktivierte rBar:
 
Naja, die anderen beiden haben jahrelangen Vorsprung. Dafür ist das Ergebnis wahrlich nicht schlecht. Nur am idle verbrauch muss dringend noch gefeilt werde.
 
Im Grunde war es bei den HD 7950/7970 ähnlich - aber im Laufe der Zeit haben sie deutlich an Performance zugelegt dank guter Treiber.
Das war bei der 480 genauso. Die hatte einen schlechten Start, liegt aber gerade bei DX12 nun oft vor ihrem damaligen Konkurrent.
+ vernünftige Leistung mit DirectX 12, gutes Video Encoding, super für AI
- rBAR notwendig, alles unter DirectX 12 wird nur emuliert und ist daher langsam

349 $ bei der Die-Größe und 16 GB Speicher - da wird wohl kein Gewinn gemacht. Hoffentlich bekommt Intel aber einen Fuß in die Tür, damit es in Zukunft mehr Konkurrenz gibt.
Die RDNA-Karten hatten auch ein massives Problem in DX9. Oder haben es noch. Wobei ich nun keine akuten Probleme mehr habe. Die Spiele sind zudem so wenig anfordernd dass eine 6900 XT zB Mass Effect 3 mit 500 MHz in 4K rendert. Witcher 2 hatte allerdings massive Probleme weshalb ich meinen Run abbrechen musste mit einer 5700 XT. Mit so etwas würde ich hier auch rechnen.
 
Was habt Ihr denn erwartet? @L0rd_Helmchen @Defuqisthis
Nichtmal AMD bekommt seine Treiber anständig zu Laufen und das mit jahrelanger Erfahrung. Meine alte 5700XT (2x MSI und 1x Sapphire) liefen nichtmal anständig, ständig irgendwelche Abstürze, Blackscreens oder die max Auflösung des Monitors wurde aufeinmal nicht mehr Supported. Dazu hat AMD einen sehr schlanken Die mit weniger Features oder speziellen Kernen. AMD macht Gaming only Chips fast und das auf wenig Fläche. Dazu war der Die von Turing damals auch sehr sehr groß und war auch nicht bedeutend schnell (Siehe TU106 445mm2, TU104 545mm2 und TU102 754mm2).

In dieser Marktsituation kann man sich nur für jeden neuen Teilnehmer freuen. Ihr hofft doch nicht ehrlich auf AMD, dass die alten Preise bleiben werden? Dazu wird es bestimmt noch etwa ein Jahr brauchen, bis die die neuen 4060er oder 7600XT Karten rauskommen. Intel ist ja nun kein kleines Unternehmen, welches sich solche großen Dies auch, wenn das ein Minusgeschäft sein sollte am Anfang. Ihr habt doch nicht ernsthaft eine Karte erwartet, die direkt ohne Probleme läuft und konstante Leistung liefert überall?
 
Naja, die anderen beiden haben jahrelangen Vorsprung. Dafür ist das Ergebnis wahrlich nicht schlecht.
Doch, ist es.
Völlig egal, ob die Konkurrenz schon jahrelang im Geschäft ist. Intel will als dritter Player in den dGPU Markt einsteigen. Insofern müssen sie auch das abliefern, was die Konkurrenz bietet, oder deutlich günstiger sein, sonst haben sie keine Chance und keine Daseinsberechtigung im Markt.
Die Arc GPUs sind aber weder das Eine, noch das Andere. Von den Treibern mal ganz abgesehen, die wohl auch noch Monate Feinschliff benötigen werden.
 
Naja "erwartet" habe ich nicht viel, weil mir schon klar war, dass ein Koduri Projekt so einen Verlauf nehmen würde. Vega war kein Zufall.

Angesichts der Chipgröße wäre mMn. jedoch ~3070 Leistung angemessen und der Stromverbrauch müsste gleichzeitig niedriger sein, weil 7/6nm TSMC vs. 10nm Samsung. Außerdem hätte die Karte aus meiner Sicht mindestens ein Jahr früher erscheinen müssen, dann hätte ich das Ergebnis nicht so negativ gesehen.
 
Gruselig. Das Topmodell erreicht gerade mal das Leistungsniveau von 5 Jahre alten Nvidia-Karten, bei vergleichbarem Stromverbrauch trotz neuester Fertigungstechnik. Elektroschrott in Tüten, die neuen Generationen von Nvidia und AMD werden damit den Boden wischen.
 
Doch, ist es.
Völlig egal, ob die Konkurrenz schon jahrelang im Geschäft ist. Intel will als dritter Player in den dGPU Markt einsteigen. Insofern müssen sie auch das abliefern, was die Konkurrenz bietet, oder deutlich günstiger sein, sonst haben sie keine Chance und keine Daseinsberechtigung im Markt.
Die Arc GPUs sind aber weder das Eine, noch das Andere. Von den Treibern mal ganz abgesehen, die wohl auch noch Monate Feinschliff benötigen werden.
Dir ist wohl entgangen, dass es nicht nur um Gamer, sondern auch um Content-Creator geht?

Zudem könnte nach einigen Treiberupdates für Linux die Karte durchaus sehr interessant sein.
 
Gruselig. Das Topmodell erreicht gerade mal das Leistungsniveau von 5 Jahre alten Nvidia-Karten, bei vergleichbarem Stromverbrauch trotz neuester Fertigungstechnik. Elektroschrott in Tüten, die neuen Generationen von Nvidia und AMD werden damit den Boden wischen.
Darum sag ich ja, Preise runter, JETZT. Sonst werden die die Dinger nie los.

So eine A380 für ~100 würde ich glatt erwägen. Bei Neuware wäre das sogar ein fairer Preis. Immer noch besser als gebrauchte 480 4 GB für den Preis von Kleinanzeigen, die spinnen doch. Natürlich liegt das auch daran dass es momentan keine Alternativen gibt.
 
Naja "erwartet" habe ich nicht viel, weil mir schon klar war, dass ein Koduri Projekt so einen Verlauf nehmen würde. Vega war kein Zufall.

Angesichts der Chipgröße wäre mMn. jedoch ~3070 Leistung angemessen und der Stromverbrauch müsste gleichzeitig niedriger sein, weil 7/6nm TSMC vs. 10nm Samsung. Außerdem hätte die Karte aus meiner Sicht mindestens ein Jahr früher erscheinen müssen, dann hätte ich das Ergebnis nicht so negativ gesehen.
angesiedelt war ja die Performance für 3060 Ti etwa, laut Gerüchteküche gings mal hoch bis zur 3070. Natürlich sieht es jetzt etwas weniger geleistet aus, aber mit Treiberupdates sollte da etwas mehr kommen in den nächsten Monaten. Die Leistungsaufnahme ist noch im Rahmen, natürlich sieht es bei den Anderen besser aus, aber das sind noch Werte, die jedes Netzteil schafft (nicht wie die 4090).


Schau es dir mal an, da erzählt er auch leicht von den Problemen
 
Finde ich nicht. Die Benchmarks zeigen solide 2080S-Leistung. Sogar vor der 5700 XT. Die 5700 XT war damals auch langsamer als die 2080S, dafür kostete sie allerdings auch nur die Hälfte. Einzig der Idleverbrauch wundert mich was. 50 W?! Liegt das an den LEDs?
 
Ich denke, dass da etwas den Energiesparmodus triggert und der dann auf volllast läuft, wie bei AMD oder Nvidia mit Dual Monitoren, wo dann der VRAM Takt aufdreht und die Leistungsaufnahme auch um die 35-45W sich bewegt
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh