Die Farbe Weiß als Herausstellungsmerkmal: Sparkle Arc A770 ROC Luna White im Test

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.950
Mit der Sparkle Arc A770 ROC Luna White schauen wir uns heute ein weiteres Custom-Modell der Arc A770 mit Alchemist-GPU an. Für FHD oder QHD müssen die sich Intel-Karten nicht mehr zwangsläufig hinter der etablierten Konkurrenz verstecken, was auch daran liegt, dass die Karten mit 16 GB an Grafikspeicher zu einem Preis ab knapp über 300 Euro doch so einiges zu bieten haben. Wir befinden uns aktuell aber auch in einer Übergangsphase für die nächsten Generationen von AMD, Intel und auch NVIDIA. Von daher lohnt sich ein genauer Blick auf die Sparkle Arc A770 ROC Luna White, die nicht nur mit ihrer Optik punkten möchte.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Tja schade, dass die Arc solche Stromfresser sind. Sonst wären das nach den ganzen Treiberupdates mittlerweile echt brauchbare Konkurrenzprodukte zu AMD und NVidia (zumindest in Games mit Raytracing).
 
Zuletzt bearbeitet:
Naja, geht ja so halbwegs.
Die Lüfter sind halt mal richtig räudig, wie viele VGA Lüfter. Mir geht nicht ganz ein, warum diese VGA Lüfter immer so bescheiden sein müssen... bei "normalen" Lüftern bekommt man selbst von Discount-Herstellern (Arctic) oder verschrienen Kiddo-1337-Buden (Thermalthake) gute Ware. Kein Plan warum Graka-Lüfter so schrecklich sein müssen.
Betrifft jetzt aber nicht nur diese Sparkle, sondern ist so eine allgemeine Sache, die auffällt. Hier nur erwähnt, weil man diesen Lüftern imho besonders gut ansieht, wie billig sie sind.

Die ~50W Idle sind halt der Witz schlechthin. Kein Plan, wie das zu Stande kommt. Damit ist das Ding doch eigentlich (fast) nicht verkläuflich, ausser für Nieschenanwendungen (irgendwas war damit wohl gut zu decoden und so...). Nicht nur weil dieser Verbrauch Strom kostet, auch weil eine passive Kühlung damit eigenltich nicht möglich ist.

Sonst ist die Intel Arc so P/L mäßig wohl nicht so schlecht... liegt halt auch an der grausigen Konkurrenz und deren abenteuerlichen Preisen.


Cool, dass ihr Control getestet habt. Ich fand Contol ziemlich gut... Endgame ist halt meh, aber eigentlich ein ganz nettes Spiel mit einem ganz netten Gameplay, wie ich fand. Grafik und Physik haben mir gut gefallen.
Der Leistungshunger von Control ist halt > Cyberpunkt, gefühlt...
Ich hab mit der 4070 Ti am 4k@144 Monitor DLSS render res auf 1080p gestellt (Rest alles höchste) und den Frame Limiter auf 70 fps, damit die Sache spielbar bleibt ohne 100% VGA Lüfter...
Auf jeden Fall ist Control ziemlich cool und underrated.


PS: Hier hat der eine Min. FPS Datensatz doch was, oder?
1719238901181.png
 
Danke für den Test.

Not great, not terrible. Leider reitet sich die ARC Generation bei mir auch im Leerlauf rein welcher stark an der Grenze zu inaktzeptabel ist, selbst gewisse 7900 XTX Modelle haben es geschaft diesen erheblich zu reduzieren.
Hoffentlich macht es der Kampfmagier unter anderem in dem Bereich deutlich besser.
 
Mit einem so hohen Idle Verbrauch müssten die Lüfter doch ständig immer wieder an und aus gehen, bei einer so kleinen Kühleroberfläche. Leider ist das auch schon wieder ein absoluter Ausschlusskriterium in meinen Augen.
 
Japp!

Ich hatte hier mal die A750 (in der Intel-Version), da die A380 grafisch schon unterste Kante ist. Hab ich mal probiert, weil sie wirklich günstig war. Ist wieder weggegangen, weil ich den Leerlaufverbrauch auch mit "Workaround" partout nicht einbremsen konnte. Und nur für die wenigen Momente, in denen die Graka bissl was leisten muß, ständig 40 Watt im Idle mitzuschleppen, das lohnt echt nicht. Und der Videoencoder, den ich hauptsächlich bei der Karte nutze, ist bei beiden ja identisch.
 
Ich finde die Dinger zu teuer, der Preis ist das Einzige wo Intel punkten könnte. Hier sind immerhin 16 GB verbaut. Es bräuchte mal weider eine schöne 200 € Karte wie die RX 480 damals. Heutzutage könnte man da auch 12 oder 16 GB erwarten. Es ist 2024, nicht 2016. Die Hersteller sind sich aber alle zu fein dafür. Das beste was es gibt ist eine RTX 3050 für 200, die aber noch deutlich langsamer ist.
 
...wir warten auf Battlemage. Sollte INTEL seine "lessons learnt" workshops ordentlich genutzt haben, dann könnten wir vielleicht überrascht werden.
Ich bin ganz happy mit meiner kleinen ARC310 Hafenn**te, die encoded super und verbraucht quasi nix. Eine meiner besseren Anschaffungen.

Lange nix mehr von Sparkle gehört, solides Custom Design.
Bei den ARC sind Sparkle und AsRock die Platzhirsche, wobei die Sparkle meist eher schlecht wegkommen im Vergleich zu den Asrock.
 
Das beste was es gibt ist eine RTX 3050 für 200, die aber noch deutlich langsamer ist.
Das Beste was es für ca. 200€ gibt, ist die RX 6600. Die zieht die RTX 3050 locker ab (außer wenn man Raytracing nutzt, aber dafür sind diese Karten eh zu schwach). 16GB fänd ich in dem Preis- und Leistungsbereich schon ziemlich viel. 12GB dürften es hingegen bei kommenden Karten dann durchaus sein.

Die Hersteller sind sich nicht "zu fein" um gescheite Karten im 200€ Bereich aufzulegen. Sie haben lediglich erkannt, dass ein großer Teil der Kundschaft auch deutlich mehr Geld für ihre Produkte hinblättert, wenn entsprechend hohe Leistung/viel Speicher gewünscht wird. Und dementsprechend konzipieren und bepreisen sie die Produkte mittlerweile eben.
Ganz simpler Kapitalismus. Und solange es die Kundschaft in genügendem Ausmaß mitmacht, wären die Anbieter ja schön blöd, weniger Geld zu verlangen.
 
Also von der Optik her gefällt mir die Sparkle Arc A770 Titan OC Edition in ihrem dunklen Blau viel besser als diese weiße Version, aber das ist natürlich subjektiv und auch nicht so wichtig, wie die Leistung.

Von der Technik her finde ich die Intel Arc Karten recht interessant. Nicht unbedingt für Gamer, aber wenn man privat oft Videos en- und decodert, 3D-CAD (Inventor) nützt, usw. und nur hier und da mal in 1080p ein wenig zockt, ist das sicher eine gute, preiswerte Karte. 16GB/256bit sind in der Preisklasse für diverse Anwendungen (nicht unbedingt Games) schon interessant. Als ich mir meine RTX 3060 Ti zulegte, war Intel noch nicht soweit, aber sie haben in den letzten 2 Jahren mit den Treibern gut aufgeholt. Und natürlich ist es zum jetzigen Zeitpunkt besser noch auf Battlemage zu warten, aber ich könnte mir vorstellen, dass ein Arc A770-Nachfolger (für mich) genau die richtige Ablöse für meine RTX 3060Ti werden könnte...

Was den Idle-Verbrauch angeht, ja der ist (im Vergleich zur Konkurrenz) zu hoch, aber andererseits was sind schon 50W (ich weiß natürlich dass, wenn man das bei allen Komponenten "ignoriert" es sich auch wieder summiert), aber im Endeffekt sind das nur 0,05kW. Natürlich ist Stromsparen wichtig, aber man kann auch alles übertreiben, also dass wäre mir bei der Karte recht egal, da ist mir viel wichtiger das sie kühl und leise bleibt! Noch dazu wo, diese Idle-Verbräuche meist eh "nur" solange gültig sind, wo man nur einen Monitor betreibt, sobald man mehr als einen Monitor angeschlossen hat (was bei mir schon seit mind. 10 Jahren Standard ist - derzeit betreibe ich am Hauptrechner 3 und habe noch 2 weitere für andere Rechner), sind auch oft AMD und Nvidia nicht mehr so sparsam...

Also mal ein reines Rechenbeispiel, bei der Annahme das die Intel Karte im Idle ca. 25W mehr zieht, als eine Konkurrenz-Karte, bei zb. 50 Cent/kWh und 10h Idle-Nutzung des PCs täglich, komme im Jahr gerade mal auf EUR 50,- das ist jetzt echt nicht die Welt. Aber natürlich hängt das auch wieder davon ab wie oft/viel man seinen PC nutzt...

Ich kenn die Diskussion nur auch schon seit Jahren von diversen Haushaltsgeräten, wie zb. (Tief)kühlschränken, Waschmaschinen, Geschirrspüler, usw. wo dann Leute völlig funktionierende Geräte, weggaben und gegen neuere sparsamere Geräte ersetzten, welche oft hohe 3-stellig oder gar niedrige 4-stellige Beträge kosteten (weil ihnen die Werbung suggerierte das sie damit Geld sparen können), nur um dann festzustellen, dass die Stromersparnis pro Jahr oft "nur" im 2-stelligen Eurobereich lag, und wenn sie Pech hatten, das neue Gerät keine 5 Jahre mehr hielt, während die Geräte früher viel länger hielten... In vielen Haushalten wäre es viel sinnvoller und einfacher (und billiger umzusetzen) wenn sie mal "nur" alle Standby-Verbraucher reduzieren würden... aber das ist ein anderes Thema...
 
50€/Jahr mögen nicht die Welt sein. Dennoch kann ich mir so einige bessere Dinge vorstellen, die ich mit 50€ anstellen kann, als sie völlig unnötig und nutzlos über einen viel zu hohen Idle Stromverbrauch meiner Grafikkarte zu verpulvern.
Außerdem mögen es bei dir vielleicht nur 25W mehr Idle Verbrauch sein, weil du zwei Monitore nutzt. Die große Masse der Kundschaft nutzt aber tatsächlich nur einen Monitor und somit ist bei dieser die Differenz eher bei 35-40W.

Problemlos funktionierende Geräte allein aufgrund evtl. Einsparungen bei den Stromkosten zu ersetzen, ist eh grundsätzlich völlig blödsinnig. Zumindest dann, wenn das neue Gerät nicht wirklich sehr viel weniger Strom verbraucht. Allein die Anschaffungskosten für ein neues Gerät muss man ja über den geringeren Verbrauch erstmal wieder reinholen. Wenn es da also nur 30-50W geht, macht sowas keinen Sinn. Jemand, der nicht völlig verblödet ist, weiß das auch. Wer sich hingegen von irgendwelcher Werbung anderes einreden lässt, ist halt schlicht dämlich.
Das Ziel muss sein, über die Zeit hinweg die alten, stromhungrigen Geräte durch effizientere Modelle zu ersetzen, wenn die alten kaputtgehen oder nicht mehr die Anforderungen erfüllen (bswp. wenn die Kapazität des Kühlschranks nicht mehr ausreicht weil die Familie Zuwachs bekommt).
Oder wenn man schon der Meinung ist, unbedingt was Neues haben zu müssen, sollte man noch funktionierende Geräte nicht einfach wegwerfen, sondern dem Gebrauchtmarkt zuführen.

Anders sieht es aus, wenn man tatsächlich noch uralte Geräte betreibt, bei denen der Stromverbrauch exorbitant hoch ist im Vergleich zu modernen Alternativen.
Bei mir waren das bspw. die Halogen Leuchtmittel in meiner Küchenlampe. 4 Stück waren vorhanden und haben jeweils 50 Watt Verbrauch gehabt. Hab ich letztes Jahr durch LED Leuchtmittel ersetzt (waren günstig im Angebot), die jeweils nur 4 Watt Verbrauch aufweisen.
Von 200W runter auf 16W bei Anschaffungskosten von 7,96€ ist eine sinnvolle Änderung, die sich auch entsprechend schnell amortisiert hat.

Letztlich kommt es darauf an, dass die Haushalte insgesamt effizenter werden/weniger Strom verbrauchen und somit der Energiebedarf nicht immer weiter explodiert. Und deshalb sollte eine Grafikkarte im Idle Modus keine 50W verballern. Täten das nämlich alle Karten, hätten wir einen nochmals deutlich höheren Stromverbrauch für quasi nix.
Geräte nicht ständig ewig im Standby zu betreiben schlägt in die gleiche Kerbe. Komisch, dass du das Eine befürwortest, während dir sinnloser Stromverbrauch bei der Grafikkarte hingegen egal ist.
 
Zuletzt bearbeitet:
50€/Jahr mögen nicht die Welt sein. Dennoch kann ich mir so einige bessere Dinge vorstellen, die ich mit 50€ anstellen kann, als sie völlig unnötig und nutzlos über einen viel zu hohen Idle Stromverbrauch meiner Grafikkarte zu verpulvern.
Außerdem mögen es bei dir vielleicht nur 25W mehr Idle Verbrauch sein, weil du zwei Monitore nutzt. Die große Masse der Kundschaft nutzt aber tatsächlich nur einen Monitor und somit ist bei dieser die Differenz eher bei 35-40W.
Natürlich sind EUR 50,- auch Geld. Aber wenn man schaut, dass viele mehrere Tausend Euros in ihre Rechner stecken, oder man mal schnell für ein neues Game EUR 50,- bis EUR 100,- ausgibt, ist das halt jetzt nicht der "Mega-Anteil"...
Wie gesagt, das war nur ein Rechenbeispiel, um zu zeigen, dass es nicht um die Mega Summen geht...
Bei mir läuft mein Privat Rechner sicher nicht 10h pro Tag, und ich habe auch sicher nicht mehr als 30 Cent/kWh Strom Kosten... d.h. wie reden bei mir eher von EUR 10,- bis EUR 20,- im Jahr.
Ansonsten habe ich in meinem Bekanntenkreis mind. 50% der Nutzer die inzwischen zumindest 2 Monitore nützen... aber das soll und kann ja eh jeder für sich entscheiden...
Letztlich geht es bei der ganzen Sache aber eher darum, dass AMD/NVidia einen deutlich geringeren Idle Verbrauch halt hinbekommen, während es Intel mit all seinen Milliarden und ja durchaus viel KnowHow in Sachen Computerchips eben nicht auf die Kette bekommen hat.
Und ja beim Idle Verbrauch hat Intel noch Nachholbedarf, das habe ich nie bestritten... für mich (wird für jeden anders sein), ist das aber ein kleiner Nachteil, mit dem ich leben kann...
Und wenn ich mir zb. mit der Intel ARC dafür "nur" EUR 100,- im Vergleich zu einer Nvidia oder AMD Karte bei der Anschaffung spare, kann ich schon einige Jahre lang wieder "mehr Strom verprassen"...

Problemlos funktionierende Geräte allein aufgrund evtl. Einsparungen bei den Stromkosten zu ersetzen, ist eh grundsätzlich völlig blödsinnig. Zumindest dann, wenn das neue Gerät nicht wirklich sehr viel weniger Strom verbraucht. Allein die Anschaffungskosten für ein neues Gerät muss man ja über den geringeren Verbrauch erstmal wieder reinholen. Wenn es da also nur 30-50W geht, macht sowas keinen Sinn. Jemand, der nicht völlig verblödet ist, weiß das auch. Wer sich hingegen von irgendwelcher Werbung anderes einreden lässt, ist halt schlicht dämlich.
Das Ziel muss sein, über die Zeit hinweg die alten, stromhungrigen Geräte durch effizientere Modelle zu ersetzen, wenn die alten kaputtgehen oder nicht mehr die Anforderungen erfüllen (bswp. wenn die Kapazität des Kühlschranks nicht mehr ausreicht weil die Familie Zuwachs bekommt).
Oder wenn man schon der Meinung ist, unbedingt was Neues haben zu müssen, sollte man noch funktionierende Geräte nicht einfach wegwerfen, sondern dem Gebrauchtmarkt zuführen.
Da stimme ich Dir absolut zu! Wollte nur aufzeigen, dass man allgemein (bitte auf niemanden persönlich bezogen), das mit dem Stromsparen auch "übertreiben", und in eine falsche Richtung treiben kann...
Noch dazu wo man ja auch noch Energie für die Produktion des Gerätes braucht, die man mit dem "vorzeitigen" Wegschmeißen ja auch verschwendet...
 
Und wenn ich mir zb. mit der Intel ARC dafür "nur" EUR 100,- im Vergleich zu einer Nvidia oder AMD Karte bei der Anschaffung spare, kann ich schon einige Jahre lang wieder "mehr Strom verprassen"...
Leider sparst du bei den Intel Arc Karten aber nicht einmal im Ansatz soviel (oder überhaupt etwas). Das ist ja die Krux an der Sache.
Die Karten saufen nicht nur zuviel Strom und sind (abseits von Raytracing) auch noch immer deutlich schwächer als die Konkurrenz. Nein, sie kosten auch noch ähnlich viel wie diese.

Eine Arc 770 schlägt derzeit noch immer mit ab ca. 320€ zu Buche. Für das Geld bekommt man aber auch bereits eine RTX 4060 oder RX 7600XT. Erstere ist trotz ihrer nur 8GB Speicher deutlich performanter als die Intel Karte und bietet mit voller DLSS Unterstützung nochmals einen starken Feature Mehrwert.
Die AMD Karte schwächelt zwar bei Raytracing, bietet aber ebenfalls 16GB Speicher. Wenn man es also auf diesen abgesehen hat, ist die Intel Karte auch nicht erste Wahl.
Ähnlich sieht es um die Arc 750 und 580 bestellt aus.

Last but not least sieht es mit den Treibern bei Intel trotz der deutlichen Verbesserungen noch immer nicht so gut aus wie bei der Konkurrenz. Da gibt es in vielen Spieletitel weiterhin gehörige Probleme bzw. geringe Performance. Das ist also weiterhin ebenfalls ein Minuspunkt (wenn auch nicht mehr so enorm wie noch kurz nach Release der Karten).

Einzig die ganz kleinen Arc Karten sind aufgrund ihrer Decoder Fähigkeiten den Konkurrenzprodukten von AMD/NVidia im gleichen Preisbereich überlegen.
Das sollte und kann aber nicht der Anspruch von Intels GPU Anstrengungen sein.
 
Anders sieht es aus, wenn man tatsächlich noch uralte Geräte betreibt, bei denen der Stromverbrauch exorbitant hoch ist im Vergleich zu modernen Alternativen.
Bei mir waren das bspw. die Halogen Leuchtmittel in meiner Küchenlampe. 4 Stück waren vorhanden und haben jeweils 50 Watt Verbrauch gehabt. Hab ich letztes Jahr durch LED Leuchtmittel ersetzt (waren günstig im Angebot), die jeweils nur 4 Watt Verbrauch aufweisen.
Von 200W runter auf 16W bei Anschaffungskosten von 7,96€ ist eine sinnvolle Änderung, die sich auch entsprechend schnell amortisiert hat.
Wenn es ein Sinnvolles Equivalent gibt... 90% der LED Spots am Markt kommen von den Lux her (gefühlt wie gemessen) nicht an meine alten OSRAM 50W Spots ran... erst recht nicht um EUR 8,-
Davon, dass die EU teilweise Leuchtmittel-Sorten "Sockel" auflässt für die es nicht einmal einen Nachfolger als LED gibt, rede ich noch gar nicht, wenn man dann die ganze Lampe entsorgen muss, ist das auch nicht ökologisch....

Letztlich kommt es darauf an, dass die Haushalte insgesamt effizenter werden/weniger Strom verbrauchen und somit der Energiebedarf nicht immer weiter explodiert. Und deshalb sollte eine Grafikkarte im Idle Modus keine 50W verballern. Täten das nämlich alle Karten, hätten wir einen nochmals deutlich höheren Stromverbrauch für quasi nix.
Geräte nicht ständig ewig im Standby zu betreiben schlägt in die gleiche Kerbe. Komisch, dass du das Eine befürwortest, während dir sinnloser Stromverbrauch bei der Grafikkarte hingegen egal ist.

Und ich habe nie gesagt, dass es mir egal ist, ich habe nur gesagt, dass ich damit leichter leben kann, wenn andere Dinge dafür passen. Mir ist zb. eine ruhige und kühle Karte wichtiger, als ob sie etwas mehr Strom verbraucht... Und der Wahnsinn der in den letzten Jahren bei Nvidia (und auch AMD) aufgekommen ist, immer höhere Stromverbräuche bei Karten zu immer wahnsinnigeren Preisen auf den Markt zu hauen geht auch in die falsche Richtung...
Ich nütze zb. für mich überall nach wie vor "nur" Full HD, brauche kein 4K, aber natürlich soll das auch jeder für sich entscheiden...
Ich denke mal das eine "Stromtechnisch schlechtere" Intel-Karte immer noch weniger verbraucht, als eine große zb. RTX 4080... also bitte leben und leben lassen...
 
Zuletzt bearbeitet:
zusammengefasst freuen wir uns auf den Nachfolger ;) Da wird alles besser

Für Arc 750 und 770 ist der Zug eigentlich abgefahren, Rausschmiss für 200-250€ wäre die Hardware eigentlich aber auch zu schade (und wahrscheinlich Verlustgeschäft). Finde es daher fragwürdig, warum (weiterhin) neue Modelle der Arc 770 etc. raus kommen.
Scheinbar gibt es außerhalb vom Luxx einfach doch noch irgendwo einen Markt
 
Leider sparst du bei den Intel Arc Karten aber nicht einmal im Ansatz soviel (oder überhaupt etwas). Das ist ja die Krux an der Sache.
Die Karten saufen nicht nur zuviel Strom und sind (abseits von Raytracing) auch noch immer deutlich schwächer als die Konkurrenz. Nein, sie kosten auch noch ähnlich viel wie diese.

Eine Arc 770 schlägt derzeit noch immer mit ab ca. 320€ zu Buche. Für das Geld bekommt man aber auch bereits eine RTX 4060 oder RX 7600XT. Erstere ist trotz ihrer nur 8GB Speicher deutlich performanter als die Intel Karte und bietet mit voller DLSS Unterstützung nochmals einen starken Feature Mehrwert.
Die AMD Karte schwächelt zwar bei Raytracing, bietet aber ebenfalls 16GB Speicher. Wenn man es also auf diesen abgesehen hat, ist die Intel Karte auch nicht erste Wahl.
Ähnlich sieht es um die Arc 750 und 580 bestellt aus.

Last but not least sieht es mit den Treibern bei Intel trotz der deutlichen Verbesserungen noch immer nicht so gut aus wie bei der Konkurrenz. Da gibt es in vielen Spieletitel weiterhin gehörige Probleme bzw. geringe Performance. Das ist also weiterhin ebenfalls ein Minuspunkt (wenn auch nicht mehr so enorm wie noch kurz nach Release der Karten).

Einzig die ganz kleinen Arc Karten sind aufgrund ihrer Decoder Fähigkeiten den Konkurrenzprodukten von AMD/NVidia im gleichen Preisbereich überlegen.
Das sollte und kann aber nicht der Anspruch von Intels GPU Anstrengungen sein.

Ich habe ganz am Anfang geschrieben:
"Von der Technik her finde ich die Intel Arc Karten recht interessant. Nicht unbedingt für Gamer, aber wenn man privat oft Videos en- und decodert, 3D-CAD (Inventor) nützt, usw. und nur hier und da mal in 1080p ein wenig zockt, ist das sicher eine gute, preiswerte Karte. 16GB/256bit sind in der Preisklasse für diverse Anwendungen (nicht unbedingt Games) schon interessant."

Stell Dir vor nicht jeder nützt den PC vorrangig zum Zocken !!!

Die ARC 770 ist für Decoder Fähigkeiten sehr gut, und "reicht noch" um hier und da damit zu zocken!
Und aus der Sicht spar ich mir etwas... mehr habe ich nie behauptet...
 
Hängt sicher auch von der Software ab, aber zb. bei Autodesk (Inventor) hatte ich in der Vergangenheit mit AMD Karten eher negative Erfahrungen...

Ich sage auch nicht dass es die alleinige allheilige Karte ist... nur dass sie für den Bereich abseits von Spielen eine Alternative ist, die ich mir bei der nächsten Generation sicher genauer anschauen werde...

Ist zwar auch nicht mehr ganz aktuell, aber siehe zb.
Beitrag automatisch zusammengeführt:

Habe mir die RX 7600XT jetzt nochmals genauer angeschaut, ja die hat zwar auch 16GB Speicher, ist aber dafür "nur" mit 128bit angebunden...
(was bei den meisten Spielen wahrscheinlich wieder kaum eine Rolle spielt) und kommt damit "nur" auf 288GB/s anstatt auf 512GB/s bei der Arc
 
Zuletzt bearbeitet:
Einzig die ganz kleinen Arc Karten sind aufgrund ihrer Decoder Fähigkeiten den Konkurrenzprodukten von AMD/NVidia im gleichen Preisbereich überlegen.
Das sollte und kann aber nicht der Anspruch von Intels GPU Anstrengungen sein.
Viel wichtiger als die Decoder-Fähigkeiten sind hier die ENcoder! Die sind wirklich sehr gut, wobei ich sichtbare Unterschiede zwischen H.264 und H.265 ausmachen konnte. H.264 konnte meine RTX3060 besser als die A380, H.265 10bit ist auf der Intel konkurrenzlos gut. Die 10bit sind wichtig, um "Treppen" in dunklen Farbverläufen zu minimieren. Und AV1 encodieren die Intels auch. Kann das inzwischen schon eine der Nvidias? Die AMDs können es meines Wissens nicht. Und die Encoder werden auch nicht sofort in Handbrake & Co umgesetzt. Intel scheint da immer die Nase vorn zu haben
 
Die meisten Radeons können seit geraumer Zeit auch AV1. ARC kann seine Vorteille auch beim Encoding wie Morrich das festgehalten hat auch nicht bei den kleinerern Modellen wirklich ausspielen, weil selbst diese im Leerlauf Powerhogs sind.
 
Die meisten Radeons können seit geraumer Zeit auch AV1. ARC kann seine Vorteille auch beim Encoding wie Morrich das festgehalten hat auch nicht bei den kleinerern Modellen wirklich ausspielen, weil selbst diese im Leerlauf Powerhogs sind.

Ja aber da ich mir als Privater, weder eine professionelle GPU von Nvidia noch von AMD leisten kann (oder will), ich in der Vergangenheit mit AMD Consumer-Karten (die dafür auch nicht ausgelegt wurden) schon Probleme mit Inventor hatte, mit den Nvidia Consumer-Karten geht es recht gut, kommt für mich AMD indem Bereich nicht in Frage. AMD hat (bei dieser Software) auch bei den professionellen Karten das Nachsehen:


Die ARC 770 (beziehungsweise ein Battlemage-Nachfolger hoffentlich dann ebenso), ist sogar offiziell (getestet habe ich es noch nicht, da ich da eben noch auf Battlemage warte), gemeinsam mit den Nvidia Quadro und den AMD Radeon Pro Karten bei Autodesk für Inventor als zertifizierte GPU gelistet!!!


Und ich fang jetzt nicht an, mir 2 oder gar 3 verschiedene Karten zu kaufen, damit ich dann eine für De- und Encoding nutze, eine für 3D-Konstruktion und eine zum (gelegentlichem) Zocken...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh