Intel gibt Vorschau auf Arc-Desktop-Karte

Koduri wäre bei der Entwicklung nur einer von vielen. Er kann auf gewisse Entwicklungen hinwirken. Sein Job ist aber im Management. Die tiefgreifende Entwicklungsarbeit leisten ganz andere Mitarbeiter. Dazu gehört eine große Gruppe. Dafür sind die Schaltkreise zu komplex geworden. Da sind viele Features, die da integriert werden müssen. Völlig undenkbar, dass das alles nur von einer Person entsteht. Dabei meine ich nur die Entwicklung einer Prozessorsrchitektur. Auf Software, Designs, Planungen, Beschaffung, Evaluierung, Entwicklungshilfe und auf vieles andere bin ich noch nicht einmal eingegangen. Bei AMD & RTG war das nicht anders.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ist die 6500 nicht stark beschnitten und hat nur 4 GB? Da würde ich Intel trotzdem bevorzugen wenn der Preis passt. Intel wird mutmaßlich nur über den Preis konkurrieren. Dann kann man auch Abstriche bei den Treibern machen. Bei AMD war es früher ähnlich. Die Karten funktionierten in der Regel ganz brauchbar, hatten aber Bugs die zum Teil erst viel später behoben wurden. Wenn das Produkt allerdings nur die Hälfte der Konkurrenz kostet ist das für mich verschmerzbar, so war es ja bei der 5700 XT. Wobei ich nichts mehr early adopten werde. Besser 6 Monate ins Land ziehen lassen, gerade bei solchen völlig neuartigen Produkten, den Spaß mit den Bugs überlässt man lieber anderen.
 
Ist die 6500 nicht stark beschnitten und hat nur 4 GB? Da würde ich Intel trotzdem bevorzugen wenn der Preis passt. Intel wird mutmaßlich nur über den Preis konkurrieren. Dann kann man auch Abstriche bei den Treibern machen. Bei AMD war es früher ähnlich. Die Karten funktionierten in der Regel ganz brauchbar, hatten aber Bugs die zum Teil erst viel später behoben wurden. Wenn das Produkt allerdings nur die Hälfte der Konkurrenz kostet ist das für mich verschmerzbar, so war es ja bei der 5700 XT. Wobei ich nichts mehr early adopten werde. Besser 6 Monate ins Land ziehen lassen, gerade bei solchen völlig neuartigen Produkten, den Spaß mit den Bugs überlässt man lieber anderen.
Ja allerdings für <200€ mit den optimierten Treibern, reicht die Leistung ganz gut aus für E-Sport Titel oder Next Gen auf low.
Nach diesem Test hier: https://www.rockpapershotgun.com/am...on-is-fsr-style-upscaling-for-almost-any-game
Ist der RAM dank FSR / RSR nicht mehr so der extreme Flaschenhals, ganz klar in Ultra Settings ist der einfach überfüllt/überfordert.
Aber mit Low-medium Settings scheint die Karte sogar 4k zu bringen (auch wenn es nur für gerade so spielbar reicht)
Wenn das so wahr ist, ist es schon beeindruckend...
1648945639909.png

Ich mein ja ist nicht native und es wird getrickst. Aber dadurch ist es Spielbar ohne extreme visuelle Nachteile in kauf zu nehmen.
Hätte ich so vor 2 Monaten nicht erwartet, die Benchmarks zum Release waren eher ernüchternd, hätten sie damals schon RSR ready gehabt... wäre die Karte möglicherweise ganz anders angekommen.
Klar ist aber auch die Karte für FULL-HD designed und dank RSR/FSR sind wohl auch WQHD Ambitionen möglich (1080P auf 1440P skaliert), 4K ist halt nicht seriös da ist definitiv der RAM Flaschenhals.
 
Es ist 2022, wie oft denn noch? Treiberspielereien wie Upscaling kann man ja in Kauf nehmen, aber nicht für 200 €. Im Falle der 6500 hinkt die Karte 6 Jahre hinterher. Da kann sie noch so effizient sein. Und hier hoffe ich auf Intel. Es muss kein Topprodukt sein das alles andere in den Schatten stellt, es sollte wieder zu normalen Bepreisungen kommen ganz im Sinne von "reinvent the pricing" (Im positiven Sinne),
 
Es ist 2022, wie oft denn noch? Treiberspielereien wie Upscaling kann man ja in Kauf nehmen, aber nicht für 200 €. Im Falle der 6500 hinkt die Karte 6 Jahre hinterher. Da kann sie noch so effizient sein. Und hier hoffe ich auf Intel. Es muss kein Topprodukt sein das alles andere in den Schatten stellt, es sollte wieder zu normalen Bepreisungen kommen ganz im Sinne von "reinvent the pricing" (Im positiven Sinne),
Intel wird auch keine Karte unter 200€ zaubern können mit mehr als 4 GB RAM, wir haben halt ne starke Inflation und Rohstoffknappheit.
Selbst wenn wir wieder Hardware im Überfluss haben werden, werden die Preise nicht mehr so tief fallen da die Bezugs/Herstellpreise schon weit höher sind als vor 4-5 Jahren.

Ja die 4GB RAM sind halt echt knapp und auch die x4 PCIE4.0 Lanes sind extrem sparsam, gut ist das leider nicht. Aber die Rohleistung der Karte mit Infinity Cache übertrifft in aktuellen Spielen die Leistung der RX580 (8GB) und die hatte zur Markteinführung auch um die 239€ UVP gekostet vs 6500XT 199€ UVP. GDDR6 RAM ist auch teurer als GDDR5 RAM, siehe aktuell die Preise bei DDR4 vs DDR5, klar da ist der Markt noch nicht überfüllt, aber auch dort werden die Preise nicht so stark fallen wie bei DDR4, weil auch dort die Rohproduktion einfach teurer ist (Materialien+Fertigungsverfahren).

Aber die Chiparchitektur und die Technik dahinter ist absolut modern es handelt sich um RDNA2 die da verwendet wird. Wenn ich dagegen die RTX3050 anschaue, da könnte man von Frechheit sprechen die Karte kostet zwischen 300-500€ je nach Design, aber im durchschnitt eher so 379€ und die Karte ist definitiv nicht ihr Geld wert.

Das einzige was die Nvidia Karte schafft, ist Raytracing in FULL HD mit DLSS in spielbar, in den restlichen Szenarien ist die Karte nicht viel Schneller als die RX6500XT obwohl der Speicher größer ist (Ausnahme ist halt WQHD oder 4K wenn DLSS verfügbar ist). https://gpu.userbenchmark.com/Compare/Nvidia-RTX-3050-vs-AMD-RX-6500-XT/4127vsm1762761 (Die Marketshare und Userrating Benchmark Bewertung muss man sich wegrechnen, die ist Irreführung am gesamt Rating)
In den Überwiegenden spezifischen Disziplinen ist die RX6500XT schneller und sogar die theoretische Speicherbandbreite ist bei der RX 6500 XT schneller mit 18Gbps vs 14Gbps@RTX 3050. https://www.tomshardware.com/reviews/gpu-hierarchy,4388.html

gibt es nochmal einen direkten Vergleich. Die Nvidia Karte ist teilweise nur 4-5FPS schneller und kostet halt aktuell doppelt soviel, zwar hat sie mehr Speicher verbaut aber die kann das nicht ordentlich ummünzen in Leistung. der UVP Vergleich, hinkt schwer hinterher der Straßenpreis spricht ne andere Sprache.

Ich wollte damit nur sagen, das bei der Konkurrenz das Low-End genauso so beschissen ist nur ist es noch teurer. Die RX 6600 die ich meiner Schwägerin gekauft habe zerlegt die 3050 und die kostet in etwa genauso viel. Klar man muss auf Raytracing verzichten aber ganz ehrlich, das ist auch deplatziert im Einstiegs Markt.

Ich habe ohnehin das Gefühl die nächste Generation Grafikkarten wird bei mir auf jeden fall wieder AMD, der Wattverbrauch der Grafikkarte geht auf keine Kuhhaut, die RTX 3090TI mit 500W und laut den Leaks wird es wohl in der nächsten Generation nicht viel effizienter bei Nvidia ganz im Gegenteil. Das ist für mich grundsätzlich die falsche Richtung.
 
Die RX 6600 die ich meiner Schwägerin gekauft habe zerlegt die 3050
Dieser Test zeigt schön, dass es beim aktuellen Preisgefüge und wenig Kapital nicht lohnt, 100€ mehr für eine 3050 auszugeben. Alles was deutlich mehr Ansprüche bieten soll, als eine 6500XT, muss gleich zur 6600, oder 3060 greifen.
 
Dieser Test zeigt schön, dass es beim aktuellen Preisgefüge und wenig Kapital nicht lohnt, 100€ mehr für eine 3050 auszugeben. Alles was deutlich mehr Ansprüche bieten soll, als eine 6500XT, muss gleich zur 6600, oder 3060 greifen.
Genau das, ich verstehe trotzdem nicht wieso sich die 3050 so teuer hält.
Ist die wohl im Mining stark oder ist der Mainstream so von dem Namen Nvidia und RTX geblendet?
Also ich kann mir das nicht erklären
 
Also wenn die 6600 die 3050 zerlegt bei im schnitt 34% mehr frames, vermöbelt die 3050 die die 6500xt aber mit 48% mehr frames in fullhd.
Aber ja die 3050 für 249€ bzw 60euro weniger als stand jetzt wäre besser. Aktuell warten darauf ein paar im Bekanntenkreis. Ne 6600 in der Nähe von 300€ würde aber auch manche schwach werden lassen. Für 200€ hätte man auch schon früher eine 1060 schießen können die mit der 6500 gleichauf liegt.
Quelle: https://www.computerbase.de/2022-02...ew-test/2/#abschnitt_benchmarks_in_1920__1080
 
Naja mit Raytracing in F1 ist ja klar.
Man muss schon nen Test mit Titeln machen die keine Features des einen begünstigen.
Also no RTX, no DLSS, no FSR/RSR.

Oder man deaktiviert alles, wie Nvidia Hairworks.
Beitrag automatisch zusammengeführt:

Ach ja auch in Village wurde mit Raytracing HIGH gebenched :rolleyes2:
 

Anhänge

  • Screenshot_2022-04-03-16-21-20-619_com.android.chrome.jpg
    Screenshot_2022-04-03-16-21-20-619_com.android.chrome.jpg
    214,1 KB · Aufrufe: 80
Wie meinst du das? Z.B. DLSS macht ja auch bei 800€ Karten Sinn. Kommt auf die Zielauflösung an.
Weil es die fehlende Leistung kaschiert. Und das Ergebnis auch niemals an nativ rankommt.
Genau das, ich verstehe trotzdem nicht wieso sich die 3050 so teuer hält.
Ist die wohl im Mining stark oder ist der Mainstream so von dem Namen Nvidia und RTX geblendet?
Also ich kann mir das nicht erklären
Das ist auch echt eine Frechheit. Hier hätte man lieber auf die RT-Einheiten verzichtet und die Karte für 200 - 250 gebracht. Warum AMD auf seinem Lowendprodukt RT-Einheiten verbaut ist mir auch rätselhaft. Stattdessen würde man doch lieber 2 Shadercluster mehr oder weniger Preis haben. NVIDIA hatte das mit seiner TU100 gut gelöst.
 
Wo ihr gerade Raytracing ansprecht, weiß man eigentlich schon, ob Arc für Desktop rt unterstützt?
 
Intel wird hier nichts zaubern können, was nVidia oder AMD ernsthaft gefährden könnte. Die sind neu auf dem Markt und werden froh sein, wenn sie bei den der nvidia 4500 mithalten können, werden sie froh sein. Ich weiß, dass sie 3070, und damit 4060, anpeilen. Aber ich glaube nicht, dass das hinhauen wird. Dazu ist das Ganze zu komplex.
 
Naja mit Raytracing in F1 ist ja klar.
Man muss schon nen Test mit Titeln machen die keine Features des einen begünstigen.
Also no RTX, no DLSS, no FSR/RSR.

Oder man deaktiviert alles, wie Nvidia Hairworks.
Beitrag automatisch zusammengeführt:

Ach ja auch in Village wurde mit Raytracing HIGH gebenched :rolleyes2:
Nope die rt benches folgen eine Seite später. Da liegt die 3050 dann 300% vorne. :fresse:
Die 48% sind also Stock ohne alles.
 
Nope die rt benches folgen eine Seite später. Da liegt die 3050 dann 300% vorne. :fresse:
Die 48% sind also Stock ohne alles.
Marvel's Guardians of the Galaxy mit Raytracing überfordert beide Grafikkarten hingegen gänzlich. -- 0 für Beide:fresse2:

Es ist eh komisch das einmal mit "Raytracing Medium" und einmal "Raytracing High" in unterschiedlichen Games gebencht wurde, normalerweise macht das sinn entweder zwei mal das gleiche Game einmal mit Medium oder High zu Benchen und das bei einem anderen Game genauso zu tun.
Naja auf Tomshardware wurde ohne Raytracing, DLSS oder FSR gebenched.
1649002673075.png

1649002543150.png

Laut dem durchschnitt der 8 Games liegt die Differenz bei nur ~22FPS @1080P Ultra/Medium.
Bei CB ist das komisch gemischt, das lässt keine Rückschlüsse zu. Mal Ultra, Mal High nicht welches DX oder ob Vulkan verwendet wurde.
Ist auch nicht so wichtig, die Quintessenz ist bei beiden das die einfach nur zu teuer ist und der Doppelte Preis nicht der Leistung entspricht und beide irgendwie Fehlplanungen sind.

->Mir nützt kein Raytracing das bei manchen Games läuft und bei anderen wieder nicht gut läuft.
->Mir bringt es nichts nur dann stabil hohe Leistung zu haben wenn meine Games bestimmte Features unterstützen (DLSS/FXR)
->Sind beides limited. Produkte die man nach 1-2 Jahren in die Tonne treten kann, weil von Anfang an sehr limitiert wurden.
Weil es die fehlende Leistung kaschiert. Und das Ergebnis auch niemals an nativ rankommt.

Das ist auch echt eine Frechheit. Hier hätte man lieber auf die RT-Einheiten verzichtet und die Karte für 200 - 250 gebracht. Warum AMD auf seinem Lowendprodukt RT-Einheiten verbaut ist mir auch rätselhaft. Stattdessen würde man doch lieber 2 Shadercluster mehr oder weniger Preis haben. NVIDIA hatte das mit seiner TU100 gut gelöst.
Genau das, aber das liegt daran dass es sich um recycelte Hardware handelt meiner Vermutung nach.
Sowas extra zu bauen wäre einfach nur dumm und schwachsinnig.
Wo ihr gerade Raytracing ansprecht, weiß man eigentlich schon, ob Arc für Desktop rt unterstützt?
ja aber ich vermute mal das wird so gut laufen wie die 3050, in ausgewählten Titeln reicht die Performance und in anderen wieder nicht oder nur auf low.
Aber man darf gespannt sein.
Intel wird hier nichts zaubern können, was nVidia oder AMD ernsthaft gefährden könnte. Die sind neu auf dem Markt und werden froh sein, wenn sie bei den der nvidia 4500 mithalten können, werden sie froh sein. Ich weiß, dass sie 3070, und damit 4060, anpeilen. Aber ich glaube nicht, dass das hinhauen wird. Dazu ist das Ganze zu komplex.
Ich denke das scheitert an den Treibern und den Entwicklern. AMD und Nvidia sind mit ihrer neuen Architektur schon wie Wein gereift, auch was die Erfahrung angeht.
 
Dieses tam tam erinnert irgendwie damals an den AMD Bulldozer (der intelkiller blablubb), nachher war er dann nur ein Zahnloser Tiger :fresse:

Ich warte daher erste Tests ab, ehe ich in euphorie ausbreche.
oder Nvidias grandiose FX Serie, wie ging das damals eigentlich nochmal aus? :unsure:

Ich finde es extrem mutig, die Erwartungen so hoch zu schrauben ... eigentlich sind die so kaum noch erfüllbar. Die User reden von 3070 Niveau usw. Ich habe 3050 oder 1070 erst einmal angepeilt, Rest findet sich. Aus dem Stand kann eigentlich niemand "mal eben" so hochspringen.
Wobei man nicht vergessen darf, dass Intel bereits jahrelange Erfahrungen mit iGPU hat. Ein so großer Stolperstein ist es also gar nicht, nur eine nagelneue Architektur, die sich scheinbar gut hochskalieren läßt.

Aber Intel koch nur mit Wasser und wir warten mal erste realistische Vergleichstests ab.
 
Eine Differenz von nur 22 frames ist aber schon dicke. Wenn man bedenkt, dass die 6600 auch nur 27frames schneller ist als die 3050.
Ich sehe die probs bei Intel mittlerweile eher beim releasezeitpunkt. Die Preise sind aktuell am fallen was natürlich die Spanne wie Intel runter möchte mit den Preisen einschränkt.
 
Ja aber das Wasser ist extrem heiß, weil der Chefkoch Raja heißt. :d
Wenn man mit Wasser kocht, sollte es immer heiß hergehen, sonst würde es nicht kochen ...
Wenn du es nicht glaubst, einfach mal die Finger verbrennen, dann wird man vorsichtiger! :coffee2:
 
Eine Differenz von nur 22 frames ist aber schon dicke. Wenn man bedenkt, dass die 6600 auch nur 27frames schneller ist als die 3050.
Ich sehe die probs bei Intel mittlerweile eher beim releasezeitpunkt. Die Preise sind aktuell am fallen was natürlich die Spanne wie Intel runter möchte mit den Preisen einschränkt.
Ja nur das die 6600 genauso viel kostet wie die 3050 +20-30€, da macht es schon einen unterschied bei der Kaufentscheidung.
Trotzdem ist die 3050 eine schlechte Kaufentscheidung fürs Geld.

Intel hat sich ins eigene Fleisch geschnitte, hätten sie die Karten früher gebracht hätten Sie was vom Kuchen haben können und der geplante standard UVP Preis, wäre zur Markteinführung ein Preiskracher geworden angesichts der hohen Grafikkartenpreise.
Aber jetzt wird alles erstmal billiger und da sind die Intel Karten nicht mehr so attraktiv, da müssen die jetzt quasi die Karten mit Verlust unter Selbstkostenpreis verscherbeln um Marktanteile zu bekommen.
 
Naja 60€ unterschied sind es immernoch, wenn man die günstigsten gh Preise nimmt.
Aber zur Zeit kaufen ist schwierig wenn die Preise so im fallen sind. Wer weiß ob nicht in ein paar Wochen die 3050 bei 250 und die 6600 bei 300 steht. Wir kommen ja aus Zeiten wo ne 6500 über 300 gekostet hat. Selbst die 3060er nähern sich ja nun der 400er Marke an.
Alles eine Sache von Angebot und Nachfrage.

Erstmal ist es auch spannend einen weiteren Player im Ranking zu sehen. Wenn es in 3 Jahren noch Intel gpus in dedizierter Form gibt, ist nicht alles schief gelaufen. Ich denke wenn intel gekonnt hätte wären die schon draußen, aber das ist ja offensichtlich nicht so.Toi toi Toi. Für uns Kunden kann das nicht schlecht sein, außer das tsmc einen weiteren Abnehmer hat. Was die Kapazität jedes einzelnen natürlich verringert. Aber samsung steht ja auch noch parat und alle erhöhen ihre Kapazitäten. Wird noch ein schönes graka Jahr.
 
Naja 60€ unterschied sind es immernoch, wenn man die günstigsten gh Preise nimmt.
Aber zur Zeit kaufen ist schwierig wenn die Preise so im fallen sind. Wer weiß ob nicht in ein paar Wochen die 3050 bei 250 und die 6600 bei 300 steht. Wir kommen ja aus Zeiten wo ne 6500 über 300 gekostet hat. Selbst die 3060er nähern sich ja nun der 400er Marke an.
Alles eine Sache von Angebot und Nachfrage.

Erstmal ist es auch spannend einen weiteren Player im Ranking zu sehen. Wenn es in 3 Jahren noch Intel gpus in dedizierter Form gibt, ist nicht alles schief gelaufen. Toi toi Toi. Für uns Kunden kann das nicht schlecht sein, außer das tsmc einen weiteren Abnehmer hat. Was die Kapazität jedes einzelnen natürlich verringert. Aber samsung steht ja auch noch parat und alle erhöhen ihre Kapazitäten. Wird noch ein schönes graka Jahr.
Könnte tatsächlich sein das wir wieder ins Gegenteil rutschen werden und eine massive Grafikkarteninflation erleben werden, wäre ziemlich geil.
 
Wird Zeit für alte Preise.

4050 für 90€
4060 für 180€
4070 für 350€
4080 für 500€
4080ti für 750€

Und jetzt Wach ich wieder auf. Kommt nicht wieder zurück 😭
 
Wird Zeit für alte Preise.

4050 für 90€
4060 für 180€
4070 für 350€
4080 für 500€
4080ti für 750€

Und jetzt Wach ich wieder auf. Kommt nicht wieder zurück 😭
4050 für 350€
4060 für 480€
4070 für 650€
4080 für 800€
4080TI für 1099€ :fresse:
 
Könnte tatsächlich sein das wir wieder ins Gegenteil rutschen werden und eine massive Grafikkarteninflation erleben werden, wäre ziemlich geil.
Das wäre echt geil, dann wird sich direkt noch eine geholt als Wertanlage. Ist ja heutzutage eine.
Wird Zeit für alte Preise.

4050 für 90€
4060 für 180€
4070 für 350€
4080 für 500€
4080ti für 750€

Und jetzt Wach ich wieder auf. Kommt nicht wieder zurück 😭
Leider, aber darum kaufe ich auch AMD. Seit Turing sind die Preise bei NV explodiert, wo sie gemerkt haben dass die Kundschaft weiter melkbar ist haben sie die Aktion mit dem höheren UVP bei der 3080 Ti abgezogen. Allerdings würde ich AMD zutrauen die Preise auch drastisch zu erhöhen wenn sie mal in Führung liegen. Das wird spannend im neuen Jahr.
 
4050 für 350€
4060 für 480€
4070 für 650€
4080 für 800€
4080TI für 1099€ :fresse:
Wenn man den Gerüchten zur Leistung glaubt und die möglichen/sinnvollen (ja, wir reden von Nvidia^^) VRAM Bestückungen beachtet? - eher schön gleichmässig das doppelte...
 
Bei der Ti hätten 20-24 GB draufgehört. Vor allem bei dem Preis. Für 699 UVP (real ~800) wie früher hätte ich es vielleicht verschmerzen können. Doch jetzt liegt der UVP schon derart hoch dass die Karten real jenseits der 1,5 K kosten. Da bin ich einfach raus. Was bei NVIDIA auch komisch ist die ganze Achterbahnfahrt mit den VRAM-Größen. Die Mittelklasse hat so viel wie die Topmodelle (12 GB), die obere Mittelklasse aber nur lausige 8 GB. Die Leute scheinen es trotzdem zu zahlen.

NVIDIA hat übrigens die Preise erhöht. Das wird sich auch in der kommenden Gen nicht mehr ändern. Außer AMD liefert was Heftiges, was gar nicht mehr so unmöglich scheint nach RDNA2. Intel wird hier nicht mitkämpfen, die werden dafür den Budgetmarkt angreifen. Der hat es momentan auch bitter nötig. Im Highendbereich bröckeln die Preise tatsächlich spürbar.
 

Anhänge

  • gfhghfhgf.JPG
    gfhghfhgf.JPG
    54,8 KB · Aufrufe: 64
Bei der Ti hätten 20-24 GB draufgehört. Vor allem bei dem Preis. Für 699 UVP (real ~800) wie früher hätte ich es vielleicht verschmerzen können. Doch jetzt liegt der UVP schon derart hoch dass die Karten real jenseits der 1,5 K kosten. Da bin ich einfach raus. Was bei NVIDIA auch komisch ist die ganze Achterbahnfahrt mit den VRAM-Größen. Die Mittelklasse hat so viel wie die Topmodelle (12 GB), die obere Mittelklasse aber nur lausige 8 GB. Die Leute scheinen es trotzdem zu zahlen.

NVIDIA hat übrigens die Preise erhöht. Das wird sich auch in der kommenden Gen nicht mehr ändern. Außer AMD liefert was Heftiges, was gar nicht mehr so unmöglich scheint nach RDNA2. Intel wird hier nicht mitkämpfen, die werden dafür den Budgetmarkt angreifen. Der hat es momentan auch bitter nötig. Im Highendbereich bröckeln die Preise tatsächlich spürbar.
Naja eigentlich brauch man auch für die beworbene "8K" 3090TI, 32 GB RAM.
Wenn echtes 8K 8x den Speicherbedarf von FULL HD hat und das entspräche in etwa 4GB RAM für 1080P.
Genau so ist respektive echtes 4K -> 16GB RAM.
Zumindest rein von der Annahme, wenn man aktuelle AAA Titel anschaut.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh