AMDs aktuelle wirtschaftliche Lage [2]

So die Quartalszahlen habt ihr ja alle gesehen, ich habs mal eingefügt.

Hier noch ein interessantes Gerücht zum Thema Apple:

Apple in Verhandlungen mit AMD?
[...]Intel wird dieses prestigeträchtige Feld aber sicher nicht kampflos aufgeben. Trotzdem sprechen Berichte davon, dass Apple bereits AMD-Produkte internen Tests unterzieht. Für AMD würde eine Zusammenarbeit neue Märkte bedeuten.[...]

Hat das vielleicht auch mit folgender News zu tun?
Fusion-APU Llano: AMD liefert erste Probeexemplare aus
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Möglich, dass der Llano Apple attraktiv erscheint, die IGP mit ihren 400 Shader-Einheiten könnte eine vollwertige Grafikkarte alla HD5670 ersetzen.
 
Zuletzt bearbeitet:
So die Quartalszahlen habt ihr ja alle gesehen, ich habs mal eingefügt.

Hier noch ein interessantes Gerücht zum Thema Apple:

Apple in Verhandlungen mit AMD?
[...]Intel wird dieses prestigeträchtige Feld aber sicher nicht kampflos aufgeben. Trotzdem sprechen Berichte davon, dass Apple bereits AMD-Produkte internen Tests unterzieht. Für AMD würde eine Zusammenarbeit neue Märkte bedeuten.[...]

Hat das vielleicht auch mit folgender News zu tun?
Fusion-APU Llano: AMD liefert erste Probeexemplare aus
Jo Apple ist mit MacOS einiges Voraus.

Die haben mit Central Grand Dispatch jetzt nen zentralen Thread Verteiler, ausserdem mit Clang/LLVM eine multithread optimierte Infrastruktur die ähnlich Java erstmal in eine Zwischensprache übersetzt, und dann je nach vorhandenen CPUs/GPUs erst aufs Zielsystem compiliert wird.

Auf Deutsch: Ein Programmierer muss sich nur darum kümmern ob er etwas parallel berechnen kann/will, dass dann in nen Thread auslagern bzw. als Block kennzeichnen, und den Rest macht das OS. Das ganze Gedöns von x87 / SSE2/3/4 OpenCL/CUDA / Compilerwahl fällt weg.

Fusion Hardware passt auf diese Softwareinfrastruktur wie die berüchtigte Faust aufs Auge ;-)

Andersherum könnte man sagen, dass Apple die Software für AMDs heterogenous Computing Zeitalter schafft ;-)
AMD's Analyst Day, Part I: Product Focus And Design Roadmaps Through 2010 - HotHardware Forums
 
Zuletzt bearbeitet:
Jo Apple ist mit MacOS einiges Voraus.

Die haben mit Central Grand Dispatch jetzt nen zentralen Thread Verteiler, ausserdem mit Clang/LLVM eine multithread optimierte Infrastruktur die ähnlich Java erstmal in eine Zwischensprache übersetzt, und dann je nach vorhandenen CPUs/GPUs erst aufs Zielsystem compiliert wird.

Auf Deutsch: Ein Programmierer muss sich nur darum kümmern ob er etwas parallel berechnen kann/will, dass dann in nen Thread auslagern bzw. als Block kennzeichnen, und den Rest macht das OS. Das ganze Gedöns von x87 / SSE2/3/4 OpenCL/CUDA / Compilerwahl fällt weg.
Deswegen ist Apple aber nicht voraus. Die Realität zeigt leider, dass native Executables immer noch performanter sind als Bytecode, der über eine VM läuft oder auf dem jeweiligen System nochmals optimiert übersetzt wird. Und Grand Central Dispatch ist nur ein toller PR Name für etwas, was es schon lange davor gab. Schon mal was von Sachen wie OpenMP, Cilk oder MPI gehört? Support für parallele Programmierung gibt es nicht erst seit OpenCL. ;) Ausserdem wird dadurch SSEx bzw in Zukunft AVX nicht überflüssig. Das ist Parallelisierung auf Ebene der Pipeline eines logischen Prozessors und wird damit auch in Zukunft von essentieller Bedeutung sein. Bei OpenMP, OpenCL, GCD, etc reden wir von Parallelisierung auf Ebene von Threads.
 
Zuletzt bearbeitet:
Deswegen ist Apple aber nicht voraus. Die Realität zeigt leider, dass native Executables immer noch performanter sind als Bytecode, der über eine VM läuft oder auf dem jeweiligen System nochmals optimiert übersetzt wird. Und Grand Central Dispatch ist nur ein toller PR Name für etwas, was es schon lange davor gab. Schon mal was von Sachen wie OpenMP, Cilk oder MPI gehört? Support für parallele Programmierung gibt es nicht erst seit OpenCL. ;) Ausserdem wird dadurch SSEx bzw in Zukunft AVX nicht überflüssig. Das ist Parallelisierung auf Ebene der Pipeline eines logischen Prozessors und wird damit auch in Zukunft von essentieller Bedeutung sein. Bei OpenMP, OpenCL, GCD, etc reden wir von Parallelisierung auf Ebene von Threads.
Natürlich ist nativer Code schneller.

Aber rechne mal den Aufwand dagegen an, dazu dann noch der begrenzte Einsatzbereich - ein OpenCL Compilat ist ohne OpenCL Device im System nutzlos ... da finde ich Appels Lösung deutlich flexibler. Einfacher ist es auch, da es dem Programmierer viel viel Arbeit abnimmt. Nachdem es bei Apple eher um gute Endkundenleistung geht, und nicht um die letzte Nanosekunde eines HPC Projekts sehe ich das positiv.

Dass es sowas wie GCD schon vorher gab hab ich nicht ausgeschlossen, aber sie bauen es jetzt halt fest ins OS ein und bieten mit LLVM dann noch ein weiteres Goodie. Die Kombination machts und natürlich dass es einer auch macht / baut ;-)
Ein Porschemotor im Polo oder ein Polomotor im Porsche sind jeweils sinnlos ;-)

Ausserdem wird dadurch SSEx bzw in Zukunft AVX nicht überflüssig.
Klar, die Feintuner werden das nachwievor nützen. Aber es fehlt die Flexibilität.

Das ist der Hauptvorteil der Apple Lösung, je nachdem was für ne CPU/GPU im Rechner steckt wird der intermediate code auf SSE oder eben AVX mit/ohne OpenCL für die GPU compiliert. Ist doch saupraktisch :)

Dass man mit Feintuning am Ende ganz sicher mehr rausholt ist klar, aber wenn das so wichtig wäre, würde alle Welt nur Assembler pur programmieren und keine Hochprachen verwenden ;-)

ciao

Alex
 
Zuletzt bearbeitet:
Natürlich ist nativer Code schneller.

Aber rechne mal den Aufwand dagegen an, dazu dann noch der begrenzte Einsatzbereich - ein OpenCL Compilat ist ohne OpenCL Device im System nutzlos ... da finde ich Appels Lösung deutlich flexibler. Einfacher ist es auch, da es dem Programmierer viel viel Arbeit abnimmt. Nachdem es bei Apple eher um gute Endkundenleistung geht, und nicht um die letzte Nanosekunde eines HPC Projekts sehe ich das positiv.
Nicht täuschen lassen. Das ist nichts anderes als bisherige Lösungen. GCD ist das Frontend, nichts anderes als eine Bibliothek, das OS/der Thread Scheduler ist das Backend. Was ist der Unterschied zu bisherigen Systemen? Exakt, es gibt keinen wirklichen. ;) Apple macht halt nur eine PR Geschichte daraus.
Und der Witz an einer nativen Executable ist, dass Bytecode bzw JIT theoretisch optimaler und ggf schneller ist, da der Compiler für das jeweilige System übersetzen kann. Während native Executables mit allen möglichen Systemen und ihren Prozessoren mit den unterschiedlichsten Befehlssatzerweiterungen zurechtkommen müssen. Und das sowieso nur erfolgreich für die jeweilige ISA. Nur, von dieser Theorie ist die Realität immer noch weit entfernt.

Klar, die Feintuner werden das nachwievor nützen. Aber es fehlt die Flexibilität.
Was denn für Flexibilität? Du vergleichst zwei vollkommen verschiedene Sachen, ILP und TLP. Das eine wird das andere nicht ersetzen können. Genauso wenig wie das eine flexibler ist als das andere.

Das ist der Hauptvorteil der Apple Lösung, je nachdem was für ne CPU/GPU im Rechner steckt wird der intermediate code auf SSE oder eben AVX mit/ohne OpenCL für die GPU compiliert.
Ich dachte, SSE und Co. wären überflüssig? Jetzt nutzt es der Compiler doch? :rolleyes: Ausserdem, was ist daran jetzt neu? Das gibt es schon seit Urzeiten, Stichwort Interpretersprachen.
 
Nicht täuschen lassen. Das ist nichts anderes als bisherige Lösungen. GCD ist das Frontend, nichts anderes als eine Bibliothek, das OS/der Thread Scheduler ist das Backend. Was ist der Unterschied zu bisherigen Systemen? Exakt, es gibt keinen wirklichen. ;) Apple macht halt nur eine PR Geschichte daraus.
Doch, man hat den Vorteil, dass man nicht explizit auf eine festen Anzahl Threads hinprogrammieren muss, sondern einfach angibt dass Codeblock xy "concurrent" abgearbeitet werden kann, und der GCD verteilt das dann auf die 1,2,3,4,5 .... X Kerne, je nachdem wieviel man hat. Genaueres siehe unten.

Und der Witz an einer nativen Executable ist, dass Bytecode bzw JIT theoretisch optimaler und ggf schneller ist, da der Compiler für das jeweilige System übersetzen kann.
(...)
Nur, von dieser Theorie ist die Realität immer noch weit entfernt.
Äh wie jetzt ? Native Exec. ist doch was anderes als Bytecode / JIT ? Bitte umformulieren, verstehe nicht, was Du sagen willst. Willst Du vielleicht sagen:
Und der Witz an Bytecode bzw JIT ist, dass es theoretisch optimaler und ggf schneller als eine nativen Executable ist, das der Compiler für das jeweilige System übersetzen kann.
(...)
Nur, von dieser Theorie ist die Realität immer noch weit entfernt.
? Das würde ich verstehen. Aber keine Ahnung obs stimmt ^^
Was denn für Flexibilität? Du vergleichst zwei vollkommen verschiedene Sachen, ILP und TLP. Das eine wird das andere nicht ersetzen können. Genauso wenig wie das eine flexibler ist als das andere.
Ich hab noch nie was von ILP und TLP geschrieben. Wenn Dus unbedingt haben möchtest, bitte gerne :) :
Um TLP muss sich der Programmierer kümmern, ILP besorgt der (JIT) Compiler. Ist so - bleibt so - auch bei Apple, nur dass die Auf- und Verteilung flexibler ist. Man muss die Sachen nicht wie bisher streng in genau X Threads aufteilen, sondern in ab- und unabhängige Blöcke. Ob aus diesen Blöcken dann 1,2,3,4 ....100 Threads werden, das entscheidet das AppleOS, abhängig von der vorhandenen Hardware.
Both Mac OS X and iPhone OS adopt a more asynchronous approach to the execution of concurrent tasks than is traditionally found in thread-based systems and applications. Rather than creating threads directly, applications need only define specific tasks and then let the system perform them. By letting the system manage the threads, applications gain a level of scalability not possible with raw threads. Application developers also gain a simpler and more efficient programming model.
Concurrency Programming Guide: Introduction
Ich dachte, SSE und Co. wären überflüssig? Jetzt nutzt es der Compiler doch? :rolleyes: Ausserdem, was ist daran jetzt neu? Das gibt es schon seit Urzeiten, Stichwort Interpretersprachen.
Äh natürlich wird SSE usw. genutzt ... nur muss sich der Programmierer nicht damit herumschlagen. War bei bisherigen Hochsprachen & Compiler zwar auch schon fast so, aber mit dem LLVM wird einem gleich die optimale Lösung für das jeweilige System compiliert. Bisher wurde der Einfachheit halber meistens nur auf SSE2 optimiert (oder nur 386er x86), SSE3 oder gar 4 liegen oft brach, ausser bei handgestrickten Spezialprogrammen. Wäre mit LLVM anders. Schau Dir vielleicht mal das OpenGL Beispiel im unten verlinkten PDF an. Da haben die gewisse CodeTeile in der IR gelassen. Falls das System jetzt eine potente GPU hat, wird die beackert, wenn nicht, wird automatisch CPU Code für die Emulation generiert. Gibts sowas schon ?

Mit "wegfallen des Gedöns" im ersten Post meinte ich, dass sich ein Entwickler nun überhaupt keine Gedanken mehr über das Zielsystem machen muss. Hinten kommt natürlich SSE/AVX/OpenCL etc. pp Code raus, aber diese ganze Optimierung wird in eine Black Box gesteckt, die ihm nichts mehr angeht, auch ARM anstatt X86 wäre möglich - Assembler Gurus natürlich ausgenommen ;-)
Klingt jetzt erstmal nach JAVA, aber LLVM ist mehr, siehe PDF.

Das Teil jetzt Interpreter zu nennen ist auch nicht richtig, LLVM ist eher die eierlegende Wollmilchsau. Wenn Du magst, kannst Du das auch als static Compiler benützt, wenns denn sein muss. Aber es gibt halt auch die Option auf JIT & LTO. Reinen Interpreter Betrieb gibts dagegen nicht, das wäre doch zu lahm :)
Les Dir vielleicht die Präsentation hier durch, damit Du weisst, was die vorhaben, bevor wir weiter diskutieren:
http://llvm.org/pubs/2007-03-12-BossaLLVMIntro.pdf
 
Zuletzt bearbeitet:
Doch, man hat den Vorteil, dass man nicht explizit auf eine festen Anzahl Threads hinprogrammieren muss, sondern einfach angibt dass Codeblock xy "concurrent" abgearbeitet werden kann, und der GCD verteilt das dann auf die 1,2,3,4,5 .... X Kerne, je nachdem wieviel man hat.
Nochmal, das ist bei bisherigen Lösungen nicht anders.

Äh wie jetzt ? Native Exec. ist doch was anderes als Bytecode / JIT ? Bitte umformulieren, verstehe nicht, was Du sagen willst. Willst Du vielleicht sagen
Ja, kannst du so umformulieren, wenn du das besser verstehst. Der Punkt war der theoretische und reale Unterschied zwischen nativen Executables und Bytecode/JIT.

Um TLP muss sich der Programmierer kümmern, ILP besorgt der (JIT) Compiler. Ist so - bleibt so - auch bei Apple, nur dass die Auf- und Verteilung flexibler ist.
Nein, ist sie nicht. Glaub es mir einfach. Sie ist komplexer, ja, aber nicht flexibler. Da kannst du von mir aus noch so viele Zitate von der Apple Seite posten, das ist einfach nur PR Gewäsch. ;) Apple erfindet das Rad nicht neu. Sie nutzen einfach nur Sachen, die es schon lange gibt. Sie kommen jetzt halt nur mit einer eigenen, proprietären Lösung, zugeschnitten auf Apples OS. Mehr ist es nicht.

Äh natürlich wird SSE usw. genutzt ...
Das ist dann aber neu. Wenn ich dich mal an deine Worte erinnern darf:
Das ganze Gedöns von x87 / SSE2/3/4 OpenCL/CUDA / Compilerwahl fällt weg.
Es fällt eben nicht weg und bleibt dort, wo es auch schon jetzt ist.

Mit "wegfallen des Gedöns" im ersten Post meinte ich, dass sich ein Entwickler nun überhaupt keine Gedanken mehr über das Zielsystem machen muss. Hinten kommt natürlich SSE/AVX/OpenCL etc. pp Code raus, aber diese ganze Optimierung wird in eine Black Box gesteckt, die ihm nichts mehr angeht, auch ARM anstatt X86 wäre möglich - Assembler Gurus natürlich ausgenommen
nur muss sich der Programmierer nicht damit herumschlagen. War bei bisherigen Hochsprachen & Compiler zwar auch schon fast so, aber mit dem LLVM wird einem gleich die optimale Lösung für das jeweilige System compiliert.
Ich sagte ja, das ist nicht neu und gibt es schon seit Urzeiten, Stichwort Interpretersprachen. Liest du eigentlich, was ich schreibe?

Schau Dir vielleicht mal das OpenGL Beispiel im unten verlinkten PDF an. Da haben die gewisse CodeTeile in der IR gelassen. Falls das System jetzt eine potente GPU hat, wird die beackert, wenn nicht, wird automatisch CPU Code für die Emulation generiert. Gibts sowas schon ?
Ja, das nennt sich OpenCL und läuft nicht nur auf Apples OS. ;)

Klingt jetzt erstmal nach JAVA, aber LLVM ist mehr
Ganz gewiss nicht. Eine Sprache ist immer mehr als eine VM. Oder meinst du mit LLVM vielmehr "LLVM Compiler System"? Das mag mehr als eine einzelne Sprache sein. Sagt nur überhaupt nichts aus. C und Java ist auch mehr als Java alleine.

Les Dir vielleicht die Präsentation hier durch, damit Du weisst, was die vorhaben, bevor wir weiter diskutieren:
http://llvm.org/pubs/2007-03-12-BossaLLVMIntro.pdf
Hast du dir denn das PDF mal durchgelesen? Dort wird doch deutlich, was ich bereits sagte. Apples LLVM basiert auf den Prinzipien eines stinknormalen Interpreters. Neu ist daran nun wirklich nichts. Ausser, dass man dafür nicht selbst eine Programmiersprache spezifiziert, sondern als Quelle bereits existierende nutzt. Wer's braucht. :rolleyes: Ich sehe darin wenig Sinn.


edit:
Ausserdem ist das wohl alles ziemlich off-topic hier. Daher beenden wir das am besten. Alles weitere per PN.
 
Zuletzt bearbeitet:
Ausserdem ist das wohl alles ziemlich off-topic hier. Daher beenden wir das am besten. Alles weitere per PN.

wollte es gerade sagen, sehr interessant zu lesen, aber hat leider nichts mit dem thema zu tun.
 
Jo ist OT, sorry an alle Gelangweilten ;-)

An alle Interessenten und mr.dude: Ich hab nen neuen Thread im Linux Unterforum erstellt:
http://www.hardwareluxx.de/communit...-nur-alter-wein-neuen-schlaeuchen-709430.html

Da kanns weitergehen. Vielleicht finden sich ja noch mehr Diskussionsteilnehmer.

Falls ein freundlicher Moderator Zeit hat, die letzten Beiträge ab #453dort hin zu verschieben, wäre es perfekt :)

ciao & Danke

Alex
 
Aktie geht leider runter

ADVANCED MICRO DEVICES AKTIE | Aktienkurs | Nachrichten | Kurs | (863186,AMD,US0079031078) |

was ist überhaupt aus der Dell / Intel affäre geworden?

6 Milliarden Zahlung an Dell von Intel Intel soll Dell mit 6 Mrd. Dollar geschmiert haben - WinFuture.de

Die 6 Milliarden waren nur das Bestechungsgeld, wieviel es wirklich war klärt sich ja vor Gericht. Wie lange das dauert weiß man ja auch, ein Zwischenstand wäre trotzdem mal was nettes. :)

MFG
 
Problem immernoch ist so lange solche Konzerne wie MM/Saturn weigern sich AMD CPUs in Angebot zu haben wird es immer schwer für AMD trotz hervorragend Produkte wie die X6 Phneom mehr Umsatz zu machen.

ABER die ATI Karten sind hervorragend und amchen viel Umsatz/Gewinn zz.

Könnte noch besser sein wenn TMSC endlich mehr GPUs liefert...
 
Der OEM Markt ist aber der entscheidende Part.
Tendenziell geht es momentan eher in Richtung Mobile Computing und bei den Notebook CPUs sieht AMD leider ziemlich alt aus momentan.

Im GPU Bereich sieht es jedoch nicht schlecht aus.
Es wäre noch interessant zu wissen, wie die 11 Mio. Chips verteilt sind auf die verschiedenen Sparten.
 
schade das die grafik-sparte nur einen bruchteil des gesamtumsatzes ausmacht....
 
Hmm wer weiß ob MSH bei einem möglichen "Einschlagen" des Llano im mobilen Bereich weiterhin Systeme mit AMD-CPUs aussperren kann.
 
ja, man brüchte einen richtigen burner....dann müßte die amd verkaufen wenn die kunden es verlangen würden. zumindestens würde sich ein anbieter das geschaft nicht durch die lappen gehen lassen, und die anderen würden nachziehen....
 
ja, man brüchte einen richtigen burner....dann müßte die amd verkaufen wenn die kunden es verlangen würden. zumindestens würde sich ein anbieter das geschaft nicht durch die lappen gehen lassen, und die anderen würden nachziehen....

weis nicht, denk mal an die pentium 4 krücken, wurden auch eher von oems gekauft als der schnellere athlon64 :fresse: weil halt intel draufsteht
 
weis nicht, denk mal an die pentium 4 krücken, wurden auch eher von oems gekauft als der schnellere athlon64 :fresse: weil halt intel draufsteht


Es ist halt immer noch sehr weit verbreitet das Prozessor gleich Intel ist. Auch wenn AMD gleichwertige oder bessere Lösungen zum besseren P/L anbietet.
AMD muss das Marketing verbessern, dann wird sich das mit der Zeit verbessern.
 
Danke für den Link ;)

Ach der gute Volker, bei heise klingt der Artikel gleich viel freundlicher:

AMD verringert Nettoverlust
Der US-amerikanische Prozessorhersteller AMD hat im zweiten Quartal seinen Umsatz gegenüber dem Vorjahresvergleichsabschnitt deutlich gesteigert.[...]Seinerzeit schrieb das Unternehmen noch 330 Millionen US-Dollar in roten Zahlen, diesmal steht unterm Strich ein Nettoverlust von 43 Millionen US-Dollar. Der Gewinn be_trug ohne Berücksichtigung von Sondereffekten 83 Millionen US-Dollar[...]
 
"Gestiegene Kosten für die Herstellung von Prozessoren und deren Entwicklung ließen den Konzern nun wieder abstürzen."

Den ersten Teil dieses Satzes finde ich sehr interessant... Womit wird das zu begründen sein? Gestiegene Rohstoffpreise? Oder spürt man hier mittlerweile die Auswirkungen, dass man nicht mehr zum Selbstkostenpreis in den eigenen Fabriken, sondern bei einem selbst gewinnorientierten Auftragsfertiger produzieren lässt?
 
Da kann man nur Spekulieren.
Für Global Foundry, geschätzter AMD Anteil 30%, mußten 120 Mio locker gemacht werden, nachdem im Vorjahresquartal Gewinn erwitschaftet wurde. Wenn man hochrechnet macht GF derzeit ~460 Mio Miese, was wiederum und angesichts der Investitionen von ein paar Billionen verschmerzbar scheint. Zumindest für den Hauptinvestor.
Ein weiterer Minusposten sind Aktienrückkäufe, welche den Kurs aber nicht positiv beeinflußt haben. Was die Vermutung zuläßt, das sie momentan nicht gefragt sind.
Als 3.es kam es noch zu "Wissenskäufen und -investitionen".(Minus) Das könnten die Kosten für Pixelux Software sein, sowie die Arbeit, Teile der Bullet Engine darin zu integrieren, um letztlich die neue AMD eigene PhysicX Engine zu realisieren.
 
Ach der gute Volker, bei heise klingt der Artikel gleich viel freundlicher
Nun ja, was erwartest du von Volker? Ist schon lustig, bei Intel bezieht er sich auf den Umsatz, damit er reisserisch "bestes Quartal aller Zeiten" schreiben kann. Bei AMD bezieht er sich natürlich nicht auf den Umsatz, sondern den Gewinn, damit er eine negative Überschrift schreiben kann. :rolleyes:

Die Quartalszahlen sind im Grunde ziemlich gut für AMD. Die einzelnen Sparten sind weiterhin profitabel. Der Verlust kommt ja lediglich durch Einmaleffekte zustande. Hört sich allerdings schlimmer an als es tatsächlich ist. Cash wurde letztendlich erhöht und Schulden verringert. Ich frage mich trotzdem, wann das Thema GloFo endlich mal abgeschlossen ist.
 
Hm, in Dresden kommen die Jungs von AMD zumindest super mit GloFo klar (zwischenmenschlich) - schließlich beliefere ich deren Küche :fresse:
 
...

Ach der gute Volker, bei heise klingt der Artikel gleich viel freundlicher:

....

Typisch Volker Rißka, er hat wirklich Talent News so zu schreiben das es bei Unternehmen Blau alles heißa hopsa tralala ist, wogegen bei Unternehmen Dunkelgrün alles voll moppelkotze ist.
Auch schön das er verschweigt warum die Verluste gemacht wurden, nämlich weil Aktien zurückgekauft wurden und nicht weil irgendwelche Produktionskosten zu hoch waren oder die CPU Preise zu niedrig angesetzt wurden.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh