Ist der merkliche Fortschritt bei der CPU oder auch PC Performance abgeflacht?

Jo G3cko kannst naturlich auch dein Q6600 behalten.

Aber was regst du dich auf uber leute die geld haben?
Sollen die doch machen was sie wollen damit.


Gesendet von meinem GT-I9505 mit der Hardwareluxx App
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bill Gates steckt so ziemlich alles, was er nicht braucht in seine Stiftung und fördert Dinge, die er und einige andere Stiftungsvorstände für wichtig halten. Das ist nobel aber leider immer noch Charity und Charity ist Mist. Besser wäre es das System in Frage zu stellen (wird ja auch schon viel gemacht), würde aber hier zu weit führen. Bonzen gibts eigentlich nicht mehr, es gibt aber viele Idioten (nicht als Schimpfwort sondern in der ursprünglichen, griechischen Bedeutung verstehen!), die mit ihrem Vermögen viel Schaden an der Allgemeinheit anrichten, aber nicht kapieren (wollen) warum.
Die Diskussion ist höchst politisch und unsäglich, ich würd sowas nicht beginnen ;).

Zum Thema:
Da Mantle ja jetzt großflächig zum Einsatz kommt und Mantle ja vor allem auch die CPU entlasten soll um die GPU besser auslasten zu können, könnte Mantle einen großen Boost für die Sinnhaftigkeit von größeren 8-Thread-CPUs im Spielebereich geben. Das wär doch endlich mal was. Und Mantle wird sicherlich auch Kleinigkeiten wie FMA4 (vielleicht sogar FMA3?) voll implementieren, was auch noch mal dick Leistung bringt auf der CPU-Seite. Dass die Performance der PCs so abgeflacht ist liegt wohl in erster Linie daran, dass sich alles auf Mircosoft konzentriert und alles was die machen (oder besser nicht machen) bremst den gesamten Markt. Für Multithreading gilt das ja schon seit Einführung von HTT im Jahre 2004. Die Leistung heutiger Prozessoren (und damit meine ich ausdrücklich auch AMDs Bulldozer) liegt ja oftmals einfach zu oft brach, weil der Softwareaufbau so mangelhaft darauf optimiert ist. Eigentlich müsste M$ jeglich Systemrelevante Software sofort immer mit allen neuen Befehlssätzen ausstatten und auf möglichst sinnvolles Multithreading umgestalten (also wie das bei Linux laufend passiert), um diese Möglichkeiten möglichst einfach an die Softwarehersteller weitergeben zu können. Das passiert aber nur schleppend. In Windows8 hat man ja schon einiges geleistet (Win 8.1 ist nicht umsonst sehr viel schneller als Win7), das reicht aber noch lange nicht. Immerhin bewegt man sich in die richtige Richtung.
 
Zuletzt bearbeitet:
@Hot
warum nur das Problem bei MS suchen?

Der Bulldozer ist ohne spezielle Software doch auch in einem Linux oder Mac OS nicht so schnell, wie ihn AMD gern hätte... Das gleiche gilt für die ganzen Server Opterons mit doppeltem Aufbau zum Desktop FX8xxx
Die Preise sind nicht umsonst so im Keller -> und das obwohl im Serverbereich teils für viele Sachen (neben bisschen Klicki Bunti) viel auf Linux läuft und man dort eben grade auf MS verzichten wegen viel zu viel Balast nebenbei.


Das Problem was ich viel eher hier sehe (auch wenn das Thema arg Richtung AMD vs. Intel abrutscht), das eben die AMD CPU diese Optimierung überhaupt benötigt um ihre Leistung zu entfalten... Warum brauch ich das bei Intel nicht? Oder wenigstens nicht ansatzweise so stark? Da kann ich mir ne Software von vor 10+ Jahren schnappen und im Vergleich auf ner damals aktuellen CPU tuckern lassen -> sowie auf ner heute aktuellen. Da liegen doch Welten in der reinen Performance zwischen ohne das die Software jemals nen auf heute angepassten Code überhaupt nur gesehen hat. Vor allem passt das sehr gut im Vergleich, da Intel vor knappen 10 Jahren schon mit hohen Taktraten umsich geschmissen hatte (Netburst) das macht den Vergleich ziemlich einfach.

Das kann man aus meiner Sicht heute so bei AMD nicht erkennen. Der FX Bulldozer oder Vishera ist nicht nennenswert schneller, teils gar langsamer als die Vorgänger. Holt "nur" die Performance über den Takt und über die Breite... Nur gab es aber bei AMD vor knapp 5 Jahren schon die K10 Modelle mit ~3GHz. Die nach und nach im Takt gesteigert wurden. -> heute haben wir ~25% mehr Takt und die CMT Module. Die Grundperformance hat sich aber nicht wirklich verändert.
Sehe ich dabei Intel, habe ich Ende 2008/Anfang 2009 noch Core2 Technik. Bzw. die Nehalem Ableger im HighEnd... Bekomme aber mal locker flockig auf Core2 bezogen zu Haswell meine ~35*7*7% IPC -> sowie den dezenten Taktvorteil im einstelligen Bereich. Das steht auf der Habenseite und kann mir nicht genommen werden und schlägt scheinbar in der Mehrheit der Software auch genau so durch ohne Optimierungen am Code... Da sprechen wir noch nichtmal über die Skalierung in der Breite über die Cores oder SMT! Sondern simpel von der Grundperformance pro Core.
Das ist aus meiner Sicht die größte Baustelle bei der Bulldozer Technik, die scheint von der Warte her bezogen ziemlich am Markt vorbei entwickelt. Denn den Softwaremarkt, der sich dediziert auf eine neue CPU anpasst, haben wir so lange schon nicht mehr. Unter Windows schon gleich gar nicht. Und selbst im Linux/Unix Umfeld scheint das nicht mehr so essentiell zu sein, wie die Bulldozer CPUs es eigentlich bräuchten... Und aus meiner Sicht begeht AMD den gleichen Fehler wieder mit den APUs... Man versteift sich scheinbar drauf (sieht zumindest so aus -> mit in Zukunft nur noch APUs) und baut darauf, das die Software sich den AMD Vorraussetzungen anpassen wird -> und genau das wird wohl genau so scheitern wie andere Versuche in der Vergangenheit. Siehe eben aktuell Bulldozer.
 
Der erste A64 war im S940 ;)
S754 kam minimal später, wenn ich das recht in Erinnerung habe... S939 beerbte sozusagen den S940. -> welcher scheinbar anfangs nur aus dem "Serverbereich" geklaut wurde um schneller am Markt verfügbar auch eine HighEnd Platform bieten zu können...

Nicht ganz ... "die" ersten Athlon 64 waren Sockel 754 UND Sockel 940, die kamen (zumindest im Desktop Sektor) zeitgleich raus (Sept 2003). Den S940 hatte ich ganz vergessen, stimmt, der war wirklich aus dem Servermarkt da man dafür auch zwingend Reg ECC DDR brauchte. Und es gab' tatsächlich einige Desktop Boards von z.B. ASUS mit VIA oder nForce Chipsätzen.
Ich glaube daß S754 und S940 (für Desktop) beides nur eine Notlösung war um eben im Desktop Markt Fuss zu fassen. S940 war dazu viel zu teuer (eben aufgrund des Speichers und den teuren FX CPUs) und S754 hatte kein Dual Channel. So eine echte Teilung in High End und Mainstream war das noch nicht denn der Sledgehammer (S940) und Clawhammer (S754) waren bis auf den Speichercontroller komplett identisch.
Der S940 wurde am Desktop dann knapp ein halbes Jahr später durch den S939 abgelöst welcher wohl zuerst rauskommen hätte sollen anstatt den S940 auf den Desktop loszulassen. Doch auch 2004-2005 waren die beiden Sockel nicht direkt in Mainstream und High End geteilt meine ich denn beide wurden mit den gleichen Athlon 64 versorgt. Erst später wurde der S754 nicht mehr mit den dicksten Athlon 64, FX oder gar X2 bedient und somit als Mainstream bzw. teils sogar Low Budget und natürlich im Mobile Bereich weitergeführt. Doch selbst für S939 gab' es Semprons ... wäre fast so als würde man am Sockel 2011 Celerons oder Pentium Gs aufstecken können :fresse:

Denn damals zu P1, 2 oder 3 Zeiten noch beispielsweise gabs ja obenraus quasi keine Trennung zwischen Mainstream und HighEnd.

Naja damals gab' es schon einige High End Ansätze ... zu P1 Zeiten war das der Sockel 8 Pentium Pro wo es ja auch Desktop Boards gab'. Genau wie zu P II und P III Zeiten mit dem Slot-2 Xeons. Klar - die CPUs wurden da auch nur aus dem Server Sektor geklaut/verwendet, aber die galten dann wohl als High End und sind mit dem Sockel 2011 vergleichbar.
Vor den Pentium 1 gab' es keine Trennung, right. Da wurden 486er und 386er in Desktops und Server eingesetzt. Da gab' es meist nur Mainboardtechnisch Unterschiede (Speicher, Bussystem [EISA z.B.]) und natürlich die Ausstattung (also was für Controller verbaut wurden, NW Karten, Festplatten etc.)

@Nighteye
Kurz noch zum Thema ... ich verstehe auch nicht warum Du wieder mit "Bonze" anfängst. Klar kommt es vielleicht etwas angeberisch rüber wenn man so wie fdsonne sagt "Entweder man hat bzw. kann, oder eben nicht. So einfach ist das Leben..." aber das ist nun mal die Wahrheit. Und ob man viel Speicher oder einen dicken High End PC hat finde ich noch kaum angeberisch ... da gibt es viele andere Hobbies und Sachen wo man weitaus mehr Geld reinbuttern kann und damit auch weitaus besser angeben kann. HiFi, Motorräder oder Autos uvm.
Vor einigen Jahren war ja DDR2 preislich auch ganz unten und da konnte man schon für wenig Geld (wenn es das Mainboard denn konnte) auf 16GB aufrüsten. Ich meine mich erinnern zu können 4GB DDR2-1066 so Anno 2009-2010 um 40 EUR gekauft zu haben. Und vor einigen Monaten konntest Du 8GB DDR3-1600 für etwa 40 EUR kaufen ... 80-90 EUR für 16GB sind glaube ich nicht aufregend viel um damit zu prahlen und auch damals ~ 160-170 EUR für 16GB DDR2 waren wohl nicht die Welt.

@fdsonne
Ich bilde mir ein als ich das allererste Mal von der Entwicklung des Bulldozers gehört habe ich recht überrascht aber zugleich auch sehr interessiert war. Entweder wurde es damals falsch dargestellt oder (was ich eher glaube) ich habe es falsch verstanden denn ich glaubte daß die Architektur bzw. ein Modul nach Aussen wie ein Kern agieren soll, intern aber die Aufgaben aufteilen/parallelisieren kann.
Der Schritt von AMD eine neue Architektur zu entwickeln finde ich gut, allerdings hat es nicht ganz das erwünschte Ergebnis gebraucht behaupte ich mal. Wie Du sagst, wenn man zu sehr auf Softwareoptimierungen angewiesen ist kann das schnell nach hinten los gehen.
Ich hoffe daß AMD weiter High End CPUs entwickelt und vielleicht wieder mal Intel ein- bzw. gar überholen kann. Diese APUs sind zwar keine schlechte Sache, aber irgendwie nicht Fisch nicht Fleisch. Einerseits gut mit der GPU bestückt, andererseits teils schwach auf der Brust mit dem CPU teil, und preislich so lala.
 
Zuletzt bearbeitet:
Vor den Pentium 1 gab' es keine Trennung, right.
Nicht ganz. Es gab damals schon eine gewisse Trennung durch SX und DX und, vorallem bemerkbar beim Preis, von wem der 2, 3 oder 486er kam (AMD, Cyrix, Intel, etc.). Hinzu kamen dann noch die x87 Koprozessoren, welche das System erst so richtig "highend" machten. Auch das von dir schon angeführte Mainboard hatte damals ein Wörtchen mitzureden: Stichwort Onboard Level 1 Cache, in unterschiedlicher Größe. Bei Sockel und Supersockel 7 dann Onboard Level 2 Cache.
 
Zuletzt bearbeitet:
@Poulton

SX und DX war ja "nur" eine preisliche Trennung, sowas wie zwischen Celeron und Pentium wenn man so will. Was ich meinte ist daß es CPU und Sockel technisch keine Trennung zwischen Desktop (Low Budget, Mainstream, High End) und Server gab. Man konnte z.B. zu der Zeit als der 486DX2-66 High End war diesen von normalen Desktops bis in Server finden. Genau so konnte man aber auch einen 486SX-25 in beide Plattformen stecken.
Beim 386er war der SX schon ein wenig anders und stärker beschnitten. Von Intel wurde dieser auch häufig fest mit dem Mainboard verlötet was ein Aufrüsten unmöglich machte (bis auf einen CoProzessor, das ging bei vielen Boards trotzdem). Da kam der SX auch einiges später raus als der erste 386 (DX). Trotzdem fand man 286er und 386er gleicher Baureihe in Desktops und Server, da war von der CPU und Sockel/Plattform Seite kein Unterschied.

Also die Plattform machte noch keine Trennungen zwischen High End (Workstation/Server) und Mainstream (Desktop/Low Budget), wohl erst eher die Ausstattung des Boardes bzw. wie man es bestückte.

Ach und der Level 1 Cache war (zumindest ab den 486er sowie Pentium, K5, K6 usw.) IMMER in der CPU. Am Mainboard war bis zum PII bzw. K6-III immer der Level 2 Cache. Einzige Ausnahme sind hier die 386er gewesen die noch keinen internen (Level 1) Daten Cache hatten und somit der SRAM am Mainboard wohl als Level 1 zu sehen war (wobei es da nur diesen einen Cache gab und somit eine Level Einteilung unnötig war).

Bei SuperSockel 7 und den AMD K6-III war es dann am Mainboard er Level 3 Cache und nicht 2.
 
Beim 486 entschied SX oder DX darüber, ob die CPU eine integrierte FPU hatte oder nicht und die machte, wie schon bei den Vorgängern, eine ganze Menge aus. Ein ähnliches Bild bzgl. FPU zeigte sich damals auch beim direkten Konkurrenten der x86 Architektur, dem Motorola 68000 :-)drool:) in seinen verschiedenen Versionen.
 
Zuletzt bearbeitet:
Zum Thema:
Da Mantle ja jetzt großflächig zum Einsatz kommt und Mantle ja vor allem auch die CPU entlasten soll um die GPU besser auslasten zu können, könnte Mantle einen großen Boost für die Sinnhaftigkeit von größeren 8-Thread-CPUs im Spielebereich geben. Das wär doch endlich mal was.

Hä? Mantle soll die CPU entlasten und deswegen setzen sich mehr Kerne durch? Da wäre doch eher das Gegenteil der Fall...
 
Ja beim 486 war der CoProzessor beim SX deaktiviert und gleichzeitig wurden diese Modelle mit niedrigen Taktraten angeboten. Ist aber trotzdem keine eigene (CPU) Architektur oder (Sockel) Plattform.
Kann man vielleicht vergleichen wie ich schon schrieb mit dem Pentium und Celeron. Der Celeron hatte ja auch den gleichen Kern nur meist weniger Cache (oder wie bei den ersten Celerons gar keinen 2nd Level Cache) und weniger Takt (CPU bzw. Bustakt).
Heute könnte man das auch vielleicht mit einem Sockel 1155 i5 vs. Pentium G vergleichen. Oder eventuell i3 vs. Celeron G ... ist der gleiche Kern nur HT und etwas Cache deaktiviert und weniger Takt.

Wenn es genutzt wurde (was ab den 486ern häufiger der Fall war) hat die FPU einiges gebracht, ja. Ich hatte damals einen 386SX mit 16MHz und mein Vater hat extra nachträglich einen CoProzessor dazu gekauft und einbauen lassen weil er meinte er arbeitet jetzt viel mit AutoCAD. Auf jeden Fall lief später Comanche: Maximum Overkill und Falcon 3.0 bei mir besser als bei einem Freund mit einem 386DX 25MHz weil die beiden Spiele meines Wissens nach Gebrauch von dem CoProzessor machten.
 
Intels

wenn ich das so lese glaub ich dass mir mein 2600k@4.5ghz noch bis 2017 erhalten bleibt xD
 
@jack3ss
Danke für den Link ...

Hab' mal weiter gesucht und bin auf der chinesischen VR-Zone Seite wohl auf den Quellartikel gestossen (wäre fein wenn CB auf die Quelle verweisen würde)
Google Übersetzer

Also irgendwie ernüchtert mich das ganze ziemlich ... vor allem die Aussage über die Modelle / Kerne. Das bedeutet 1 1/2 Jahre von jetzt an stehen wir freudig wartend vor dem Launch der 6. Gen der Core i Prozessoren. Um dann wohl die üblichen Verdächtigen a'la i3 mit 2C/4T, i5 mit 4C/4T und i7 mit 4C/8T entgegen zu nehmen. Neu ist DDR4 wo noch abzuwarten bleibt ob das viel an der Performance ändern wird (wohl nur ein paar %) und SATA Express. Die PCI-E Lanes bleiben im Mainstream Bereich bei 20 Stück PCI-E 3.0. Tja und die Taktraten werden wie es in den letzten Jahren auch war wohl nur minimal angehoben. Dann hat ein i5-6670K was? 3,8GHz und 4,2GHz Turbo? Woohoo ... can't wait ... :sleep:

Also ist wohl nix mit 6 oder mehr Kernen im Mainstream Bereich. Bleibt zu hoffen daß Ende 2014 vielleicht ein Haswell-E i7 mit 8 Kernen kommt, muss aber nicht sein, kann auch sein daß die bei 6 Kernen bleiben. Ein 8 Kern i7 kommt wohl aber bestimmt eher als X CPU für wieder gut >=900 EUR :mad:

Sieht für mich so aus als tut sich da nicht viel im normalen Desktop Bereich mit mehr (als ~4) Kern Optimierung.
 
Ja ist doch gut für uns alle so muss man nicht alle 2 Jahre ein neuen PC kaufen.
Ohne konkurrenz für intel ist das ja auch kein wunder.
Aber wie gesacht ich finde es gut.


Gesendet von meinem GT-I9505 mit der Hardwareluxx App
 
Man muss nicht alle 2 Jahre einen neuen Rechner kaufen, selbst wenn die neuen Modelle besser sind.
Stillstand hingegen bringt uns nicht nach vorne.
 
Nur gibts ja keinen Stillstand ;)
Die MT Leistung steigt rapide an. Und die Lücke zum Mainstream Desktop hat mittlerweile Faktor drei überschritten...

Das Problem ist eher, wer mehr will (im Bereich MT) muss mittlerweile tiefer in die Tasche greifen. Und dabei sind die knappen 1000€ für die Extrem Dinger noch billig anzusehen ;)

Nach üblichem Wechselschema im Businessbereich von ~3-5 Jahren geht es doch mittlerweile immernoch halbwegs vorran.
Heute abzüglich drei Jahre = Sandy steht vor der Tür.
Heute abzüglich fünf Jahre = Nehalem (HighEnd) ist da, im Mainstreambereich steht noch Core2 unterm Tisch.

Die Leistungssteigerungen von diesen Modellen gegen heute Haswell inkl. Taktsteigerung und Leistung/Watt Verbesserungen sind immernoch sehr gut.
Und der Spaß wird immer günstiger aus meiner Sicht :wink:
Wobei günstiger mit DDR4 dann erstmals wieder in die andere Richtung gehen könnte :(
 
Nur gibts ja keinen Stillstand ;)
Die MT Leistung steigt rapide an. Und die Lücke zum Mainstream Desktop hat mittlerweile Faktor drei überschritten...

Das Problem ist eher, wer mehr will (im Bereich MT) muss mittlerweile tiefer in die Tasche greifen. Und dabei sind die knappen 1000€ für die Extrem Dinger noch billig anzusehen ;)

Es gibt eine Abfrage seitens Francois Piednoel (Intel) via Twitter (erste, zweite) zu den "12-Core Unlocked Xeons" für den gleichen Preis ~2000€ (so was gehört eigentlich auf die Startseite). Leider beteiligen sich da sehr wenige Bencher und Enthusiasten.
Zudem hat CB bei mir für die Verwirrung gesorgt, laut Intel soll E5 mit 12 Kernen ein kastrierter E7 sein. Wenn das stimmt, dann gibt es nur 3 Die-Designs: Ivy Bridge-E, Ivy Bridge-EP und Ivy Bridge-EX. Ich dachte aber, dass letzter ein Fake ist.
 
Wobei günstiger mit DDR4 dann erstmals wieder in die andere Richtung gehen könnte :(

Och so schlimm wird das glaube ich nicht.
Sonnst nimmt man noch DDR3.
DDR4 ist eh nur 4 bis max 9% schneller schetze ich mal so?

Gesendet von meinem GT-I9505 mit der Hardwareluxx App
 
Das Problem dürfte die Preishürde sein...
Wie gesagt, um so mehr man ins MT geht, desto weniger wichtig wird ST Performance... Sprich ob das Ding nun zu OCen geht oder nicht, ist weniger von brachialer Bedeutung. :wink: OC hilft ja wenn du so willst eher der ST Performance durch mehr Takt auf die Sprünge. Mit so nem 12 Core Ding wird man wohl weit weniger Takt erreichen im Dauerbetrieb stabil, als wie mit kleineren Modellen.

Och so schlimm wird das glaube ich nicht.
Sonnst nimmt man noch DDR3.
DDR4 ist eh nur 4 bis max 9% schneller schetze ich mal so?

Ich hätte eher die Befürchtung, das die Speicherhersteller mit DDR4 abermals die Chance sehen, die Preise hochschieben zu können... Denn wer DDR4 will, muss halt dann mehr zahlen.
Und irgendwann ist man so oder so gezwungen darauf zu setzen :wink:
War doch in der Vergangenheit auch so, zumindest anfangs... Bis die Preise dann purzelten.
 
Zuletzt bearbeitet:
Gezwungen ? Ich könnte mir jetzt noch ein system mit DDR 2 zusammen bauen.

Aber ich weiß wie du es meinst, nur Gezwungen ist das falsche wort.

Gesendet von meinem GT-I9505 mit der Hardwareluxx App
 
Wäre genötigt besser? :d Am Ende werden Intel und die Board-Hersteller das schon durch drücken und die RAM-Hersteller zu Beginn ihren Reibach machen.
 
Selbst wenn dann DDR4 wieder 100€ mehr kostet... das geht schon.

Preise von früher an die 500€ wären schon schwerer zu verdauen wenns effektiv nur 5-8% bringt.
 
hier noch ein grund warum ich der meinung bin der fortschritt ist langsamer.
geforce 1 220nm 2000
geforce 2 180nm 2001
Geforce 4 150nm 2002
geforce 5 130nm 2003
geforce 6 110nm 2004
geforce 7 90nm 2006
geforce 8 65nm 2007
HD4000 Serie 40nm
HD5000 Serie 40nm
HD6000 Serie 40nm
R200 Serie 28nm
 
Zuletzt bearbeitet:
HD 5000 ist 55nm und HD 7000 28nm, davon mal ab sagt das reine Shrinken rein gar nächst über Fortschritt aus, außer dem Fortschritt in der Halbleiterfertigungsindustrie...
 
für mich sagt es viel aus.
 
Die Liste mit nicht vorhandenen Shrinks bei gleichzeitiger Leistungssteigerung dürfte recht lang werden. ;)

HD4000 Serie 40nm
HD5000 Serie 55nm (rückschritt)
Nein. Die 5000er Serie war in 40nm. Die einzige Karte der 4000er-Reihe in 40nm war die HD4770. Alle anderen waren in 55nm. Achja: Die 4770 wurde rund ein viertel Jahr vor dem Launch der 5000er Reihe rausgebracht und somit gut ein dreiviertel Jahr nach dem Launch der 4000er. Den Chip, der nichtmal "Vollausbau" war, kann man somit als großangelegten Probelauf für den 40nm Prozess sehen.
 
Zuletzt bearbeitet:
Wenn man häufig die CPUs wechselt, merkt man natürlich keine großen Performance Unterschiede.
Wenn ich jetzt mein Phenom 955 in etwa einen Monat durch einen i5-4670K ersetzen werde, werde ich z.B. einen deutlichen Performance Unterschied merken, vor allem die geringere Leistungsaufnahme.
Im Prinzip braucht ein otto normal Nutzer keine weitere Leistungssteigerung.
 
HD 5000 ist 55nm und HD 7000 28nm

ich hatte dir vertraut und meine liste geupdatet und nun stellt sich raus das du mal wieder falsch liegst durch den netten User Poulton.

Nein. Die 5000er Serie war in 40nm.

habs dann mal selber gecheckt, und stimmt, HD5000 war in 40nm. bist alt geworden Mick ;)

Cedar (RV810) 40nm
Redwood (RV830) 40nm
Juniper (RV840) 40nm
Cypress (RV870) 40nm
 
Ich bin nicht alt geworden, da ist eine 5 anstatt der 4 vorne hingerutscht. ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh