Verbrauch 7970 zu 480/1060

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
So, jetzt bin ich mal am PC.

Erst mal vorab, auch ich besitze keine Einzelmesswerte zu der GPU, wede rzur 480 noch zu 7950/r9 280.

Das ist so aber auch nicht der entscheidende Punkt.

Die 480 kann, vor allem im Multi-Monitor-betrieb natürlich ein paar Watt sparen. Das haben Tets in verschiedenen Portalen ja durchaus ergeben.

Man muss aber für die Gesamtsituation etwas mehr bedenken.

Zu alllererst muss du ja auch deinem hausstrom (230V 50Hz Wechselstrom) ja für den PC die passende Stromversorgung sicher stellen. Das übernimmt das Netzteil.

Hier hat du das erste mal Verluste. Je nach Netzteil und Auslastung kannst du einen Wirkungsgrad von über 90% erreichen, allerdings eben eher in nem Lastbereich von ca. 60-95% Maximalleistung des Netzteils (Das Fenster selbst ist kleiner; die Lage nicht bei jedem Netzteilmodell gleich).
Davon abhängig ist dann aber auch die Wirkung des Idle-Verbrauchs der Grafikkarte. Denn da reden wir bei modernen PC-Systemen immerhin schon von Bereichen um die 10% Last auf dem Netzteil, die nicht zwingend noch mit Effizenzwerten über 75% gedeckt sein müssen.

Natürlich kommst du bei gleichem Wirkungsgrad im Idle für beide Grafikkarten dadurch auf eine noch größere Differenz, laut Rechnung, aber du musst davon ausgehen, dass selbst einige Watt weniger die Effizienz da unten rum irgendwann quasi "zerlegen".
Es kann (ich rede hier absichtlich in der Möglichkeitsform) passieren, dass der Wechsel, auf Grund der Effizenzkurve unten rum, quasi nicht mal 3W Unterschied erzeugt, obwohl 15W Differenz der Karten allein gemessen wurden.

Wie geht man das Thema demnach sinnvoll an:
Natürlich ist die Idee erst mal richtig, dass man mit einer Grafikkarte, welche weniger Strom im Idle benötigt, auch im Office Strom spart.
Aber mann muss hier vor allem erst mal prüfen, ob das Netzteil im Niedriglastbereich überhaupt noch nennenswert effizient arbeitet. Außerdem kann man diese Werte eben nicht 100% errechnen. Was erschwerend hinzu kommt, ist, dass deien Messwerte, die du schon genannt hast, in meinen augen für einen PC mit einer R9 280 durchaus sehr ansehnlich sind. Wenn du die möglichkeit hast, die Graka raus zu nehmen udn mal mit der IGP zu messen wirst du sehen, dass du wohl kaum 25W sparen kanst, und die neue Graka wird auch ein paar Watt haben wollen, so dass du am Ende keine 20W Differenz bekommst. (Soweit meine Erfahrung)
Sprich, ohne Test am "lebenden Objekt" wirst du für deinen PC keine vernünftigen Antworten finden.

Da du bei der RX480 derzeit vereinzelt mal echt gute Angebote hast, würde ich mir die an deiner Stelle bestellen, Verbrauchsmessung machen, und bei Zufriedenheit behalten, ansonsten zurück.
Da du die Karte dazu nicht in einen Zustand versetzt, der die Karte stark belastet halte ich dieses Vorgehen für eine durchaus legitime Sache. Der Potentielle "Zweitkunde" hätte einen Nachteil zu verschmerzen, der vielleicht 20 Minuten Nutzung des Produkts entspricht ;) Glaube, das kann jeder ohne Probleme ertragen ;)
 
Effizienz in dem Bereich, daran habe ich noch nicht gedacht, da müsste ich wahrscheinlich das zur Grafikkarte gleichaltrige Netzteil mittauschen/anpassen. Ich verstehe was du meinst, wenn das Netzteil 50% Effezienz hat und der Rechner im idle nur 50W bräuchte, werden dennoch 100W aus der Dose gezogen. Je niedriger der Verbrauch, desto ineffezienter arbeit ein Netzteil, wenn wie von 400-500W ausgehen. Jedoch wäre mir bei Tests noch nicht aufgefallen, dass spezielle Netzteile verwenden werden, aber dafür werden dann wohl die guten Meßgeräte da sein, weil die müssen, das auch irgendwie messen können.

Leider hat die cpu kein Grafikeinheit. Ich schau mich noch um, was an die restlichen Komponenten üblicherweise anfällt.

- - - Updated - - -

Wobei laut Zertifizierung Bronze auch bei 20% Last die 80% Effizienz bieten.
 
Zuletzt bearbeitet:
Achja, Xeons ;)

Thema Bronze, ja, ab 20%, aber darunter?

Ich wüsste jetzt beim Coolermaster V550, dass es selbst mit ganz wenig Läßt sehr effizient ist.

Ob das Netzteil getauscht werden musste/sollte, ist vom Modell und der Stärke abhängig, ein 400er ist ja schon gut dimensioniert mit ner RX480.

Das Thema Energie sparen ist halt extrem komplex und zieht schnell "Rattenschwänze" nach sich...

Manches ist aber eben auch einfach ausprobieren oder eben auch "Akzeptanz" des aktuellen Status.

Ich sehe das weniger verbissen, da für Office und co nur ein Notebook läuft, und der PC nur für Dinge wo er nicht ersetzbar ist.
 
Bei mir dasselbe, mein Zockrechner ist vielleicht 8h die Woche an übers Jahr gerechnet, in der Firma hab ich den Firmenrechner und zum Surfen und für Office zuhaus läuft der sparsame Laptop.

Meine MSI 980Ti Lightning zog 300 Watt unter last, und ?
 
Zuletzt bearbeitet:
Selbst 600w wäre bei der wenigen Laufzeit keine Hürde für den LuxxUser;)
 
Und man sollte halt auch dran denken das ein modernes Intelsystem imt Stromsparmodi an, auch inkl Grafikkarte die nicht älter als 3 Jahre ist im Idle nicht mehr als 40 oder 50 watt zieht, obs dann nun 38 oder 48 sind ? Naja gibt wichtigeres für mich..
 
Sorry wenn mein letzter post etwas sarkastisch war..

Ich hatte vor ca. 5 jahren auch sonen ahnlichen effizienz wahn. Hab wochenlang test zu grakas + cpus durchgelesen. Aber am Ende hab ich dann festgestellt, dass das so wenig aus macht (finanziell gesehen).

Es ist ja nicht nur der idle verbrauch wichtig, sondern neben gamen auch videos schauen (youtube, blurays od. Hd filme von platte).
Da kann es gut sein dass die graka mit der besten effizienz im idle od bei games dort abstinkt.

Ergo schluss endlich kann man kaum sagen, was so ein system im mix betrieb strom schluckt.

Du hast geschrieben, dass dir hier niemand was nützliches schreibt, wie kommst du darauf?

Was hat dir z.b. An meinem link nicht gepasst? Dort wird von alt bis neu aufgelistet was grakas verputzen....
Cpus sind auch gelistet, wenn man n bisl weiterklickt.


Aber das mit dem NT ist ein guter tip...
Lieber nicht zu groß wählen. Dann stimmt auch die Effizienz.

Ich hab z.b. Ein i7 3770 mit leichtem oc und ne gtx 970 drin.
Nutze aber nur ein 385 watt 82plus NT. Das reicht...
Bei dem was du vorhast, kannst auch ein noch kleineres nehmen.

Was auch noch ein punkt ist, ist das MoBo.
Hab mir damals eins geholt, das bis zu 50 w weniger als die Konkurrenz braucht.

Jede komponente ist wichtig.
Du kannst auch ssd statt hdds nutzen, die brauchen auch weniger saft.

Die Frage bleibt, ob es sich finanziel lohnt....

Gesendet von meinem E6553 mit Tapatalk
 
Zuletzt bearbeitet:
Das stimmt so nun wirklich nicht, dass ich geschrieben habe, dass keiner hilft. Ich habe/hatte nur ein Problem mit Posts die sinnlos Gegenwind verursachen, damit sind die "Skeptiker" gemeint. Im nächsten Satz steht ja was von guten Posts. Da hast du mich einfach falsch verstanden, aber ich darf zugeben, dass ich auch etwas zu forsch geworden bin.

Ich will ja nicht auf Teufel komm raus jedes Watt sparen, aber wenn es eine (mittlweile doch nicht schnelle und einfache) Lösung gibt, warum nicht neben bei Verbrauch sparen bzw. bei einer neuen Karte 1/3 vom Kaufpreis? Das Problem sind ja unter anderem genau solche Situation wie bluray, videos und mehrere Monitore. Wenn der Computer trotz idle einfach mal so min. 42W mehr zieht (scheint so der Schnitt zu sein) und das jede Stunde, 8 Stunden am Tag. Kann ich nicht verstehen, wie da man nicht nachhakt, ob man zumindest die 42W loswird. Außer es ist einem wirklich egal und die Mühe nicht wert. Hunderte User beschweren sich, dass sie eine 1070 nur kaufen würden, wenn die Karte 100€ billiger wäre, aber in meiner Situation würde ich mehr als die 100€ rausbekommen.

Was erschwerend hinzukommt ist noch, dass die Werte sich teilweise um 5-15% unterscheiden, einzig der idle mit 5W Unterschied gering aus. Die Tage hat ich bei DOOM 270W und heute mal 311W. Wie ihr schreibt, ich probiere herum und beobachte bzw log das System mit, das gibt auch schon viel Aufschluss, was es macht. Jetzt gerade fällt auf, dass der cpu takt nicht unter 2500-3000mhz fällt jeder Kern liegt dazwischen, die Spannung dementsprechend hoch und auch der Verbrauch. Laut Taskmanager ist die "cpu-gesamtausltung" bei ca 75%, jedoch kein einzelner Kern auch nur in der Nähe von 10%, eher so, dass man gerade noch einen Ausschlag im Diagramm sehen kann. Stromsparfunktionen sind an.
 
Bei mir fällt der Takt auch nicht immer bis 1.6 Ghz, je nachdem was Windows so grad im Hintergrund treibt.
Bei mir ists aber vom Takt ähnlichwie bei dir.


Wegen DOOM, natürlich ist das nicht immer gleich! Kommt auf die FPS und Auflösung an....
Zockst du z.b. auf 800 x 600 wird deine GPU vermutl. +300 frames raushauen. (sofern VSYNC deaktiviert ist)
Bei so hohen Frames kommt die Graka ordentlich ins Schwitzen, wenn das Game die Frames nicht limitiert. Die CPU wird bei hohen Frames ebenso mehr belastet.

Kannst ja mal mit dem MSI Kombuster einen GPU Stresstest machen. Da wirst du sehen, dass bei niederer Auflösung ohne AA oder anderen Bildverbesseren, die Graka viel schneller heiß wird als bei 4k @ 2x MSAA.
Vermutl. wird sie dann auch mehr Strombrauchen (hab kein Gerät um den Verbrauch zu messen).

Ergo Verbauch steigt.
Helfen kann hier, die Auflösung so zu wählen, dass die FPS nicht ins unendliche steigen und die Grafiksettings (AA; Details usw.) zurück zu schrauben und VSYNC oder einen frame limiter zu aktivieren.

Du siehst, sehr ehrgeizige Stromsparziele gehen nicht ohne persönlichen Verzicht einher...


Evtl. wäre auch eine CPU mit starker iGPU interessant: z.b. der hier --> Intel Core i5-5675C, 4x 3.10GHz, boxed Preisvergleich

Wird natürlich langsamer als deine 7970 sein.
Aber Gaming mit hohen Settings (details MSAA, etc.) kostet eben massiv Strom! Da wird sich grundsätzlich nichts ändern.

Dafür kannst du (mit dem richtigen player) die
igpu nutzen um Filme zu schauen. Aber ob das heut zutage noch was auchmacht, ob iGPU oder dGPU den Film dekodieren?

Bei mir idled die gtx 970 eigentlich runtergetaktet rum, wenn ich ein HD film schaue.
 

Anhänge

  • CPU-Last.jpg
    CPU-Last.jpg
    130,7 KB · Aufrufe: 45
  • CPU_Idle.jpg
    CPU_Idle.jpg
    110,5 KB · Aufrufe: 51
Zuletzt bearbeitet:
Hier noch ne aktuelle low-end kart: https://www.computerbase.de/2015-08/nvidia-geforce-gtx-950-test/7/

Wie du sehen kannst, braucht sie unter last gerade mal 40 watt weniger als eine durchaus potentere 970. Beim video gucken und rum idlen sogar mehr...


Hier noch was interessantes zum Thema CPU Verbrauch bei modernen prozzis:
https://www.computerbase.de/2015-08/intel-core-i5-6600k-i7-6700k-test-benchmark-skylake/8/

Du siehst es ist immer die Summe aller einzelnen Teile...


Alles ne Frage der Einstellung.
Ich würde auch jederzeit Komponenten bevorzugen die so stromsparend bzw. Effizient sind wie möglich.

Aber wenn iwann das P/L Verhältnis übelst schlecht wird dann net.

Kannst ja selber mal nachrechnen:
Ca. 20 c die KW/h.
Soviel einsparen kann kaum eine komponente, dass sich der Preis lohnen würde [emoji111]

So long.....

Edit: ganz aktuell ist sie nicht mehr
Ca. 1 jahr

Gesendet von meinem E6553 mit Tapatalk
 
Zuletzt bearbeitet:
Naja 20 Cent die kwh da muss man schon sehrviel Glück haben sonen Anbieter zu finden, realistisch ist wohl eher 24 Cent die kwh
Achja unsere französichen Nachbarn zahlen Dank billigem atomstrom 10 Cent die kwh.. Aber hey, es lebe die Energiewende.. :wall:
 
Macht das groß n Unterschied, ob du mit 20 oder 24 cent rechnest?
Glaub eher net... Vermutl. Wird dabei 20% mehr kosten rauskommen ;-)

Gesendet von meinem E6553 mit Tapatalk
 
der cpu link zu computerbase ist gut, da sucht man schon recht lange, aber diesen habe ich nicht gefunden. Ich hoffe sehr auf die amd 470, denke die 460 wird eher was für die Spiele, die viele Spieler haben, wie LoL, Dota und sowas.

Würde es eigentlich Sinn machen, 3 Full HD Monitore durch einen 4k TV oder großen Monitor zu ersetzen? Also jetzt nicht, um am Verbrauch zu sparen, sondern als Vergleich zwischen den beiden Möglichkeiten.
 
Ähmmmmm du hast 3 Monitore angeschlossen und jammerst wegen ca 50 watt mehr Verbrauch wegen ineffizienten hardeware teilen rum?

Das soll mal einer verstehen....


Zum monitor: es gibt welche mit 2 dp Eingängen. Dann hast du schon mal 2 richtige windows desktops.

Gesendet von meinem E6553 mit Tapatalk
 
Die 3 Stück sind nicht dauerhaft an bzw. der Bildmodus aktiviert, aber bei Videoschnitt, Programmieren oder Office sehr hilfreich. Und ja, bei 40W die "einfach so" dazukommen, nur weil 2 oder mehr Bildschirme angeschlossen sind, machen schon was aus, finde ich. Wenn jetzt so sagen wir 1 großen Bildschirm 50W und 1 kleiner 33-34W zieht und statt die 3 Bildschirme nur mehr den großen habe, dann fallen die 40W ab und nochmal 50W der Bildschirme. Und das für idle oder zumindest office Betrieb.
Mir ist natürlich klar, dass so ein großer Monitor teuer ist und man da nicht am Verbrauch sparen kann, aber davon hat man sehr viel. Auflösung, Platz am Arbeitstisch, Farben! fallen mir jetzt spontan ein.
 
Musst halt wissen was du willst..
Superduper highend gaming Rechner und noch 3 bequeme Monitore sind halt mit niedrigem Verbrauch nicht zu vereinbaren.
Da kannst du noch soviel theoretische verbräuche addieren...

P.s. Ich glaub, die graka braucht auch schon mehr strom, wenn die monitore nur angeschlossen sind... Bin mir aber net sicher, vlt ist das nur bei vga anschluss so.
Kannst ja googeln oder nachmessen.

Gesendet von meinem E6553 mit Tapatalk
 
Zuletzt bearbeitet:
Wenn du deine monitore durch nen großen ersetzten willst, brauchst du vermutl. Dann schon eher 40 zoll.
Laut geizhals ham die alle ein verbrauch von 60-80 watt.

So gesehen würdest du zum preis von mind. 550 euro
Etwas weniger verbrauchen und der Schreibtisch ist aufgeräumter :-)

Theoretisch kriegst du 4 full hd Bilder drauf. Oder anders gesagt, du hast vier 20 Zöller.
Aber ob das in der praxis dann so wie 4 FHD monis ist, weiß ich net.
Unter linux kannst du mit mehren virtuellen desktops arbeiten.

Gesendet von meinem E6553 mit Tapatalk
 
Zuletzt bearbeitet:
Wenn du Finale einfach immer wissen willst, was dein System verbraucht, dann hänge alle Geräte an eine Verteilerdose und schalte einen digitalen Stromzähler mit Statistikfunktion dazwischen (hat ein Kumpel von mir). Er kann immer alle Messwerte durchsehen. Mir persönlich ist din Leistungsaufnahme egal, da wor zwei Windkraftanlagen mit insgesamt 880kw Leistung und ne Solaranlage mit 50kw haben. Strom läuft über unseren Hof ins Netz von der kleinen Anlage und dem Solar. Da bekommst nur Auszahlbescheinigungen von der RWE und keine Rechnungen *lach*
 
DAS ist die Lösung, wenn man in nem 1-Zmmer-Wohn-Klo im Hochhaus wohnt :-)
Tu ich nicht, aber nur so als Gedankenstütze.

Gesendet von meinem E6553 mit Tapatalk
 
Ohne alle Antworten gelesen zu haben:

Im Idle Betrieb schaltet die CPU weiter Teile des Kernes komplett ab. Es ist also egal wie schnell die CPU getaktet und wie hoch die Spannung ist. Bei leichter Last hingegen wendet sich das Blatt: mit Speedstep läuft die Cpu in einem viel optimalerem Taktbereich.
Ich habe recht aufwändig mit meinem Surface 3 Pro getestet. Die Cpu taktet bis 2.6Ghz schafft aber am meisten pro Watt bei 1.5Ghz und das selbst wenn die restlichen Verbraucher dazu kommen!

Ich habe von einer 7950 auf eine RX 480 gewechselt und bin schockiert vom Idle Verbrauch mit einem Monitor. Die Karte ist gefühlt schlimmer als die 7950 weil sie sehr schnell und damit auch sehr häufig in den 3D Takt geht.
Gemessen ist diese im Idle Betrieb mit statischen Bild nicht besser.
Minimum sind allein 8w für den Chip aber es können auch mal bis zu 50w bei einem Youtube Video sein, da ist Cpu encodieren sogar stromsparender.

Demzufolge werden auch nicht Referenz Karten die Lüfter im Idle Betrieb sicher nicht abschalten.

Ich würde am liebsten das Bios editieren, sodass der Speicher Idle noch etwas langsamer taktet. Das würde ich dir vielleicht auch bei deiner 7970 empfehlen denn eigentlich müßte man den gehobenen 2D Takt so einstellen können, dass selbst bei 3 Monitoren der Speicher bei 150MHz bleibt. Das würde sicher eine hohe Ersparnis für dich bedeuten.

Auch ich will eigentlich meine Hardware lange behalten. Aber wenn man ernsthaft rechnet:

(365d*4h*10w/1000)*0.3
Dann landet man bei keinen hohen Beträgen, der Preisunterschied der 1060 relativiert sich dann jedoch komplett.

Zudem sollen nicht Referenz Karten im Idle Betrieb Lautlos sein wohingegen die RX 480 durch ihr Knurren lauter ist als eine uralte GeForce 8800gts mit 512Mb Speicher.
 
Zuletzt bearbeitet:
Danke für die weiteren Antworten. Einen 40zoll Schirm bringe ich leider nicht bei den anderen durch. Es wird bereits mit einem Messgerät gearbeitet. Super duper high end Rechner wurde nie angesprochen.

@Stefan 0815
Wie kann es egal sein, ob die cpu mit über 1v oder 0.7v läuft und dass sich zwischen über 3ghz 1v und 800mhz 0,7v nichts tut?


Ich habe die letzten Tage die 1060 abgewartet und Tests gelesen. Da der Verbrauch in jeder Lage geringer ist, wird es ein 1060 Custommodell. Dazu noch ein neues Netzteil ist scheinbar Pflicht.
 
Egal was für eine GPU du da reinpflanzt: Dein Problem ist die CPU. Das macht so überhaupt keinen Sinn.
Mein i7 läuft mit 4.6ghz und der taktet schön runter. Mit konstantem Takt bekomme ich 4.7ghz stabil aber das zahlt sich nicht aus.
Der Verbrauch ist mir noch egal, aber gerade im Sommer heizt man damit den Raum unnötig auf.
Du schreibst, dass Speedstep an ist. Mach mal das aktuellst Bios drauf und starte von den Default-Werten.
Im Windows schon mal überprüft, ob irgendwelche Programme oder Prozesse die CPU aktiv halten? Kommt immer wieder einmal vor.
 
Jaein, was hast du denn aktuell an Netzteil drin?

Die 1060 ist, wenn es um Stromsparpotential geht natürlich besser ;)
 
Die Cpu schaltet im Idle Modus einfach ab, da ist die Spannung egal. Große Teile der CPU laufen dann hat gar nicht im Takt.

Wenn der Rechner nichts macht, dann läuft er 1% der Zeit mit vollem Takt und ist 99% der Zeit ganz abgeschaltet.

Wenn jetzt aber ein Virenscanner läuft und die Cpu mit 20% belastet wird, dann sieht es anders aus: die Cpu läuft dann 20% mit höchsttakt und ist dabei ineffizienter als 60% der Zeit mit niedrigstem Speedstep Takt zu laufen.

Speedstep bringt also nur etwas bei Teillast aber nicht bei fast 100% Idle.
Speedstep ist auch unabhängig von den Sleep Modi C6 und C7.
Sollte z.b. im Bios C7 deaktiviert sein, so kostet das sicher 5-10w.
 
Zuletzt bearbeitet:
Netzteil bringt kaum etwas im Teillastbereich:
Ich habe ein Uraltes 80plus China Netzteil gegen ein Seasonic Gold super duper Teil gewechselt.

Stromersparnis im Normalem Betrieb und Teillast weniger als 10w.

Ökologisch betrachtet musst du den Stromverbrauch der Herstellung mit betrachten. Dann lohnt sich ein neues Netzteil nie und nimmer.

Das entspricht dem Unterschied der Rx 480 zur 1060 idle (die ja bei 5.5w liegen soll). Ich hoffe aber noch, dass Ati erwas nachlegt in den Treibern.
 
Zuletzt bearbeitet:
Da hast du durchaus recht stefan, wobei es lohnen kann, wenn das netzteil so alt ist, dass der Wechsel eh sinnvoll wäre. Wenn nein, natürlich ehe rnicht.

Im Teillastbereich würde ich immer das Coolermaster V550 empfehlen, da es so Effizient ist unten, dass es dort sogar Platinum Netzteile von Seasonic und das E10 udn P11 schlägt.
 
@mustrum
Ob die cpu runtertaktet oder nicht macht wiederum laut meiner Anzeige keinen Unterschied. Das funktioniert jetzt auch ordentlich mit Windows 10 :)

@[W2k]Shadow
Enermax 550W von 2011? Mir wurde gesagt, dass nicht die Watt das Problem sind, sondern die Technik wegen den schnellen und hohen Spannungswechsel.

@Stefan 0815
Laut Taskmanager ist die cpu zu 1-2% ausgelastet, der Verbrauch bleibt gleich, egal wie hoch oder eben nieder die Spannung oder der Takt ist. Ein neues Netzteil wäre auch nicht des Verbrauchs wegen anzuschaffen, sondern wegen der Technik.
 
Generell richtig, wenn es ein Modu82+ ist, ist es vom Aufbau so, dass einer der Kondensatoren richtig doof sitzt und Wärme abbekommt. Damit altert der schneller...

Da du aber ja eine Karte wie eine GTX1060 oder rx480 avisierst, wäre das eigentlich, so lange es läuft, noch kein KO-Kriterium.

Wenn du ein neues Netzteil anschaffen magst, bevor das alte den Geist auf gibt, dann ist es durchaus ok.

Meine Liste der Empfehlungen:
Netzteilempfehlungen Preisvergleich | geizhals.eu EU

Wobei das V550 für dein Ziel das beste wäre, auch wenn das E10 wohl messbar, aber nicht wirklich hörbar, leiser ist.
Wichtig: Bitte das V550 (Cooler Master V-Series V550 550W ATX 2.31 Preisvergleich | geizhals.eu EU) nicht mit dem V550SM verwechseln. Das SM ist nicht so gut wie das V!
 
Danke. Kommt in die Überlegung auf jeden Fall mit rein. Ein V450 gibt es nicht und kommt auch nicht mehr?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh