ESX / ESXi - Hilfethread

HP und VMware (iLo/Hardwaresensoren) sind der letzte Dreck! Ich habe NUR Probleme damit und von dem Support bekommt man zum Großteil nur halbherzige dumme Vorschläge wie, aktualisieren sie dies, updaten sie das. Seit 2 Jahren gibt es ständig Probleme, ein Problem behoben, 2 neue mit der neuen Version. Alles unausgereifte, mit unnötigen Features überschüttet, Lösung, aber nix stabiles geschweige denn sicheres.....:wall:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kurze Frage: Wenn ich meine SATA-Platten per RDM an eine VM (z.B. Xpenology oder OMV) durchreiche, haben diese dann automatisch Zugriff auf deren SMART-Werte?
 
Hat einer hier nen Gen8 und das VMware ESXi 5.5.0 U2 HP Customized vom November 2014 drauf? Gestern Abend drauf getan. Seitdem bissl Probleme mit Maschinen (Nur die aus der Testumgebung - Nichts wertvolles) die auf per iSCSI Verbundenen Platten liegen. Kann diese teils nicht mehr starten bzw. der vSphere Client hängt sich auf mehreren PCs auf wenn die Starten will bzw. unter Konfiguration --> Speicher gehe o_O
Davor hatte ich September 2014 VMware ESXi 5.5.0 U2 HP Customized...
 
Kann mir jemand helfen? Seit kurzem wird mir ein Datastore im vSphere als "inaktiv" angezeigt. Bei einem Reboot der Maschine ändert sich daran auch nichts. Weiss jemand wie ich heraus finden kann wieso die Platte inaktiv - also nicht gemountet ist - und was ich dagegen tun kann?
Vielen Dank!

Screen Shot 2014-12-03 at 12.06.01.png
 
Früher geisterte, auch von VMWare Leuten immer mal wieder gesagt, die Aussage im Raum, dass man keine Cluster mit mehr als 8ESX Hosts bauen sollte. Dieser (mein) Kenntnisstand liegt allerdings 3-4 Jahre zurück. Ich weiss, dass technisch auf den Whitepapern von VMWare immer sehr viel steht, deswegen frage ich mal Leute aus der Praxis. Nutzt ihr mehr als 8 ESX Hosts pro Cluster? Ich würde nämlich gerne einige Umstrukturierungen angehen und da würde ich gerne 2x8er Cluster in ein 12er und ein 4er Cluster umbauen.
 
Wir fahren auf Arbeit Cluster mit mehr als 8 Servern. Ich hab jetzt aber nicht geschaut welche Version im Einsatz ist, denke aber mal 5.0
 
Mir würde nur einfallen das zu viele Snapshots auf einer VM die Performance der VM beeinträchtigen können.

Die Aussage mit nicht mehr als 8 Hosts im Cluster war glaube ich noch zu 4.x Zeiten. Ich meine mich dunkel erinnern so etwas auch mal gehört zu haben, aber mir fällt die Begründung von damals nicht mehr ein. Bei 5.x habe ich das noch nicht gehört.
 
Wir haben erst vor kurzem unseren Hauptcluster aufgetrennt, der lief lange Zeit (seit Release 5.0) mit 12-14 Hosts.
Die Auftrennung lag jetzt aber nicht an der VMware, sondern eher an der Lizenzierung von darauf laufender Software.

Ob und wie sich Snapshots auf die Performance auswirken hängt immer vom dahinterliegenden Storage ab. Man sollte halt die Datenspeicherauslastung gut überwachen, nicht das ein Snapshot den plötzlich anfüllt. Seit 5.x brauch das Snapshot entfernen ja keinen zusätzlichen Platz mehr, das war damals auch noch ein negativer Punkt.
Ich find Snapshots auch super, ohne Überwachung würd ich die aber auch nicht nutzen.
 
was ist an Snapshots denn uncool?

- führt bei großen Datastores möglicherweise dazu, dass plötzlich etliche Server stehen nur weil ein Gast den Storage vollfährt
- belastet das GESAMTE SAN extrem, da in diversen Files zeitgleich geschrieben wird
- zieht auch die Performance des Systems selbst spürbar herunter

Ich finde Snapshots auf VMWare Workstations ne nette Sache, insbesondere als Programmierer oder sowas. Aber da macht man sich bestenfalls nur seinen Desktop platt, in Produktivumgebungen toleriere ich sowas nur 2-3 Tage, danach werden die kommentarlos gelöscht. Sowas permanent zu überwachen ist auch viel zu aufwendig ab einer gewissen Anzahl Systeme.
 
Also das kann ich nicht nachvollziehen, Frankenheimer.
Snapshots lasse ich aufgrund des Wachstums auch ungerne länger als eine Woche laufen. Sonst dauert es einfach teilweise sehr lange sie wieder zu löschen.
Denn die Last auf dem SAN ist nicht merkbar, außer man konsolidiert die Snapshots. Dann passiert nämlich die Magie: dann werden die Snapshots files wieder ins Ursprungsfile geschrieben. Vorher tritt praktisch keine höhere Last auf.

Davon abgesehen sind Snapshots aber einfach nur Gold wert - mit einer der größten Vorteile von Virtualisierung.

connect-viserver <servername>
get-vm | get-snapshot | format-list vm,name

Ein Zweizeiler in PowerCLI der dir alle laufenden Snapshots auflistet. Einfach ab und an mal laufen lassen oder eben den Operations Manager betreiben. Der kann das auch überwachen.
 
Zuletzt bearbeitet:
Heut hab ich mal ein Problem.
Ich hab meinem ESXI eine neue Win 7 VM hinzugefügt. Soweit so gut.
Nun ist es aber so das ich aus dieser VM eine IP zwar anpingen kann, allerdings keine bestimmten Ports aufrufen.
Jemand eine Idee? NIC ist vmxnet3. Internet geht in der VM.

ich hab schon mal die Windows Firewall ausgeschaltet aber das hat nichts geändert.
Ich steh grad etwas auf dem Schlauch da ich keinen Ansatz habe ob es ein VM oder ein Windows Problem ist.
 
Heut hab ich mal ein Problem.
Ich hab meinem ESXI eine neue Win 7 VM hinzugefügt. Soweit so gut.
Nun ist es aber so das ich aus dieser VM eine IP zwar anpingen kann, allerdings keine bestimmten Ports aufrufen.
Jemand eine Idee? NIC ist vmxnet3. Internet geht in der VM.

ich hab schon mal die Windows Firewall ausgeschaltet aber das hat nichts geändert.
Ich steh grad etwas auf dem Schlauch da ich keinen Ansatz habe ob es ein VM oder ein Windows Problem ist.

IP innerhalb- oder ausserhalb des LAN's? Wer routet? Betreffende Ports sind auf dem Ziel offen?
 
IP ist innerhalb des Netzes.
DHCP und Gateway ist der Speedport.
VM ist auf Feste IP eingestellt.
DNS und Gateway Einstellungen sind auf den Speedport eingestellt.
Port auf dem Ziel ist offen. Von anderen Clients und von einer anderen VM kann ich mich verbinden.

Ich verdeutliche mal das Problem:
Server VM: 192.168.2.210:1000 (vmxnet3, vmnet1,vswitch1)
Client VM: 192.168.2.105 (vmxnet3, vmnet2,vswitch2)
ich hab auch schon versucht beide vms auf die gleiche nic und den gleichen vswitch zu hängen. Kein Erfolg.
 
Ich versteh nicht ganz, wieso Du zwei vSwitches bzw. zwei NIC's am selben Netz hast. Hast Du VLAN's eingerichtet am Router? Wenn ja, hast Du am Router Firewall Regeln erstellt? Ich würde erst mal die betreffenden VM's wieder an einen einzelnen vSwitch hängen. Wenn Du dort die Verbindung hingekriegt hast, kannst Du das Netz ja wieder wechseln.

Ansonsten käme mir nur noch die ESXi eigene Firewall in den Sinn. Kann es sein, dass da noch "alte" Regeln von früheren Aktionen vorhanden sind?

Was läuft denn überhaupt auf Port 1000?
 
Vlans hab ich keine.
Warum ich 2 vswitche habe? Jede physische Nic hängt an einem Vswitch.
Hat es Vorteile einen zu nehmen statt am physischen Switch alles zusammenkommen zu lassen?
Ich denk aber trotzdem das dies nicht mein Problem löst.
 
Ich weiss halt nicht, für was Du die beiden NIC's brauchst. Ich habe auch mehrere NIC's am ESXi, aber da fahre ich mit physikalisch getrennten Netzen drauf (LAN 1, LAN 2, VPN Box und DMZ z.B.) Wenn ich dann z.B. von einer Maschine am LAN1 auf die DMZ zugreifen möchte, muss ich zuerst Firewall Regeln erstellen. Aber bei mir routet eine Zywall 110, das ist nicht ganz dasselbe wie ein Router.

Aber den Sinn mit zwei vSwitches, bzw zwei NIC's im selben Netz sehe ich gerade nicht. Wenn Du das so lassen möchtest/musst, würde ich in dem Fall den "Server vSwitch" an den DMZ Port des Routers hängen, falls der das Feature bietet. Dann macht das auch Sinn mit den beiden NIC's.

Du kannst auch einmal versuchen, bei beiden vSwitches den promiscous Mode zu aktivieren.

Du hast immer noch nicht offengelegt, was denn da am Port 1000 lauscht.
 
Ich nutze 2 um die last zu verteilen. Auf einer nic laufen teils mehrere Streams. Deswegen nutze ich die 2. ebenso.

Nicht das wir uns falsch verstehen, auf meinem ESXI läuft kein Router. Das macht der Speedport und die Fritzbox.
Der komplette ESXI steht in meinem Netz. Wie gesagt eine andere VM mit 2k8r2 Server funktioniert wunderbar an beiden vswitches.

Auf dem Port läuft ein Streaming Dienst. Die VM wird zum testen genutzt aber ich bekomme in der VM weder den Stream noch komme ich auf das Webinterface.

Ausfallsicherheit. Wenn beide NICs in derselben Broadcast-Domäne hängen, dann pack ruhig beide in einen vSwitch.

gut wenns Vorteile hat dann werd ich das tun.
 
Denn die Last auf dem SAN ist nicht merkbar, außer man konsolidiert die Snapshots. Dann passiert nämlich die Magie: dann werden die Snapshots files wieder ins Ursprungsfile geschrieben. Vorher tritt praktisch keine höhere Last auf.

Das stimmt definitiv nicht!
Snapshots erzeugen von Haus aus, rein durch ihr Verfahren höhere Last. Dazu muss/sollte man wissen, wie die Snapshots funktionieren... Ein Snapshot wird idR in 16MB Blöcken erstellt (wenn mich nicht alles täuscht). Das heist, werden Daten geschrieben, wird der Block des Snapshots immer in 16MB Schritten erstellt(vergrößert). Jedes erweitern des Snapshot Blockes erzeugt dabei Last, die man nicht hätte, hätte man keinen Snapshot erstellt! Das hat den eklatenten Nachteil, dass dies quasi Random Access like passiert. Vor allem bei mehreren gleichzeitigen Snapshots im selben LUN. Einfach aus dem Grund, weil idR nicht alle VMs, die einen (oder mehrere) Snapshots haben, gleich viele Daten zur gleichen Zeit schreiben. (im selben Volume/LUN)
Dazu kommt, der Snapshot ist dazu da, den Ist-Datenbestand festzuhalten. Eine Änderung an diesen Daten heist dann nicht ändern im Snapshot, sondern neu schreiben! Deswegen wird die Größe auch bei simpler Änderung anwachsen, anstatt wie ohne Snapshot, eben nicht.

Unterm Strich, diese 16MB Blöcke können so wild verteilt auf dem Storage liegen, was unterm Strich den Charm einer massiv fragmentierten NTFS Partition hat. Selbst wenn man dann größere Datenmengen sequenziell lesen würde (bspw. bei einem Backup) wären diese nicht physisch am Stück auf den Platten, sondern eben wild durcheinander... -> Random Access, weniger Speed.

Normal werden die meisten Nutzer von ESXi wohl bei blockbasierten Storages keine Schnellzuweisung machen. Ggf. sogar, wenn von Vorteil, die Bereiche sogar nullen. Das alles machen Snapshots nicht. Bei NFS Shares verhält sich das etwas anders... Da ist grundsätzlich der Bereich schnell bereitgestellt.

gut wenns Vorteile hat dann werd ich das tun.

Lass dich nicht beirren, das läuft auch so wie du es hast... Und hat eben den Vorteil der Lastverteilung... Zwar nicht dynamisch, aber eben händisch, weil du die VMs halt auf die beiden NICs/vSwitches aufteilst.
Ich sehe keinen Vorteil daran, das umzubiegen. Aber auch keinen Nachteil es (nicht) zu tun. Es ist im Grunde wurscht...

Port auf dem Ziel ist offen. Von anderen Clients und von einer anderen VM kann ich mich verbinden.

Das könnte noch ein MAC Adress oder ARP Problem sein... Gerade wenn du zwischen den beiden vSwitches hin und her springst...
Ansonsten, was mir spontan einfällt, lösch mal die vmxnet3 aus der VM und leg mal eine neue an, eventuell behebt das dein Problem schon.

Ansonsten, via "Telnet xxx.xxx.xxx.xxx Port" mal versucht den Port aus der VM aus zu öffnen?
Gehst du auf den Namen des Ziels (also NetBios Name oder FQDN) oder auf die IP?
FQDN/NetBios Name könnte ein Problem mit der Namensauflösung sein, gerade wenn man keinen "richtigen" DNS/Wins Server verwendet. DNS via Fritzbox/Speedport ist bestenfalls dürfting. Und NetBios ohne Serverunterstütztung heist, dass sich die Clients das untereinander selbst aushandeln. Was entweder arsch lahm ist oder manchmal gar nicht sauber funktioniert.

PS: wenn du sagst, Firewall ist aus auf dem Client, Firewall auf dem Ziel? Und Firewall auf dem Client generell aus oder nur für ein Profil? (private/public/domain)?
Auch mal nach den Proxy Settings schauen...
Ggf. ists auch ein Problem mit der IE Website Security... Sprich mal gucken, ob du die IP nebst Port in die Intranet/internal Sites hinterlegen kannst... -> auch wenn das eher unsinnig erscheint, manchmal bewirkt es Wunder ;)
 
fdsonne schrieb:
Lass dich nicht beirren, das läuft auch so wie du es hast... Und hat eben den Vorteil der Lastverteilung... Zwar nicht dynamisch, aber eben händisch, weil du die VMs halt auf die beiden NICs/vSwitches aufteilst.
Ich sehe keinen Vorteil daran, das umzubiegen. Aber auch keinen Nachteil es (nicht) zu tun. Es ist im Grunde wurscht...
Dachte ich mir schon ;)

fdsonne schrieb:
Das könnte noch ein MAC Adress oder ARP Problem sein... Gerade wenn du zwischen den beiden vSwitches hin und her springst...
Ansonsten, was mir spontan einfällt, lösch mal die vmxnet3 aus der VM und leg mal eine neue an, eventuell behebt das dein Problem schon.
Hab ich schon gemacht. Der Wechsel zwischen den Switches erfolgte vorher.

fdsonne schrieb:
Ansonsten, via "Telnet xxx.xxx.xxx.xxx Port" mal versucht den Port aus der VM aus zu öffnen?
Gehst du auf den Namen des Ziels (also NetBios Name oder FQDN) oder auf die IP?
FQDN/NetBios Name könnte ein Problem mit der Namensauflösung sein, gerade wenn man keinen "richtigen" DNS/Wins Server verwendet. DNS via Fritzbox/Speedport ist bestenfalls dürfting. Und NetBios ohne Serverunterstütztung heist, dass sich die Clients das untereinander selbst aushandeln. Was entweder arsch lahm ist oder manchmal gar nicht sauber funktioniert.
Ich gehe immer auf die IP. Probleme mit der Namensauflösung sollte daher kein Problem sein oder?
fdsonne schrieb:
PS: wenn du sagst, Firewall ist aus auf dem Client, Firewall auf dem Ziel? Und Firewall auf dem Client generell aus oder nur für ein Profil? (private/public/domain)?
Auch mal nach den Proxy Settings schauen...
Ggf. ists auch ein Problem mit der IE Website Security... Sprich mal gucken, ob du die IP nebst Port in die Intranet/internal Sites hinterlegen kannst... -> auch wenn das eher unsinnig erscheint, manchmal bewirkt es Wunder ;)
Firewall hab ich im Rahmen des Ausschlussverfahrens nur auf der Win7 Maschine deaktiviert. Da andere Clients ohne Änderungen am Server funktionierten hab ich dort noch nichts gemacht.
Ansonsten werd ich das heute mal testen.

Alternativ: Die funktionierende 2k8r2 VM klonen und dort Win 7 neuinstallieren? Obwohl ich Konfigfehler dort fast ausschliessen kann.
 
Zuletzt bearbeitet:
Da stimme ich fdsonne zu, VMware selber empfiehlt die Snapshots nicht länger als 48-72 Stunden bestehen zu lassen.

Lass dich nicht beirren, das läuft auch so wie du es hast... Und hat eben den Vorteil der Lastverteilung...

Hat niemand behauptet das es nicht laufen würde, er hat nur den Nachteil der fehlenden Ausfallsicherheit.
Die Verteilung der VMs auf die NICs übernimmt der ESXi selber.
 
Ich gehe immer auf die IP. Probleme mit der Namensauflösung sollte daher kein Problem sein oder?

Ja dann sollte das kein Problem sein.

Firewall hab ich im Rahmen des Ausschlussverfahrens nur auf der Win7 Maschine deaktiviert. Da andere Clients ohne Änderungen am Server funktionierten hab ich dort noch nichts gemacht.
Ansonsten werd ich das heute mal testen.

Es könnte noch eine Regel existieren, die den incomming Traffic einer bestimmten IP oder einer IP Range blockt, deswegen die Frage. Gerade wenn die Firewall halt aktiv ist.
Wichtig ist natürlich auch zu prüfen, ob du die Firewall im richtigen Profil ausgeschalten hast. Je nach Profilwahl bei Windows 7 (private/public/domain) halt...

Alternativ: Die funktionierende 2k8r2 VM klonen und dort Win 7 neuinstallieren? Obwohl ich Konfigfehler dort fast ausschliessen kann.

Macht aus meiner Sicht keinen Sinn... Bzw. wenn es dann gehen sollte, war es faktisch ein Konfig Fehler

Kannst du mal die MAC Adresse checken deiner Win7 VM? Das siehst du in den Konfig der VM. Nicht das sich diese gleicht, auch wenn das eigentlich nicht der Fall sein sollte...

Hast du mal ne E1000 NIC als Alternative probiert?
Eventlog von Quelle und Zielsystem mal geprüft?

Hat niemand behauptet das es nicht laufen würde, er hat nur den Nachteil der fehlenden Ausfallsicherheit.
Die Verteilung der VMs auf die NICs übernimmt der ESXi selber.

Neja, wenn der Switch ausfällt ist auch Ruhe ;)

Was die Lastverteilung des ESXi angeht, also diese ist bestenfalls dürftig... Denn er verteilt die Last nicht wirklich sauber. Und ist auch keineswegs dynamisch damit. Sprich hast du zwei VMs, die ungünstigerweise auf einem Adapter "gebunden" sind, dann sprechen diese halt über diesen Adapter. Und du kannst es so ohne weiteres nicht wirklich verhindern. Auch besteht das Problem, dass er die Portgruppe/den Kernalport bindet und nicht die VMs ansich. Viele VMs auf einer Portgruppe idR gleich Traffic auf einer NIC.
Was man nun machen kann, einen vSwitch verwenden mit zwei NICs und pro "Portgruppe virtueller Maschinen" die Reihenfolge explizit zuweisen. Einen Adapter als aktiv, den anderen als Standby. Das kombiniert beide Methoden, sprich Ausfallsicherheit und die Verteilung. Man muss dann die VMs auf beide Portgruppen verteilen - darf aber auch mehrere dieser Portgruppen in ein und das gleiche L2 Netz packen.
Oder man nutzt nen Switch der Etherchannel kann (respektive andere Verfahren, die der ESXi versteht) und konfiguriert das Ganze anhand der Quell MAC oder dem IP Hash. -> Wenn allerdings immer zur selben Source/Destination gesprochen wird, gibts halt auch keine Lastverteilung.
 
Zuletzt bearbeitet:
Die Versuche sind alle Fehlgeschlagen.
2 andere VMs mit Ubuntu und Win 2k12 Server konnten problemlos das gewünschte Szenario abbilden. Win7 32bit auch nach Neuinstallation nicht.
Ich frag mich nur warum.

btw: ich wollte win 8 64bit testen, aber das Setup findet keine Datenträger. Wollte irgendeinen Treiber.
Da ich ein Win8 64bit VM Profil ausgewählt habe dachte ich das passt schon. Jemand ne Idee warum das so ist?
 
Kann mir jemand vllt. weiterhelfen? Habe da so eine Idee rein aus Neugier/Interesse:

Erstmal zu den Gegebenheiten: Habe auf meinem ESXi XPEnology am laufen (Synology DSM 5.1). Habe in ESXi ein Netzwerk iSCSI angelegt (ohne physikalischen Adapter) wo VMs auf dem Server per iSCSI auf die Laufwerke der virtuellen NAS zugreifen können. IP Netze komplett verschieden zwischen dem iSCSI Netz (Was ja nur Intern zwischen der NAS & den VMs funktioniert, da nicht physikalisch ans LAN angebunden) und dem LAN. Alles funktioniert einwandfrei :)

Nun zu dem, was mich nur aus Neugierde mal Interessieren würde: Kann ich auf dieses iSCSI vom ESXi zugreifen? Sprich das ich ein iSCSI Laufwerk Mounten kann um da z. B. Testmaschinen am laufen zu haben.
Wenn ich auf der NAS Zugriff über die LAN Schnittstelle auf die iSCSI LUNs gebe, kann ich diese im ESXi Server Mounten über die Managementschnittstelle (Sprich der eine 1Gbit/s LAN Port des Servers). Performance ist ausreichend, aber nicht befriedigend, da 1 Gibt/s nunmal nicht so das wahre sind, vor allem, wenn Empfang/Senden über die gleiche Leitung geht bei mehreren Maschinen...
Würde gerne mal Testen, wie die Performance so ist, wenn ich Intern auf das iSCSI zugreifen könnte. Also auf den internen virtuellen Switch vom Netzwerk "iSCSI".
Weiß jemand ob dies Möglich ist und wenn ja, wie? :d

Wie gesagt, ich würde das gerne mal einfach aus Neugierde testen, falls es so geht. (Vllt. etwas unverständlich Erklärt? :fresse:) Habe auf meiner physikalischen NAS (QNAP) zwar iSCSI und auch ein eigenes VLAN für iSCSI, worauf meine Server zugreifen können und dort ist die Performance natürlich Top dank mehr Bandbreite. Meine Gedankenspiele sind ja eig. nur um mal bissl rumzuspielen, da Urlaub da ist und somit viel Zeit Sachen kaputtzumachen und wieder versuchen diese zu reparieren :d:d:d
 
Ähm ja, das läuft...
Dem ESXi ists wurscht... Der ESXi agiert immer mit dem jeweiligen KernelPorts, nicht mit den vSwitches. Diese sind, wie der Name schon sagt, eben nur (dumme) virtuelle Switches... Wichtig ist halt nur, dass du dir nen KernelPort anlegst, der intern dann an dem vSwitch ohne physischen Adapter klemmt. Diesem gibst du ne IP aus diesem virtuellen Netz und schon kannst du potentiell die iSCSI LUNs auch mounten am ESXi. Du müsstest damit, wenn ich das richtig sehe minimum 10GBit potentielle Bandbreite haben. Ob das allerdings auch durchgeht, ist dann abhängig vom Storage ;)
Ggf. ist NFS anstatt iSCSI aber von Vorteil. Musst dich dazu mal einlesen...

Was ggf. zu beachten ist, der ESXi hat ggf. in Sachen Authentifizierung für die LUNs ein paar Eigenarten. Sprich was das Chap-Verfahren angeht. Je nachdem, was du dort an "Security" definiert hast...
 
Zuletzt bearbeitet:
vielleicht ist meine Frage hier besser aufgehoben.
Wo mache ich am besten das Over-Provisioning für SSDs?
Bei der Partitionierung des Datastores oder im Falle eines Hardware-Raidkontrollers, schon beim Erstellen des Raids?
Gibt es da ein gut und schlecht?
 
btw: ich wollte win 8 64bit testen, aber das Setup findet keine Datenträger. Wollte irgendeinen Treiber.
Da ich ein Win8 64bit VM Profil ausgewählt habe dachte ich das passt schon. Jemand ne Idee warum das so ist?

Ich zitier mich mal selbst. Jemand eine Idee? 2012 kann ich nutzen. Aber Win8 nich.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh