[Sammelthread] ZFS Stammtisch

[ Aug 20 16:13:05 Disabled. ]
[ Aug 20 16:13:05 Rereading configuration. ]
[ Aug 20 16:18:26 Enabled. ]
[ Aug 20 16:18:26 Executing start method ("/opt/local/sbin/httpd -k start"). ]
[Wed Aug 20 16:18:26.972901 2014] [:crit] [pid 11555:tid 1] Apache is running a threaded MPM, but your PHP Module is not compiled to be threadsafe. You need to recompile PHP.
AH00013: Pre-configuration failed
[ Aug 20 16:18:26 Method "start" exited with status 1. ]
[ Aug 20 16:18:27 Executing start method ("/opt/local/sbin/httpd -k start"). ]
[Wed Aug 20 16:18:27.183500 2014] [:crit] [pid 11556:tid 1] Apache is running a threaded MPM, but your PHP Module is not compiled to be threadsafe. You need to recompile PHP.
AH00013: Pre-configuration failed
[ Aug 20 16:18:27 Method "start" exited with status 1. ]
[ Aug 20 16:18:27 Executing start method ("/opt/local/sbin/httpd -k start"). ]
[Wed Aug 20 16:18:27.391404 2014] [:crit] [pid 11557:tid 1] Apache is running a threaded MPM, but your PHP Module is not compiled to be threadsafe. You need to recompile PHP.
AH00013: Pre-configuration failed
[ Aug 20 16:18:27 Method "start" exited with status 1. ]
[ Aug 20 16:20:26 Leaving maintenance because disable requested. ]
[ Aug 20 16:20:26 Disabled. ]
[ Aug 20 16:20:30 Enabled. ]
[ Aug 20 16:20:30 Executing start method ("/opt/local/sbin/httpd -k start"). ]
[Wed Aug 20 16:20:30.236440 2014] [:crit] [pid 11651:tid 1] Apache is running a threaded MPM, but your PHP Module is not compiled to be threadsafe. You need to recompile PHP.
AH00013: Pre-configuration failed
[ Aug 20 16:20:30 Method "start" exited with status 1. ]
[ Aug 20 16:28:14 Enabled. ]
[ Aug 20 16:28:37 Executing start method ("/opt/local/sbin/httpd -k start"). ]
[Wed Aug 20 16:28:41.263817 2014] [:crit] [pid 424:tid 1] Apache is running a threaded MPM, but your PHP Module is not compiled to be threadsafe. You need to recompile PHP.
AH00013: Pre-configuration failed
[ Aug 20 16:28:41 Method "start" exited with status 1. ]
[ Aug 20 16:28:41 Executing start method ("/opt/local/sbin/httpd -k start"). ]
[Wed Aug 20 16:28:41.857405 2014] [:crit] [pid 456:tid 1] Apache is running a threaded MPM, but your PHP Module is not compiled to be threadsafe. You need to recompile PHP.
AH00013: Pre-configuration failed
[ Aug 20 16:28:43 Method "start" exited with status 1. ]
[ Aug 20 16:28:43 Executing start method ("/opt/local/sbin/httpd -k start"). ]
[Wed Aug 20 16:28:43.459508 2014] [:crit] [pid 484:tid 1] Apache is running a threaded MPM, but your PHP Module is not compiled to be threadsafe. You need to recompile PHP.
AH00013: Pre-configuration failed
[ Aug 20 16:28:43 Method "start" exited with status 1. ]
bekomme folgenden Fehler wenn nachdem ich das AMP Script laufen hab lassen und der Apache lässt sich net starten. Was ist zu tun?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
bekomme folgenden Fehler wenn nachdem ich das AMP Script laufen hab lassen und der Apache lässt sich net starten. Was ist zu tun?

Wie genau bist Du vorgegangen? ZB:

(1) OmniOS installiert
(2) Napp-it installiert
(3) AMP installiert?

Oder hast Du zwischen (2) und (3) noch "andere Dinge" getestet?

Wenn ich mich recht erinnere, hast Du bereits mit dem SmartOS-Repo 2014Q2 die Installation von Serviio versucht, dh es gibt mglw schon Packages aus dem aktuellen Repo 2014Q2 in Deiner Installation. Das Problem was Du jetzt hast, scheint mir dem in meinem Beitrag von Mitte Juni beschriebenen ähnlich zu sein.

Um sicher zu gehen, aktiviere das Boot Environment welches unmittelbar vor der Napp-it Installation erstellt wurde und führe nach erfolgtem Reboot (2) und (3) nochmals aus.

(3) setzt auf das Repo von 2013Q4 auf, auf dessen Basis alle von mir zur Verfügung gestellten freien AddOns funktionieren sollten.
 
Zuletzt bearbeitet:
thx werd es mal ausprobieren, wollte aber sowieso den Server mal neuaufsetzen aber dann ist auf jedenfamm die Reihenfolge geplant: OmniOS dann Nappit dann AMP
 
Ok, danke.
Ich habe schon erfahren, dass 8GB das supportete Minimum darstellen. Das ist auch kein Problem. Ich möchte gerne ein möglichst kompaktes System aufbauen, welches mir nur zum Backup dienen soll
(ca. alle 14Tage ein automatisches Backup und wieder aus) Um dabei vor kippenden Bits oder abgerauchten HDs sicher zu sein möchte ich gerne ZFS verwenden. Auch Deduplikation brauche ich nicht.
Für mich ist die Frage mit dem RAM vor allem wegen der Boardwahl relevant, denn umso mehr RAM man braucht, desto stärker eingeschränkt wird man ja.
Die 8HDs habe ich noch von meinem alten Raid-6 Controller als Maximalbestückung im Kopf, dann werden es für ein Z3 also nur 7Stück, das kommt mir auch in punkto Kosten entgegen und macht es nochmal leichter an eine ausreichend Anzahl an SATA-Ports zu kommen. Der Grund dass ich meinen guten, alten LSI 8708 ausmustere ist nur der dass dieser frecher Weise keine 4TB HDs unterstützt (als sei er aus den 90ern...)
 
Zuletzt bearbeitet:
Hallo!
Ich hab mir einen Server zusammengestellt, verwendet wird dabei Ubuntu 14.04. Momentan nutze ich mit ZFS vier 4TB HDDs im RAID10. Nun wollte ich noch zwei HDDs hinzufügen, weiß aber nicht so recht wohin mit den Daten die bereits auf den HDDs drauf sind. Also dachte ich mir, ich kopiere das was auf den bereits im Verbund enthaltenen Platten ist einfach auf die neuen HDDs, dann zerstöre ich den Pool und erstelle mit drei der Festplatten einen RAID0, schiebe die Dateien der neuen HDDs zurück auf den RAID0 Verbund und füge dem RAID0 Verbund dann noch einen Mirror hinzu. Ist das so möglich?
Ich konnte dazu nichts genaues finden, lediglich die Anweisungen beim erstellen eines neuen Pools. Aber kann man einem vorhanden RAID0 Pool noch einen Mirror im nachhinein hinzufügen?
 
ich habe zwar kein ZFS laufen aber das hatte ich schon mal getestet du kannst ein ZFS Mirror immer um weitere Mirrors erweitern so wie es in der Anleitung steht die Bzzz gepostet hat.
 
Ok, das hab ich wohl übersehen^^
Danke für die Info.

Was die "größer machen geht immer" Bemerkung angeht, es ist doch aber so, dass ich einem RAID0 Verbund auf dem bereits ein Pool existiert keine HDDs hinzufügen kann? Also ich meine das im Sinne der Geschwindigkeitssteigerung. Natürlich kann ich die logisch zusammenfassen, aber der striped doch trotzdem nicht auf allen oder? Kann man durch resilvering die Blöcke neu anordnen lassen, so dass er die bereits vorhandenen Dateien auf alle, also auch auf die neuen Platten, verteilt?
 
einem RAID0 Verbund auf dem bereits ein Pool existiert

Das klingt so nach drunterliegendem Hardwareraid, das dann als Black Box (=Einzellaufwerk) erst an ZFS weitergereicht wird. Ich hoffe nicht ;)

Nach dem Add einer oder mehrerer Platten vergrößert sich der Stripe, das ist aber erstmal nur Poolteil 1 (voll) + Poolteil 2 (leer, da neu). Zu dem Punkt ist die Geschwindigkeitssteigerung beim Lesen der alten Daten ziemlich gleich Null, da die noch genau da liegen wo sie vorher waren. Jeder Write geht aber auf alle vorhandenen Laufwerke, d.h. die sind schreibend und lesend schneller, sofern noch Platz ist. Wenn du deine bisherigen Daten ebenfalls beschleunigen willst, heißts manuell umkopieren, auf den gleichen Pool reicht ja schon (Copy-On-Write). Selbiges gilt, wenn das alte Stripe quasi voll war, denn dann können sich alle neuen Daten ja nicht gleichmäßig verteilen. Resilver (oder was du wohl meinst: Scrub) tut das nicht. Resilver ist bei nem reinen Stripe auch eher...zu vermeiden, da es keine Redundanzinformation gibt, die Resilver verwursten könnte :xmas:
 
Wenn ich das richtig verstanden habe möchtest du erst einmal ein Stripe-Pool aus 3 Festplatten erstellen und diesen dann nachträglich durch hinzufügen von 3 weitern Festplatten in 3xRAIDZ1 umwandeln?

Ja das ist möglich:

Stripe-Pool erstellen:
Code:
fh-mini:tmp fh$ mkfile 64m disk{1..6}
fh-mini:tmp fh$ sudo zpool create tank /tmp/disk1 /tmp/disk2 /tmp/disk3
fh-mini:tmp fh$ zpool status
  pool: tank
 state: ONLINE
  scan: none requested
config:

	NAME          STATE     READ WRITE CKSUM
	tank          ONLINE       0     0     0
	  /tmp/disk1  ONLINE       0     0     0
	  /tmp/disk2  ONLINE       0     0     0
	  /tmp/disk3  ONLINE       0     0     0


Und jetzt nachträglich die Mirror-Platten hinzufügen:
Code:
fh-mini:tmp fh$ sudo zpool attach tank /tmp/disk1 /tmp/disk4
fh-mini:tmp fh$ sudo zpool attach tank /tmp/disk2 /tmp/disk5 
fh-mini:tmp fh$ sudo zpool attach tank /tmp/disk3 /tmp/disk6

fh-mini:tmp fh$ zpool status
  pool: tank
 state: ONLINE
  scan: resilvered 29K in 0h0m with 0 errors on Thu Aug 21 17:52:10 2014
config:

	NAME            STATE     READ WRITE CKSUM
	tank            ONLINE       0     0     0
	  mirror-0      ONLINE       0     0     0
	    /tmp/disk1  ONLINE       0     0     0
	    /tmp/disk4  ONLINE       0     0     0
	  mirror-1      ONLINE       0     0     0
	    /tmp/disk2  ONLINE       0     0     0
	    /tmp/disk5  ONLINE       0     0     0
	  mirror-2      ONLINE       0     0     0
	    /tmp/disk3  ONLINE       0     0     0
	    /tmp/disk6  ONLINE       0     0     0
 
Das klingt so nach drunterliegendem Hardwareraid, das dann als Black Box (=Einzellaufwerk) erst an ZFS weitergereicht wird. Ich hoffe nicht ;)

Ne, das nich.

Du hast meine Frage schon hinreichend beantwortet. Ich weiß, dass sich Veränderungen des Pools nur auf neue Dateien auswirken, ich dachte nur, dass es eine Möglichkeit bzw. Funktion gäbe, dass ZFS die Dateien automatisch auf alle Datenträger verteilt, also auch die alten.
Ich müsste nun also nur die beiden HDDs den vorhanden Mirrors hinzufügen, nen Dataset erstellen, alles da rein kopieren und dann hätte ich ja im Prinzip die volle Peformance aller HDDs, auch bei Nutzung der alten(neuen, da neu kopiert) Dateien. Korrekt?
 
Machs doch nicht so kompliziert, häng die beiden Platten als Spiegel an deinen existierenden Pool und lass ZFS die Arbeit machen.
Ergo: zpool add poolname mirror platteneu1 platteneu2
Das balanciert sich auf Dauer dann schon aus, wenn du drauf bestehst kannst ja immer noch per zfs send/recv auf dem gleichen Pool umkopieren und danach die Quelle löschen.

cu
 
Wenn ich den Befehl so ausführe, dann würde er doch nur nen zusätzlichen Mirror erstellen oder?
Momentan sieht das ganze ja so aus:

mirror-0
HDD1
HDD2
mirror-1
HDD3
HDD4

Würde ich aber nen Mirror hinzufügen, dann würde er das ganze doch, wie auch in den Docs von Oracle beschrieben, nur nochmal spiegeln.

mirror-0
HDD1
HDD2
mirror-1
HDD3
HDD4
mirror-2
HDD5
HDD6
 
Das macht doch der Befehl ein Mirror deinem zpool zuweisen
 
ZFS verteilt die Daten über jedes VDEV (in deinem Fall die bisherigen zwei Mirror-VDEVs). Fügst du ein weiteres Mirror-VDEV hinzu verteilt ZFS die Daten über drei Mirror-VDEVs. Die Kapazität des Pools steigt um die Kapazität des neu hinzugefügten VDEVs.
 
Würde ich aber nen Mirror hinzufügen, dann würde er das ganze doch, wie auch in den Docs von Oracle beschrieben, nur nochmal spiegeln.

Ich glaube da liegt ein Missverständniss vor, was wo gespiegelt wird. mirror-0 - mirror-n sind einzelne VDEVs , der Mirror besteht innerhalb des VDEV - HDD1 wird auf HDD2 gespiegelt. "Gestriped" wird über die VDEVs eines Pools.
Wenn es nicht stört, dass der Pool erstmal nicht ausbalanciert ist, ist das die einfachste Methode.
 
Ich glaube da liegt ein Missverständniss vor, was wo gespiegelt wird. mirror-0 - mirror-n sind einzelne VDEVs , der Mirror besteht innerhalb des VDEV - HDD1 wird auf HDD2 gespiegelt. "Gestriped" wird über die VDEVs eines Pools.
Wenn es nicht stört, dass der Pool erstmal nicht ausbalanciert ist, ist das die einfachste Methode.

Alles klar, danke für die Aufklärung, jetzt hab ich's verstanden^^
 
Mal was anderes, als ich den Pool erstellt habe, habe ich als Bezeichnung die IDs der HDDs unter /dev/disk/by-id verwendet, mit dem Anhang "part1".
Meine HDDs waren zuvor mit EXT2 formatiert aber im Prinzip leer. Nutzt ZFS nun trotzdem die ganze HDD oder nur die Partition? Die HDDs werden ja zumindest in gparted als ZFS Member aufgeführt, also denk ich mal ZFS nutzt die komplett und nicht die EXT2 Partition darauf oder?
 
Mediatomb funktioniert bei mir nix, kann mit der Meldung aber nix anfangen. Woran liegts?

/var/svc/log/application-mediatomb:default.log

kann ich mir nicht ansehen, weil ich kein zugriff habe als root da drauf. Weiß auch nicht wieso

edit: Habe es mal mit einer sauberen Neuinstallation von OmniOS dann Napp-it dann Mediatomb probiert. Geht leider auch nicht.

hardware ist der Microserver von HP

Es liegt am aktuellen napp-it-Installationsscript (Version 0.9f1).

Dort finden sich folgende Zeilen (derzeit ZZ 548-553), die den Midnight-Commander (MC) installieren:
Code:
echo ""
echo "### omni 1.8 - install midnight commander (mc) via pkgin" $info
curl http://pkgsrc.joyent.com/packages/SmartOS/bootstrap/bootstrap-2014Q1-x86_64.tar.gz | gtar -zxpf - -C /
/opt/local/bin/pkgin -y install update
/opt/local/bin/pkgin -y install mc
ln -s /opt/local/bin/mc /bin/mc

Workaround:
(1) Oa Zeilen zur Installation des MC dem napp-it-Installationsscript entfernen
(2) Modifiziertes napp-it-Installationsscript aus (1) laufen lassen
(3) Mediatomb-Installationsscript laufen lassen
(4) Installation des MC bei Bedarf manuell durchführen

Jetzt sollte unter http://<serverip>:50500 das Webfrontend vom Mediatomb erscheinen.
 
Danke für den Workaround

MC gab es im IPS OmniOS Repo der Uni Maryland. Das war aber wochenlang offline,
daher die Installation über pkgsrc.

Ich habe gerade nachgeschaut. Maryland ist wieder online.

Ich werde den Installer morgen wieder darauf einstellen, so dass diese Problem
dann erledigt ist.



Update
Das OmniOS IPS Repo der Uni Maryland ist wieder online.
Ich habe den Installer so geändert, dass mc von da installiert wird.

Das Problem sollte damit behoben sein.
Warum sich Mediatomb aber damit beisst kann ich momentan nicht sagen.
 
Zuletzt bearbeitet:
Hey Leute!

Ich hab gerade einen riesen Schreck bekommen. Als ich heute mein ZFS NAS (Debian mit ZFS on Linux) wieder hochgefharen habe (hatte es 2 Tge aus), waren meine Pools weg. Heißt also:
zpool status
no pools available


Die Mountpoints der Datasets sind noch da, jedoch leer. Platten sind alle da, habe auch nichts umgebaut oder geändert. Außerdem werden mir die Platten wieder bei napp-it als "frische" Platten beim pool erstellen angezeigt.
zpool import gibt einen Fehlr aus:
zpool: ../../lib/libzfs/libzfs_import.c:356: Zusicherung »nvlist_lookup_uint64(zhp->zpool_config, ZPOOL_CONFIG_POOL_GUID, &theguid) == 0« nicht erfüllt.
Abgebrochen


Weiß einer von euch, was ich noch tun kann, um den Pool wiederzuholen (außer Neuinstllation OS + zpool import)?

Danke vorab!
 
Versuche grade java zu installieren mit "pkg install java@0.5.11,5.11-0.151008:20131204T201013Z"

Bekomme aber die Fehlermeldung: Could not operate on /var/pkg/lock because of insufficient permissions. Please try the command again as a privileged user."

Führe die Befehle aber als root aus.
 
Zuletzt bearbeitet:
MC und weitere Bugs

Danke für den Workaround

MC gab es im IPS OmniOS Repo der Uni Maryland. Das war aber wochenlang offline,
daher die Installation über pkgsrc.

Ich habe gerade nachgeschaut. Maryland ist wieder online.

Ich werde den Installer morgen wieder darauf einstellen, so dass diese Problem
dann erledigt ist.



Update
Das OmniOS IPS Repo der Uni Maryland ist wieder online.
Ich habe den Installer so geändert, dass mc von da installiert wird.

Das Problem sollte damit behoben sein.
Warum sich Mediatomb aber damit beisst kann ich momentan nicht sagen.

Hallo Gea,

Den Workaround für MC wollte ich Dir auch schon schreiben. Ich hatte ja das Problem das Umlaute auf der Konsole und im Terminal nicht richtig angezeit wurden (OmniOS). Der istallierte MC aus pkgsrc zeigte auch nichts Gescheites (Fehler im MC sebst und zB Verzeichnisnamen mit Umlauten) an unter Locale auf de_DE.UTF-8. Das Problem mit den Verzeichnisnamen auch unter Locale "C".
Ich hatte mich dann bei einer Neuinstallation letze Woche mal hingesetzt, den MC, nachdem ich gemerkt hatte das das alte Repo der Uni Maryland wieder verfügbar ist, mit Hand installiert und im Installer den MC auskommentiert. Voila, es funktionierte wieder !!! :)

Mir sind in der V0.9f1 noch ein paar Bugs aufgefallen. Gibt es eigentlich eine Mailadresse wie bugreport@nappit wo man sowas direkt melden kann. Über ein Forum ist etwas umständlich ? ;-).

Bug in ACL-Ext
Man kann die Rechte nicht auf ein Dir setzen das Leerzeichen enthält -> acl on folders -> zB dir "driver & fimware", da wird nichts angezeigt. Bzw wird nur "driver" angezeigt und natürlich dazu keine ACLs. Leerzeichen kann man gerade bei "normalen Benutzern" und einer smb Freigabe nicht ganz vermeiden. :)

Bug in rsyncd / rsyncd.pid
Ich bekomme rsyncd nicht ordentlich zum Laufen. Beim Neustart steht es auf "Maintainance" und läßst sich solange nicht starten bis in /var/run/ die rsyncd.pid gelöscht ist.
Fehlermeldung "restart to fast" oder so. Scheint an rsyncd.pid zu liegen die beim Neustart/Beenden nicht gelöscht wird.

Als Workaround habe ich in der rsyncd.conf die rsyncd.pid auskommentiert. Das läuft erstmal ist aber nicht "sauber".


viele Grüße
 
Hallo Hans43

Ich habe die 0.9f2 upgedated. Ein Ordnername "driver & fimware" ist jetzt möglich. Das Problem ist das "&" da es über das Webinterface umkodiert werden muss.

Das mit der rsyncd.pid schaue ich mir bei Gelegenheit auch noch an.
bugreport@napp-it.org gibt es übrigens..
 
Hallo Hans43

Ich habe die 0.9f2 upgedated. Ein Ordnername "driver & fimware" ist jetzt möglich. Das Problem ist das "&" da es über das Webinterface umkodiert werden muss.

Das mit der rsyncd.pid schaue ich mir bei Gelegenheit auch noch an.
bugreport@napp-it.org gibt es übrigens..

Hallo Gea,

das ging ja fix. Die Mailadresse muss ich auf der Webseite überlesen haben. Die nächsten Bugreports gibts dann dahin.

mfg
 
Hey Leute!

Ich hab gerade einen riesen Schreck bekommen. Als ich heute mein ZFS NAS (Debian mit ZFS on Linux) wieder hochgefharen habe (hatte es 2 Tge aus), waren meine Pools weg. Heißt also:
zpool status
no pools available


Die Mountpoints der Datasets sind noch da, jedoch leer. Platten sind alle da, habe auch nichts umgebaut oder geändert. Außerdem werden mir die Platten wieder bei napp-it als "frische" Platten beim pool erstellen angezeigt.
zpool import gibt einen Fehlr aus:
zpool: ../../lib/libzfs/libzfs_import.c:356: Zusicherung »nvlist_lookup_uint64(zhp->zpool_config, ZPOOL_CONFIG_POOL_GUID, &theguid) == 0« nicht erfüllt.
Abgebrochen


Weiß einer von euch, was ich noch tun kann, um den Pool wiederzuholen (außer Neuinstllation OS + zpool import)?

Danke vorab!

Habe das Problem selbst gelöst. Ein einfaches apt-get dist-upgrade hat genügt :d
 
Also bei mir geht Mediatomb immer noch net. Habe den pre nappit snapshot aktiviert, napp-it neu installiert und dann mediatomb. Es kommt immer noch der selbe Fehler
 
Also bei mir geht Mediatomb immer noch net. Habe den pre nappit snapshot aktiviert, napp-it neu installiert und dann mediatomb. Es kommt immer noch der selbe Fehler

was heisst "der selbe Fehler"?

Ich hab's vorgestern in einer VM installiert, mit den aktuellsten Scripten von napp-it

(1) OmniOS stable r151010
(2) napp-it
(3) mediatomb
(4) amp

Das läuft ohne zu murren. Versuch's ggf mal mit einem Clean Install.
 
"Toolkit not found: sun.awt.X11.XToolkit"

weiß einer woher man das bekommt?

Versuche mich ja immer noch an Serviio. ffmpeg habe ich installiert bekommt als package und bei Serviio mich an die Anleitung für Solaris gehalten.

Es startet auch und scannt Images und Audio Dateien, aber keine Videos und eien Verbindung ins Internet kann Serviio auch wohl nicht aufbauen.

Hängt vllt mit dem Fehler da oben zusammen. Aber man findet dazu nicht wirklich was bei google. Java ist doch schon bei OmniOS mit dabei und Serviio läuft ja auch unter Java. Sollte doch eigentlich relativ einfach ans laufen zu bekommen sein oder nicht?


P.S.: Gibt es irgendwelche Alternativen zu dem HBA IBM 1015. Ist ja mittlerweile recht bekannt und daher auch nicht immer ganz "günstig" weil viele Leute auf die Idee kommen den zu flashen. Aber Dell benutzt ja teilweise auch LSI Controller mit eigener Firmware.
 
Zuletzt bearbeitet:
P.S.: Gibt es irgendwelche Alternativen zu dem HBA IBM 1015. Ist ja mittlerweile recht bekannt und daher auch nicht immer ganz "günstig" weil viele Leute auf die Idee kommen den zu flashen. Aber Dell benutzt ja teilweise auch LSI Controller mit eigener Firmware.

Der IBM geht halt garantiert zum Flashen auf einen LSI 9211-IT Mode.
Neu gibts den für ca 120,--, bei Ebay hab ich grad einen für 69,-- gesehen.

Wozu da was anderes nehmen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh