[Sammelthread] ZFS Stammtisch

Nicht so richtig ein ZFS-Thema aber Solarish: ich bekomm mit Solaris 11.4 einen Haufen folgender Fehlermeldungen:
(....) smbsrv: [ID 709102 kern.notice] NOTICE: [STORAGE\nobody]: (IP) privat access denied: guest disabled
Feb 27 00:54:21 HOSTNAME last message repeated 7 times

Ich vermute, dass da irgendwelche Windows-Clients standardmäßig irgendwie versuchen, drauf zuzugreifen. Kann ich irgendwie die Fehlermeldung unterdrücken, damit der mir damit nicht die logs/screen usw. zuspammt?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Guestaccess zuzulassen dürfte nicht helfen, weil ich ein paar Shares habe, die eben nicht für alle sichtbar/zugänglich sein sollen. Ich habe den Verdacht, dass Windows irgendwie die vorhandenen Shares im Netz abklappert, weiß der Kuckuck wofür.
 
Guestaccess zuzulassen dürfte nicht helfen, weil ich ein paar Shares habe, die eben nicht für alle sichtbar/zugänglich sein sollen. Ich habe den Verdacht, dass Windows irgendwie die vorhandenen Shares im Netz abklappert, weiß der Kuckuck wofür.
Spontant würden mir Alive-Pings einfallen als Grund!
 
Spontant würden mir Alive-Pings einfallen als Grund!

Ein Ping kann kein Access Denied auslösen, also ein SMB Zugriff auf ein nicht vorhandenes Share oder Zugriff ohne oder mit falschem Passwort.
Das ist auch der Grund warum dieses Ereignis (Einbruchsversuch) nicht nur in /var/adm/messages protokolliert sondern zusätzlich auf der Console ausgegeben wird.

Eventuell könnte man neben User Auditing auch die Firewall bemühen um die ip des Verursachers zu ermitteln.

@asche77
Bei OmniOS gibts sowas auch z.B. beim Zugriff mit dem kernelbasierten SMB Server auf eine Datei deren
Windows ACL/Owner SID nicht mehr gültig ist z.B. weil der zugehörige User gelöscht wurde, siehe

 
Zuletzt bearbeitet:
Bei OmniOS gibts sowas auch z.B. beim Zugriff mit dem kernelbasierten SMB Server auf eine Datei deren Windows ACL/Owner SID nicht mehr gültig ist z.B. weil der zugehörige User gelöscht wurde.
Ich meine was anderes (vermutlich):
Code:
2023-02-28T09:14:26.000000+01:00 omniosce smbsrv: [ID 138215 kern.notice] NOTICE: smbd[NT Authority\Anonymous]: [edit: name_of_dataset] access denied: IPC only

Tritt bei den meisten (allen?) SMB-datasets auf.
 
Ich meine was anderes (vermutlich):
Code:
2023-02-28T09:14:26.000000+01:00 omniosce smbsrv: [ID 138215 kern.notice] NOTICE: smbd[NT Authority\Anonymous]: [edit: name_of_dataset] access denied: IPC only

Tritt bei den meisten (allen?) SMB-datasets auf.

Ähnliches Problem, das ist ein versuchter Gastzugriff (anonymous) z.B. auf sharename$ der nur für authorisierte User z.B. die aus der SMB Gruppe Administratoren erlaubt ist
 
@asche77 jupp, das sieht sehr ähnlich aus. @gea Die IPs kann ich sehen - habe sie oben nur entfernt. Ich schau' heute Abend nochmal weiter.

Es gibt in den Netzwerksettings bei Windows ja auch so Features wie Topologie-Erkennung und was weiss ich noch an Diensten - vielleicht ist's ja einer davon?
 
Ich meine was anderes (vermutlich):
Code:
2023-02-28T09:14:26.000000+01:00 omniosce smbsrv: [ID 138215 kern.notice] NOTICE: smbd[NT Authority\Anonymous]: [edit: name_of_dataset] access denied: IPC only

Tritt bei den meisten (allen?) SMB-datasets auf.

Sind die SMB Shares irgendwo persistent gemounted (save password, reconnect at startup) oder gibt es irgendetwas das regelmäßig die SMB Shares abklappert? Derartige Meldungen bedeuten immer einen "Angriffsversuch" auf den Server oder eine Fehlkonfiguration oder einen User Fehler (falsches Passwort) oder Zugriff auf etwas dessen Windows SID nicht mehr bekannt ist (Owner user/group gelöscht) ohne dass eine neue Zuordnung stattgefunden hätte. Unter Windows erscheint dann bei Datei > Eigenschaft > Sicherheit nur die Windows SID z.B. S-1-5-21-722635049-2797886035-3977363046-2147484648 statt z.B. domain\paul oder server\paula
 
Ich hatte gerade wieder eine Diskussion über User Mapping bei einem Unix Server
und habe mal das Thema kurz zusammengefasst.

Benutzerkennungen und Linux/Unix-User Mapping

Was bedeutet User Mapping oder warum ist dies für
jede Verwendung von Linux/Unix-SMB-Filern so wichtig?


Das Problem:

MicrosoftWindows, wo SMB herkommt, verwendet Windows-Sicherheitskennungen (SID z.B. S-1-5-21-722635049-2797886035-3977363046-1234), um Benutzer oder Gruppen zu identifizieren oder Freigaben, Dateien und Ordnern ACL-Berechtigungen zuzuweisen. Da der zugehörige Server Teil der SID ist, hat ein Domänenbenutzer eine weltweit eindeutige SID.

Linux oder Unix verwenden eine einfache Zahl wie 1021 für einen Benutzer (uid) oder eine Gruppe (gid). Dies bedeutet, dass eine Unix Benutzer-ID nicht eindeutig sein kann. Einige wie root mit der Benutzer-ID 0 sind sogar auf jedem Unix-Server auf der Erde gleich.


user.png
Nutzer und Gruppen mit Unix uid/gid und Windows SID


Jeder SMB-Client benötigt die Windows-SID unbedingt als Referenz. Die Unix-uid/gid wird ansonst für Linux/Unix-Dateifreigabemechanismen wie NFS verwendet. Da ZFS jedoch ein Unix-Dateisystem ist, benötigt jede Datei die Unix-uid/gid-Referenz. Das heißt, wenn ein Windows-Benutzer mit der SID S-1-5-21-722635049-2797886035-3977363046-1234 eine Datei schreibt, ist die Unix-Eigentümer-uid der Datei auf der Festplatte eine einfache Zahl wie 1021. Wenn man eine Beziehung zwischen beiden benötigt, braucht man ein ID-Mapping, was eine Zuordnung zwischen den beiden Nummern bedeutet.

Dies ist kein Problem in einer Einzelserver-/lokalen Benutzerumgebung, in der die SID z.B. S-1-5-21-722635049-2797886035-3977363046-1021 aus einet Unix-Benutzer uid z.B. uid 1021 generiert wird. Eine weitere Alternative ist es diese Zuordnung aufgrund des Benutzernamen zuzuordnen, z.B. Winuser: paul = Unixuser: paul oder Winuser:* = Unixuser:*, wo man aber einen lokalen Unix-Benutzer für jeden Windows-Benutzer mit demselben Namen haben sollte. Mit beiden Optionen kann man Unix-Berechtigungen und Windows-Berechtigungen transparent zuordnen.


SMB-Gruppen

Ein Problem tritt auf, wenn man die Funktionalität von Windows-Gruppen verwenden möchte, bei denen einer Gruppe z. B. "Administratoren" oder "Backup-Operatoren" eine Rolle zugewiesen werden kann, oder wenn man Gruppen benötigt, die Gruppen enthalten können. Unix-Gruppen bieten eine solche Funktionalität nicht. Nur Solaris und seine Forks bieten dies, da sie zusätzlich zu Unix Gruppen eine SMB-Gruppenverwaltung eingebaut haben.


Backup wiederherstellen

Wenn man Dateien sichern und auf einem anderen Server wiederherstellen möchte, hat man das Problem, dass die Berechtigungen nicht erhalten bleiben oder konsistent sind, da beispielsweise ein Benutzer mit der uid 1021 auf dem ersten Server paul und auf dem anderen hanns oder unknown ist. Man benötigt spezielle Einstellungen, Mechanismen oder Zuordnungstabellen, um das Problem zu lösen oder einen zentralisierten Mechanismus wie Active Directory mit Unix-Erweiterungen, um allen Benutzern in der der AD Domäne eine konsistente uid/gid zuzuweisen. Nicht so einfach und simpel wie in einer reinen Windows Server-Umgebung, aber normalerweise die einzige Option, z. B. mit einem Unix-SMB-Server wie SAMBA.

Die Sun-Entwickler waren sich dieses Problems bewusst. Als sie den Kernel-basierten Solaris-SMB-Server in das Betriebssystem und ZFS einbauten benutzten sie nicht die Unix-uid/gid als Sicherheitsreferenz, sondern direkt die Windows-SID als erweitertes ZFS-Dateiattribut. Das bedeutet, wenn man einen Solaris-AD Dateiserver sichert und die Dateien auf einem anderen AD-Server wiederherstellt, bleiben alle ACL ohne weitere Maßnahme intakt.


Wie kann Windows SID als SMB-Dateireferenz in einer Windows Active Directory funktionieren,
da ZFS ein Unix-Dateisystem ist, in dem jede Datei eine Unix-uid/gid benötigt?

Sun löste das Problem mit ephemeral Mappings. Dies ist eine temporäre uid, die nur während einer aktiven SMB-Sitzung gültig ist, um die Unix-Anforderungen zu erfüllen. Für den kernelbasierten SMB Server ist die uid nicht relevant und wird nicht verwendet.
Alles perfekt und die ultimative Lösung auf Solaris/Illumos für SMB. Wenn man aber eine strikte Beziehung zwischen SMB-Benutzern und Unix-Benutzern benötigt, z. B. für spezielle Anwendungen oder Multiprotokoll-Sharing, benötigt man aber auch unter Solaris/Illumos User Mapping, entweder mit einer Mapping-Tabelle oder einer zentralisierten uid/gid für jeden Benutzer vom AD-Server.


Besonderheit von dem kernelbasiertem Solaris SMB Server zusammengefasst
Native Verarbeitung von Windows SID, Windows ntfs artige ACL, Windows-kompatible SMB-Gruppen und ZFS-Snaps ohne Konfiguration = Windows-Vorversionen sind die Alleinstellungsmerkmale für den Solaris- und Illumos-SMB-Server gegenüber der Alternative SAMBA die auch unter Solaris verfügbar ist. Da die NFS- und SMB-Freigabe eine strikte ZFS-Eigenschaft eines Dateisystems ist, ist das Akivieren eines NFS/SMB Shares ein einfaches Ein-/Ausschalten mit zfs set share =on/off (keine samba.cfg)
 
Zuletzt bearbeitet:
Ich hab unter unRAID ein ZFS mit raidz1 aus 4x12TB WD Red am laufen. Vor nem ein paar Tagen kam dann die Meldung das eine Platte Probleme macht. Gestern bin ich dann dazu gekommt diese auszutauschen und dabei ist mir die "Logik" bzw. die Vorraussetzung von ZFS nicht ganz klar...
Per "zpool offline" die entsprechende Platte entfernt und nach etwas schrauben am Server die Platte auch physisch getauscht. Eingebunden dann per "zpool replace". Läuft und ist am "resilvern".
Alle Anleitungen gehen davon aus das die Platte physisch getauscht wird und dann von dem Server die gleiche Adresse (z.B. sde) zugewiesen bekommt. Ist das zwingend Vorraussetzung für ZFS oder kann ich z.B. auch bei 5 vorhandenen Platten im Server in einem 4er Verbund einfach eine entnehmen per CMD und dann die ungenutzte einbinden?
 
@v3nom Das geht GRUNDSÄTZLICH (wie UnRAID das handhabt, keine Ahnung! :d). Ich hab z.B. unter Solaris schon erst die neue Platte hinzu gesteckt, dann eine vorhandene durch die neue ersetzt (resilver) und erst im nachhinein die alte Platte gezogen. Im Übrigen sieht ja ZFS auch ausdrücklich die Option vor, dem Pool ein "Hot Spare" zuzuordnen, worauf dann eben auch bei Bedarf resilvered werden kann. Siehe z.B.:


Oder mit etwas mehr drumrum:

 
Grundsätzlich sollte man zwei Dinge beachten
1. Nach Möglichkeit (wenn Platte noch ok) keine Platte offline setzen/ entfernen da
dadurch die Redundanz/Raid Sicherheit verloren geht, sondern

- neue Platte hinzufügen, dann mit zpool replace Platte ersetzen und erst nach Erfolg alte Platte entfernen.
Platte offline setzen brauchts bei aktueller hotplug Hardware nicht.

2. Platten IDs werden entweder anhand des physikalischen Controller Kabel-Anschlusses (c0t0d0, sda etc) erkannt oder
unabhängig davon z.B. anhand der WWN (Kennung die der Hersteller vergibt wie die Mac Adresse einer Netzwerkkarte)

In erstem Fall kann sich die Platten ID plötzlich ändern auch beim Wechsel zu einem anderen Server oder HBA passiert das.
Eine Platten WWN wie t5000CCA2731389F9d0 bleibt gleich auch wenn man Server oder HBA wechselt.
Bei mehreren Servern, HBAs und Platten unverzichtbar.

Mit c0t0d0 (1. Platte, erster Controller) oder sda kann ein zpool replace c0t0d0/sda eine Platte am gleichen Kabel ersetzen.
Bei WWN oder zwei Platten und verschiedener ID brauchts immer zpool replace disk1_alt disk2_neu

Und ganz wichtig:
ZFS Z1 ist Echtzeit-Raid. Fällt eine Platte aus, bleibt das Z1 funktionsfähig. Gibt es dann einen Lesefehler, ist die betroffene Datei defekt nicht aber das ganze Array wie bei Raid-5. Fällt eine weitere Platte aus ist der ZFS Pool mit allen Daten verloren.
 
Zuletzt bearbeitet:
Ich versuche gerade eine NVMe-SSD in einem PCIe-Adapter (x4 Adapter in x1 Slot) an die napp-it VM durchzureichen. Passthrough wird angeboten und das PCIe-Gerät ist der VM zugeordnet. Nur finde ich im napp-it nichts. Auch nicht beim Initialisieren.
Hat irgendwer eine Idee woran das liegen könnte?
 

Anhänge

  • VM.jpg
    VM.jpg
    46,7 KB · Aufrufe: 63
  • VM2.jpg
    VM2.jpg
    22,1 KB · Aufrufe: 67
Funktioniert die NVMe denn ohne passthrough in ESXi als lokaler Datastore?
Ist der Memory Controller wirklich die NVMe?
 
Als datastore läuft sie. Auch wenn ich sie als PCI-Gerät an eine Windows-VM durchreiche wird sie als Laufwerk erkannt.
Es ist eine Micron und was anderes passendes gibt es in der Liste nicht.
 
Wird sie denn bei einem format Befehl auf der Console angezeigt (nach der Auflistung ctrl-c drücken).

Bei manchen NVMe gabs unter BSD und Solaris auch das Problem dass man diese in die passthrough.map eintragen musste,
z.B. Intel Optane 900
- ssh to ESXi
- edit /etc/vmware/passthru.map
- add following lines at the end of the file:
# Intel Optane 900P
8086 2700 d3d0 false
- restart hypervisor

Die Adresse erhält man unter Host verwalten (da wo man auch passthrough aktiviert) wenn man auf die NVMe klickt.
Alternativ, je nachdem was man machen will: Eine vdisk unter ESXi anlegen und an die Storage VM geben.
Da ESXi keinen Schreibcache nutzt, ist das sicher, sehr flexibel und nur minimal langsamer als direktes pass-through.
 
format zeigt sie nicht an.
Das Anpassen der passthru.map hat auch nichts gebracht.
Bei meinem SATA-Controller musste ich das damals auch machen, allerdings wurde der vorher nicht als passthru-fähig angezeigt. Die NVMe lies sich ja schon vorher auf passthru stellen.

Letztlich möchte ich einen z1 pool aus 3 der Micron-SSD's erstellen. Hat es denn sonst noch irgendwelche Nachteile die Pools auf virtuellen Platten anzulegen? Ich habe es dunkel in Erinnerung, dass das nicht gut ist.

Die Performance ist nicht das Thema. Der x1-Slot bremst eine der SSD's sowieso aus. Ich habe das gestern schon mit der Windows-VM gemessen: passthru und datastore: beides bei ca. 870 MB/s.
Beitrag automatisch zusammengeführt:


Habe noch was gefunden:

1344 ist die Anbieter-ID der Mircon

root@nas:~# fmadm faulty
--------------- ------------------------------------ -------------- ---------
TIME EVENT-ID MSG-ID SEVERITY
--------------- ------------------------------------ -------------- ---------
März 15 14:28:06 d0c95cea-c897-c083-b663-99f29289a025 PCIEX-8000-0A Critical

Host : nas
Platform : VMware-Virtual-Platform Chassis_id : VMware-56-4d-bc-89-4e-a2-36-a0-ff-77-31-73-ac-6c-35-fe
Product_sn :

Fault class : fault.io.pciex.device-interr
Affects : dev:////pci@0,0/pci15ad,7a0@15,1/pci1344,2b00@0
faulted and taken out of service
 
Zuletzt bearbeitet:
Erscheint die SSD denn, wenn Du sie mal einer VM mit anderem OS zuordnest? Wenn ja, weißt Du wenigstens etwas mehr.
 
Bei vdisks gehen die Daten vdisk > ESXi Treiber > NVMe. Die zwei Probleme des "Umwegs" sind eventuell etwas geringere Performance und dass die VM keinen direkten Zugriff auf die Platte hat um z.B. Smartwerte auszulesen Wäre der ESXi Treiber ein Raid Controller mit Cache, so würde ich das für ZFS kritischer sehen. In dem Fall hier würde ich mit vdisk arbeiten.

NVMe Passthrough ist bei ESXi eh was kritisches. Ich hatte auch schon den Fall dass es tat bis zu einem ESXi Update und dann Anpassung der passhrough.map brauchte. Mainstream Windows und Linux sind hier oft unkritischer als Unix (BSD, Solaris) da VMware das da mehr testet.
 
Erscheint die SSD denn, wenn Du sie mal einer VM mit anderem OS zuordnest? Wenn ja, weißt Du wenigstens etwas mehr.
Ja. In der Windows-VM läufts.
Beitrag automatisch zusammengeführt:

Bei vdisks gehen die Daten vdisk > ESXi Treiber > NVMe. Die zwei Probleme des "Umwegs" sind eventuell etwas geringere Performance und dass die VM keinen direkten Zugriff auf die Platte hat um z.B. Smartwerte auszulesen Wäre der ESXi Treiber ein Raid Controller mit Cache, so würde ich das für ZFS kritischer sehen. In dem Fall hier würde ich mit vdisk arbeiten.

NVMe Passthrough ist bei ESXi eh was kritisches. Ich hatte auch schon den Fall dass es tat bis zu einem ESXi Update und dann Anpassung der passhrough.map brauchte. Mainstream Windows und Linux sind hier oft unkritischer als Unix (BSD, Solaris) da VMware das da mehr testet.
Ok, danke! Ich werd's erstmal so machen.
 
Zuletzt bearbeitet:
1344 ist die Anbieter-ID der Mircon

root@nas:~# fmadm faulty
--------------- ------------------------------------ -------------- ---------
TIME EVENT-ID MSG-ID SEVERITY
--------------- ------------------------------------ -------------- ---------
März 15 14:28:06 d0c95cea-c897-c083-b663-99f29289a025 PCIEX-8000-0A Critical

Host : nas
Platform : VMware-Virtual-Platform Chassis_id : VMware-56-4d-bc-89-4e-a2-36-a0-ff-77-31-73-ac-6c-35-fe
Product_sn :

Fault class : fault.io.pciex.device-interr
Affects : dev:////pci@0,0/pci15ad,7a0@15,1/pci1344,2b00@0
faulted and taken out of service

Der Solaris Fehlermanager fmd hat ein krititsches Verhalten der NVMe festgestellt und diese deaktiviert
um mögliche Schäden an Daten zu vermeiden. Ist damit klar dass sie nicht angezeigt wird.

Man kann jetzt die NVMe wieder aktivieren (Menü System > Fault > Repair), z.B.
fmadm repaired dev:////pci@0,0/pci15ad,7a0@15,1/pci1344,2b00@0


ps:
Auf der Console werden beim Booten "retired devices" angezeigt.
 
Zuletzt bearbeitet:
fmadm recorded repair
ansonsten aber keine Änderung zu sehen. format findet nichts.
Nach Neustart: not retired, aber dann kommt doch wieder die Meldung PCIEX-8000-0A Critical und sie wird wieder außer Betrieb genommen
 
fmadm recorded repair
ansonsten aber keine Änderung zu sehen. format findet nichts.
Nach Neustart: not retired, aber dann kommt doch wieder die Meldung PCIEX-8000-0A Critical und sie wird wieder außer Betrieb genommen
dann gehts nicht mit pass-through sondern nur als vdisk
 
@dstockm: Ist das zufällig eine Intel NVME? Mit denen hatte ich auch schon lustigen Ärger. Oder hast Du die Möglichkeit, einfach mal eine andere NVME im gleichen Slot bzw. die gleiche NVME in einem anderen Slot zu testen?
 
@dstockm: Ist das zufällig eine Intel NVME? Mit denen hatte ich auch schon lustigen Ärger. Oder hast Du die Möglichkeit, einfach mal eine andere NVME im gleichen Slot bzw. die gleiche NVME in einem anderen Slot zu testen?
Ist eine Micron 7400 pro. Ich probiere noch einen anderen Slot, aber letztlich muss sie in diesem laufen, weil ich keinen anderen mehr übrig habe...
Sieht mir insgesamt nach einem Problem im Zusammenspiel ESXi und omniOS aus.
Ich könnte natürlich EXSi auch auf 8.0 upgraden. Da das aber mein produktives System ist, hält sich meine Experimentierfreude in Grenzen. Wahrscheinlich geht bei 8.0 dann das passthru das SATA-Controllers nicht oder irgendwas anderes klemmt wieder...
Beitrag automatisch zusammengeführt:

Ok, anderer Slot x16 hat dazu geführt, dass sie weder in der OmniOS noch in der Windows-VM läuft. Selbst als datastore will sie nicht. Was mich zu meinem nächsten Problem bringt - schließlich wollte ich 3 einbauen.
So langsam glaube ich, dass der PCIe-Adapter auch nicht ganz unschuldig ist. Leider gibt es nicht so viele für M.2 22110.
Ich glaube ich beerdige die Aktion ganz....
 
Zuletzt bearbeitet:
Ärgerlich. Kann leider an Vielem liegen, auch an der Plattform (Mainboard/Chipsatz/CPU). Bei mir liefen - je nach ESXi Version - manche Sachen mit einem Intel 3647-Sockel Board (1. Generation) und auch auf AMD-X399 (Threadripper), die dann auf AMD-TRX40 nicht funzten und mit Epyc dann doch wieder. Wohlgemerkt selbst wenn passthrough an und für sich aktiviert war (über die Konstellationen, wo ESXi das nicht aktiviert bekommt und immer wieder einen Reboot verlangt, reden wir ja gerade gar nicht). Bei nicht offiziell unterstützter Hardware bzw. Konfiguration ist's dann leider doch oft trial&error.

In Deinem Fall vermute ich übrigens, dass es im Hinblick auf OmniOS tatsächlich an der SSD liegt - ich vermute, OmniOS findet für die nicht den passenden Treiber (nimmt vielmehr einen, der zu Problemen führt). Ich meine, ich hatte sowas auch, alleridngs mit dem "echten" Solaris und Samsungs 980 Pro (vielleicht auch ADATA und/oder Samsung P91A?). Jedenfalls ließen sich die NVMEs nicht zur Zusammenarbeit mit Solaris überreden.
 
Ich habe nun noch einiges getestet. Zumindest in einem PCIe-Adapter läuft sie nicht stabil. Ich habe testweise mal ESXi 8 drauf installiert. Lief erst wunderbar. Nach einer gewissen Zeit wurde der datastore dann auf read-only gestellt. Manchmal meckert bereits der SMART-Check vom BIOS.
Alternativ eine Samsung PM9A3 probiert. Identische Probleme!

Letzter Versuch: Ein "Verlängerungs-Adapter" um sie direkt an dem M.2-Steckplatz des Boards zu betreiben. Keine Ahnung ob es einen Unterschied gitb oder die PCIe Adapter nur zu billig waren. Wenn sie dann nicht läuft werde ich wohl in Richtung Consumer-SSD schauen. Vielleicht sind die unproblematischer.
 
Eine Frage zu den Record Sizes ...

Ich habe hier grad frisch einen großen Storage aufgezogen (18x20TB als RAID-Z2) und der wird nur FLACs und MKVs haben. Jetzt habe ich gelesen, dass man bei sowas auf 1M gehen kann ohne Verschnitt oder andere Ärgernisse.
Stimmt das?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh