[Kaufberatung] Konsolidierung NAS + TV + Universalserver auf ESXi

Okay ich hab das grad ebend probiert, da scheint es Handlungsbedarf zu geben.
Bei mir wird da Audio abgehackt, das Bild bleibt stabil.
Vielleicht gibt es ja da noch irgendwo was einzustellen.

Ich habe jetzt mal den Thread auf Kodinerds überflogen,
solche Probleme bei Sat1 und ProSieben kann ich nicht nachvollziehen.
Zumal das hier bedingt durch 3 Kinder auch ziemlich oft genutzt wird und sich
noch keiner Beschwerd hat.

Allerdings sollte man das mal weiterverfolgen.
Am Rande erwähnt nutze ich TVH 4.2
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Über die Probleme damit habe ich bei den Kodinerds schon mal was geschrieben.

Genau da hatte ich es auch gelesen.
Hast du inzwischen eine Alternative umgesetzt?
Den Ansatz den Empfänger extern zu haben, wenn man TVH virtualisieren will, fand ich eigentlich ganz charmant.
Mit der Duoflex und Cine S2 wird es ja vermutlich auch zu Problemen kommen.

Gibt es ähnliche Produkte wie den Megasat, die das Problem nicht haben?
Oder eher dann eine TBS Karte und ESXi Passthrough?
 
Es gibt die zwei Workarounds, die im Thread erwähnt sind. Entweder konfigurierst Du die Sender als IPTV-Kanäle, ohne Sat>IP zu nutzen, oder Du legst für den selben Satelliten mehrfach ein Netzwerk an. Diese verteilst Du auf die 8 Tuner. Die Kanäle weist Du dann so zu, dass Sender auf dem gleichen Transponder von unterschiedlichen Netzwerken stammen. Damit stellst Du sicher, dass TVH für Kanäle des gleichen Transponders verschiedene Tuner öffnet. Alternativ kannst Du auch den Digibit R1 kaufen. Hat zwar "nur" vier Tuner und braucht mehr Strom. Dafür funktioniert er aber ohne diese Probleme.

- - - Updated - - -

...
solche Probleme bei Sat1 und ProSieben kann ich nicht nachvollziehen.
..

Das sind SD-Sender. Da passiert das auch, allerdings musst Du dazu schon drei oder mehr Sender vom gleichen Transponder empfangen.
 
Zuletzt bearbeitet:
2-3 Netzwerke anlegen ist in TVH jetzt aber auch nicht der große Akt.
 
@all:
Habe inzwischen die Server Komponenten mal zusammen gesteckt und bin leider auf ein Problem gestoßen.

Einziges Problem ist nun, dass ich nicht mehr in das Configuration Tool des LSI 3008 komme. Wenn ich Ctrl-C an der richtigen Stelle drücke, dann erscheint die Meldung, dass die Konfiguration gestartet wird. Danach erscheint wieder der Supermicro Splashscreen und ein schwarzes Fenster mit statischem Cursor und das wars. (siehe Anhang)

Woran kann das liegen? Hat jemand einen Vorschlag was ich anpassen muss? Vielleicht ist es ja eine BIOS Einstellung, welche beim BIOS Update falsch eingestellt wurde.

Ursache war übrigens ein Defekt der zweiten Netzwerkkarte. HBA Config funktionierte wenn im BIOS NIC auf EFI statt Legacy stand. Zweite NIC blieb aber tot.
Also Board zurückgeschickt. Neues bestellt und prompt wird der Prozessor nicht erkannt, da BIOS zu alt: v1.0a
Habe aber inzwischen herausgefunden, dass IPMI trotzdem geht, aber natürlich nun eine Lizenz für BIOS Upgrade via IPMI notwendig ist. *grrrrrrr
Mal sehen ob der Supermicro Support die Lizenz kostenfrei rüberschiebt, ansonsten liegt sie wohl bei 22$ und sollte innerhalb von 24h da sein.
Hoffe das es vor Weihnachten noch was wird, sonst sitz ich tatsächlich unterm Baum und singe Lieder. :haha:
 
hehe. Mein Beileid - immer doof sowas.

Ich hab jetzt auch meinen ESXi-All-in-one erstmal fertig: bisher lief der mit einer Storage-VM (HBA passthrough mit ~28 drives), VPN-VM und Sophos-VM. Jetzt ist noch eine Win10-Multipurpose-VM dazugekommen (GPU+USB passthrough), an der direkt ein Monitor, USB-Soundkarte und USB-Keyboard hängen - und eben was man sonst noch so braucht (BD/DVD-drives oder so).

Dank langem DisplayPort-Kabel und USB-Verlängerung kann ich den Server damit auch noch als 2. PC nehmen und die Kiste ist gar nicht mal soooo laut.
 
Frohes Neues zusammen ;)

Wollte mal ein Update zu meinem Serverbau geben.
Nach dem Austausch des Mainboards ist er inzwischen up and running und zwar in folgender HW Konfiguration

Mainboard: SM X11SSL-CF
Prozessor: Xeon E3 1245 3.70 GHz
RAM: 2 x 8 GB ECC Kingston
Lüfter: Noctua NH-D9L (Prozessor) / 2 x Noctua NF-8A PWM (Gehäuse) / 2 x Akasa AK-FN076 Slimfan (Platten)
Netzteil: beQuiet Pure Power 630
SATA: 2 x WD Red 4TB (5400 rpm) / 2 x WD Red 3TB (5400 rpm)
SSD: Crucial M500 2.5" 240GB
Kabel: Adaptec mini SAS HD x4 (SFF-8643) auf 4x SATA (SFF-8448) Kabel
NVMe: Intel 600p 128GB NVMe in Intertech KT016
USB3.0: Integral USB Flash Drive 32GB
Gehäuse: X-Case X445-C8

SW-technisch sieht es derzeit wie folgt aus:

ESXi wird vom USB3 Flash Drive gestartet
NVMe enthält derzeit die VMs
OMV 4.x als Storage VM
On-Board SATA Controller mit den 4 WD Red SATA Harddisks an OMV weitergereicht
2 x 4TB als Spiegel für Daten
2 x 3TB als Stripe für Backup

Der On-Board LSI3008 HBA ist an eine napp-it VM geplant. VM ist schon installiert und betriebsbereit aber noch ohne Platten. ZFS ist absolutes Neuland für mich und daher will ich erstmal alles andere auf den ESXi migrieren. Hier hätte ich auch meine erste Frage: Ich habe ja wie oben geschrieben noch ein Crucial M500 240GB. Macht es Sinn eine zweite gleicher Bauart zu kaufen und dann damit einen ersten ZFS Pool mit napp-it zu erstellen und dort die VMs abzulegen (außer OMV und napp-it, die bleiben auf NVMe)? Oder solle ich mehr investieren und 2 x Samsung 850 PRO 256GB kaufen? Oder vielleicht ganz anders?

Hier mal meine Performancewerte des OMV NAS mit den 4 WD Red Platten (Test wurde auf dem 2 x 3TB Mirror gemacht):

OMV <= OMV (Read): 300 MB/s (OMV liest lokal vom Mirror)
OMV => OMV (Write): 290 MB/s (OMV schreibt lokal auf Mirror )
VM <= OMV (Read): 298 MB/s (VM liest per NFS von OMV-Mirror)
VM => OMV (Write): 234 MB/s (VM schreibt per NFS auf OMV-Mirror)
PC <= OMV (Read): 116 MB/s (PC liest per NFS von OMV-Mirror via 1GBit/s Netzwerk)
PC => OMV (Write): 109 MB/s (PC schreibt per NFS auf OMV-Mirror via 1GBit/s Netzwerk)

Bei der Kommunikation VM<=>OMV werden jeweils VMXNET3 Devices verwendet. Bei PC<=>OMV kommt durchgängig 1GBit/s Netzwerk zum Einsatz an einem gemeinsamen GBit-Switch (Netgear Web-Managed).

Messung erfolgte mit dd auf Linux (Ubuntu und Debian) per NFS (auf dem OMV System natürlich direkt auf der Platte):

Schreiben: dd if=/dev/zero of=tempfile bs=1M count=4096 conv=fdatasync,notrunc
Lesen: dd if=tempfile of=/dev/null bs=1M count=4096

Macht diese Messung Sinn? Und sind die Werte in einem akzeptablen Bereich? Ist mit ZFS in gleicher HW Konfiguration Performancegewinn zu erwarten oder eher "nur" Sicherheitsgewinn?

Noch eine Zusatzfrage: Wenn ich nochmal 300€ investieren würde, welche Variante würde aus Performance Gesichtspunkten mehr Sinn machen?

1.) 1 x Crucial M500 240GB + 16 GB ECC RAM
2.) 2 x Samsung 850 Pro 256 GB (für VMs auf ZFS) + keine RAM Erweiterung

Danke wie immer im Voraus für euer qualifiziertes Feedback ;)

Viele Grüße
André
 
Zuletzt bearbeitet:
Die Performance über 1Gbit geht nicht besser, die OMV<->OMV Geschwindigkeiten entsprechen auch den Leistungswerten zweier WD RED, also auch nichts zu verbessern. Einzig Schreibleistung VM an OMV ist 20% eingebrochen. Aber dafür noch 200-300€ in die Hand zu nehmen...? Vermutlich helfen Änderungen in Cache-Policies, aber mit OMV kenne ich mich nicht aus.
 
Ich hatte einige Jahre eine CineS2 unter ESXi laufen, durchgereicht an eine Win7-VM, später Debian mit TVH - lief problemlos. Allerdings war es nicht möglich, die Erweiterung der CineS2 auf 4 Tuner stabil unter ESXi zum Laufen zu bekommen.

Wollte nur noch mal eine kurze Rückmeldung zum Thema TVH geben.

Die Cine S2 V6.5 + Duoflex Erweiterung auf 4 DVBS2 Tuner läuft mit ESXi 6.5 bislang (2 Tage) problemlos.
Nur der Smargo Cardreader hat kurzzeitig Probleme gemacht. Der funktioniert nur wenn man den USB Controller mit Passthrough durchrreicht. Den Reader einzeln weiterzuleiten funktioniert leider nicht. Daher musste ich den Server um eine USB PCIe Karte erweitern. Damit funktionierte auf Anhieb.

Damit bin ich jetzt was PCIe Slots betrifft an voller Ausbaustufe angelangt (DigitalDevices CineS2, InterTech KT016, Inateck KT4005 USB 3.0).

Grundsätzlich bin ich jetzt super zufrieden mit meiner Konfiguration und konnte schon 3 meiner alten Server abschalten. Danke nochmal für das super Feedback.
 
Ich würde jetzt gerne meinen o.g. Server um 2 SSDs als VM DataStore via NappIt Storage VM erweitern und habe an folgende Alternativen gedacht:

Variante 1: 2 x Intel S3520 240GB

Variante 2: 2 x Intel 545s 512 GB

Für Variante 1 spricht: höhere Zuverlässigkeit im Hinblick auf MTBF 2Mio h, Power-Loss Protection, 945TB Lifetime writes
Für Variante 2 spricht: > doppelte Kapazität, höhere Performance Read/Write 550/500 MB/s, aber kein Powerloss Protection

Der einzige Grund warum ich mich nicht sofort für Variante 2 entscheide ist das Thema Powerloss Protection.
Wie wichtig ist dieses Feature beim o.g. Einsatzszenario, unter der Berücksichtigung, dass regelmäßige Backups der VMs gemacht werden, eine USV vorhanden ist, aber kein redundantes Netzteil?

Eure Sicht würde mich sehr interessieren ....

Danke im Voraus!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh