[Sammelthread] Dell PowerEdge T20

solange das Ram ne ordentliche Jedec spec onboard hat läuft es (und jemand testete sogar 1866 ECC- macht aber keinen Sinn da die CL mies sind)

Ich habe 1866er am Laufen, dass mit den aufgedruckten CL-Werten stimmt, ist aber auf die Geschwindigkeit des RAMs bezogen.

Es gab irgendwo eine Umrechnungstabelle, war in etwa so: 1866-CL13, 1600-CL11, 1300-CL9.

Hatte alle drei Varianten laufen und Memtest zeigte bei schnelleren Chips (höherer Takt und auch höherer CL) auch höhere Werte. War aber alles im niedrigen Prozent-Bereich.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
1866-CL13, 1600-CL11, 1333-CL9

1866er sind etwas fixer bei Single OPs
1333er sind auch bei Low tasks (und Zugriffen von mehreren Vms) gleichbleibend

im Durchschnitt kein unterschied

eigentlich egal

erst mit ECC DDR4 2133 wird es in dem bereich fixer (durch Quad channel)
 
Zuletzt bearbeitet:
Möchte mich mal hier öffentlich an @icewaere bedanken für seinen Tipp mit Proxmox und Spice.

Ich habe alles über das Wochenende ausgiebig getestet und bin von der Spice VNC-Performance schwer begeistert.

Na wunderbar Klaus das freut mich zu hören das sich das testen gelohnt hat ;)

Spice ist schon eine feine Sache gerade für Windows VM´s wenn dann auch noch in Zukunft
Direct Draw, Video acceleration, 3D acceleration usw dazu kommt macht es sicherlich noch mehr Spass ;)

Das Spice und der Server noch mehr Spass machen, empfehle ich auch jedem vielleicht über Network Teaming = (Bonding,Trunk, LCAP)
nachzudenken um die Netzwerkperformance noch etwas zu Pushen. Ein Switch welcher diese Features bietet ist natürlich Vorrausetzung und ist für ca 100€
von HP wie zb. der 1920-8G zu bekommen.

Ja wie ich sagte, das ZFS richtig Spass macht braucht es einfach eine Menge Ram.
Aber wenn es genügend Ram hat ist es richtig schön Performant.

lg ice
 
Beim Netzwerk Teaming ist aber ein 8er Switch schnell verbraucht. Wenn 2 Netzwerkkarten vom Server angeschlossen werden, bleiben nur noch 6 übrig. Leitet man 2 weiter an einen weiteren Switch nur noch 4.

Ich komme aber mit GBit auf den Cleints gut zurecht, da alles in Proxmox-VMs/CTs läuft.

Ich habe auch mit Spice etwas weitergetestet. Die Performance bei FullHD/4K hängt eindeutig von beiden Endgeräten ab, meine T20s mit heruntergerüstetem G1820-Prozessor packen es flüssig.
Wenn ich aber Proxmox auf einen MicroServer lege, kommt es beim Dell nicht mehr an und ruckelt.
Andersherum, Proxmox auf dem Dell und als Endgerät ein altes Atom-Netbook: ruckelt auch.
Aber wir reden ja auch von FullHD - für Filme kann man auch einen Plex-Server nehmen. Bei Youtube reicht auch weniger im Fenster - da muss es nicht immer Vollbild sein.

Bei ZFS/Proxmox sind mir kleinigkeiten aufgefallen. Wenn ich mit zfs destroy einen Pool lösche, dauert es bis zu einem halben Tag bis der Speicher freigegeben ist. Da läuft irgendein Linux-Prozess der das dann macht. Bei SmartOS war das immer sofort erledigt.
 
Beim Netzwerk Teaming ist aber ein 8er Switch schnell verbraucht. Wenn 2 Netzwerkkarten vom Server angeschlossen werden, bleiben nur noch 6 übrig. Leitet man 2 weiter an einen weiteren Switch nur noch 4.
Bei ZFS/Proxmox sind mir kleinigkeiten aufgefallen. Wenn ich mit zfs destroy einen Pool lösche, dauert es bis zu einem halben Tag bis der Speicher freigegeben ist. Da läuft irgendein Linux-Prozess der das dann macht. Bei SmartOS war das immer sofort erledigt.

Ja sicherlich es gibt ja auch 16,24,48 Ports usw sollte ja nur als beispiel dienen ;)

Das mit Zfs destroy kann ich nicht bestätigen. Habe gerade am Anfang viel mit Sektorengröße, Logs, Cache usw ausprobiert
und daher öfters mal einen Destroy gemacht welcher auch immer sofort erledigt war.

Wieso dies bei dir nicht so ist kann ich dir leider auch nicht beantworten ;/
War dies vielleicht ein Pool welcher auf einem anderem System erstellt wurde?
Sollte eigentlich kein problem sein aber man weis ja nie.

lg ice
 
Könnte das nicht doch ein Problem sein, wenn der Pool von BSD stammt und mit einigen von ZoL nicht supporteten Features erstellt wurde?
Btw:
Weiß jemand, ob man ZFS Sync von BSD-ZFS auf ZoL machen kann? Und falls generall ja: müsste das BSD-ZFS dann mit beschränkten Features laufen?
 
Der Pool stammte von SmartOS, also der standard "zones" pool der dort (mit ashift=12) angelegt wird. Nach dem Reboot werden neue destroys sofort gelöscht. Es kann sein, dass ich etwas zu viel mit VMs gespielt habe und der Speicher nicht richtig freigegeben wurde.

Was hat BSD-ZFS für eine Version? Es müsste auch v28 sein, oder? Hier mal meine Daten:

zpool upgrade -v
Letzte Zeile: 28 Multiple vdev replacements

zfs upgrade -v
Letzte Zeile: 5 System attributes

Ich kann mich noch an irgendein System mit version 5000 erinnern, weiss aber nicht mehr welches. Damit wird es nicht funktionieren. Deshalb hatte ich ursprünglich auch meinen Pool unter SmartOS neu erstellen müssen.

Wieder ein Grund mehr, einen "gespiegelten" Backup-Server mit zfs send/receive aktuell zu halten :-)
 
Hm, SmartOS scheint auf BSD zu basieren, aber teilweise as der Linux-Welt stammende Software zu verwenden. Ich kenne es nicht und kann nicht sicher sagen, welche Implentierung von ZFS dort verwendet wird, allerdings wäre es vermutlich naheliegend, die "featurereichere" originale BSD ZFS-Implentierung zu verwenden.
Falls es die BSD-Version ist:

Unter BSD gibt es leider gar keine Versionsnummerierung mehr. Stattdessen arbeitet man da jetzt mit sogenannten Feature Levels.
Finde ich etwas verwirrend, aber soweit ich es verstanden habe, bedeutet das vermutlich:
Es gibt einen definierten Satz von möglichen Features, die auf allen ZFS-Implentierungen gleich heißen müssen. So kann über den Namen des Features sichergestellt werden, dass ein bestehender Pool zum laufenden ZFS kompatibel ist - oder eben auch nicht. Welche Features es gibt kannst du hier sehen:
https://www.freebsd.org/cgi/man.cgi?query=zpool-features&sektion=7
Ich weiß leider auch nicht, was die Defaults sind, wenn man den Pool unter BSD erstellt, da ich meinen unter Linux erstellte und dann in Richtung BSD migriert bin..
 
Zuletzt bearbeitet:
SmartOS basiert nicht auf FreeBSD, sondern noch auf Solaris bzw. OpenSolaris, später OmniOS. Oracle hat im aktuellen Solaris ZFS weiterentwickelt (Verschlüsselung etc). FreeBSD und auch ZFSonLinux basieren auch auf den offenen Source.

Ich hatte auch etwas bedenken auf die ZFSonLinux-Version umzusteigen, sehe aber seit etwa 4-5 Tagen keine grossen Probleme. Den Vorteil von ZFSonLinux sehe ich eher im darunterliegenden Betriebssystem, in meinem Fall Proxmox das auf Debian basiert. Mit Debian kenne ich mich am besten aus. Bei SmartOS habe ich viele Befehle neu lernen müssen.

Du kannst doch so vorgehen: Installiere ein Plain Debian auf eine SSD, importiere dann Deinen BSD.Pool mit zpool import -f xxx. Oder von mir aus auch nur read-only. Dann siehst Du ob noch alles da ist. Sicherheitshalber auch nochmal snapshots davor anlegen, dass Du zurück kannst.
 
Ich möchte, was das Archiv angeht, bei ZFS bleiben.
Allerdings möchte ich den Backupserver, der einmal wöchentlich neue Daten vom Archiv zieht, lieber unter Linux betreiben, weil dieser recht alt und spärlich ausgestattet ist - und auch weil ich mich ebenso mit Debianoiden besser auskennen als BSD. Deshalb meine Frage nach dem Sync :)
Aber ich bin mir bezüglich des Backupservers eh noch nicht ganz so sicher.. evtl. wird's auch btrfs . oder gar ReFS samt Sorage Spaces?

Muss da noch etwas experimentieren, bevor ich mich entscheide, waber es wäre schonmal gut im Vorfeld zu wissen, ob ein Sync zwischen verschiedenen ZFS Varianten laufen könnte, denn das wäre natürlich ein Pluspunkt für die Wahl von ZFS auch auf dem Backup.

PS:
kann leider zur Zeit keine Ausgabe von zpool upgrade posten, da ich meinen Server zerlegt habe..
 
Zuletzt bearbeitet:
Ich möchte, was das Archiv angeht, bei ZFS bleiben. lieber unter Linux betreiben, weil dieser recht alt und spärlich ausgestattet ist

Ich stand/stehe eigentlich bei einer ähnlichen Entscheidung, da mein Microserver eben auch "langsam" ist. Aber dank 8GB ECC RAM schnell genug um anständig mit ZFS arbeiten zu können (für Backupzwecke eben, aber durchaus auch als Notfallgerät).

Alternativ dazu finde ich auch SnapRaid mit Debian eine gute Lösung. Hier müsstest Du das Backup aber eben mit rsync, btsync, syncthing oder ähnliches machen. Der Vorteil dabei ist, dass man Festplatten wild mischen kann. Die größte ist die Paritäts-Platte. Die anderen kannst Du bei wachsendem Speicherbedarf nach und nach wechseln. Das Paritäts-Schreiben kannst Du manuell anstossen. Bei Zugriff auf bestimmte Dateien muss auch nur eine Platte laufen und nicht das ganze Raid wie bei ZFS. Wenn der Rechner richtig alt ist und Du nur verschiedene Platten hast, würde ich diese Lösung vorziehen.
 
Es ist ein Athlon 64 3700+ (Single Core 2,2Ghz) mit einem ganzen Gigabyte RAM :)
Darin steckt im Moment noch mein alter LSI 8708ELP 8-Kanal SAS-Controller und daran 8*640GByte HDs.
Da die Kapazität nicht mehr ausreicht, und der alte Controller ja nur maximal 2TB pro HD kann (oder irgendwas in der Ecke..) muss der wohl raus, und stattdessen 4HDs mit jeweils 8TB an die Onboard-SATAs.
Der lief bisher mit Windows 7 32Bit und hat mir gute Dienste geleistet, ich glaube es waren immerhin bis zu 150MB/s. Aber bisher wurde er ja auch durch den LSI entlastet..

Das Arbeitstempo ist mit aber eigentlich völlig egal, da er wie gesagt nur einmal pro Woche vollautomatisch zum z2pool auf dem T20 synchronisieren soll.
Wichtig ist nur die Integrität der Daten.
 
Zuletzt bearbeitet:
Wenn nur Backups geschrieben werden, reicht der Athlon und auch das eine GB RAM. Dann aber Debian+Snapraid.

Aber 8 Platten a 640GB schreit eigentlich nach ZFS-Raid :-) z.B. 4+1, 4+2, 6+2, oder max 7+1.
Die Platten kannst Du bestimmt für 25-30 EUR das Stück verkaufen. Das machst Du nach und nach und ersetzt sie dann immer gegen eine neue.
Wenn man Platten ersetzt wäre Raidz2 sinnvoll, damit die Daten nicht unsicher bleiben.

Vom größeren ZFS-Pool profitierst Du aber erst, nachdem die letzte 640er-Platte ersetzt worden ist. Für ZFS brauchst Du aber wieder mehr Ram und einen anderen Rechner. Wobei das mit 80 EUR auch erledigt ist (1150er Board und einen Celeron). + ECC Ram.

Als billigste Lösung ohne Kosten wäre den Rechner einfach so weiterzubetreiben. Nur Debian+Snapraid drauf, Backups machen und die bessere Lösung später aufbauen.
 
Ich muss demnächst einmal alles hin und zurück verschieben, da ich den T20 auf encrypted ZFS umstellen will.. das wird noch ein Spaß. Wäre da natürlich gut, wenn der Backup-Server auch Redundanz hätte, und der Transfer mit Verify abläuft...obwohl mir da gerade auffällt, dass es wohl sinnvoller wäre, wenn ich da die HDs aus dem T20 einfach in den Backup PC einbauen, und die vier neuen in den T20 - dann muss ich nur einmal rüber kopieren :)
 
Zuletzt bearbeitet:
Encrypted ZFS auf welcher Basis? Die Platten in den Backup-Server ist eine gute Idee, aber mit 1GB wird es richtig knapp.

Du kannst in den T20 auch 6x3.5 einbauen. Einfach eine kleine 2er SATA-Karte dazunehmen und die 2 Platten in einen alten Rahmen packen und unter den 2 oberen befestigen. Aber Lüfter davor nicht vergessen, am besten bei allen drei 2er-Kombinationen, sonst wird es heiss im T20.
 
Hallo,

ich habe eine Dell T20 mit Xeon, 32Gb ECC RAM, Raidcontroller etc.

Könnte ich den Dell T20 ohne Probleme mit dem Adapterkabel (ATX24 auf Dell 8 Polig Adapter) mit einem neuen ATX Netzteil versehen und dann einfach eine größere Grafikkarte alias AMD R9 285 einbauen und die Maschine als Gamingrechner benutzen? (Natürlich ohne Raidcontroller und bissle weniger RAM?) Ist mir bisher nicht ganz klar geworden.


Grüße
 
Ja aber die meisten 285 brauchen 2x 6 Pin oder 1x 8 + 1x 6 Pin also besser gleich so ein NT nehmen
 
Zuletzt bearbeitet:
Hi zusammen,

ich würde gerne eine ext. WD My Book 2 TB über USB 3.0 an den T20 anschließen, um meine VM's unter ESXI 6 zu sichern.
Allerdings wird die HDD nicht am Server erkannt (Front- und Hintere USB Anschlüsse habe ich versucht).
Schließe ich die HDD an einen anderen PC an, so funktioniert dies problemlos und wird auch sofort erkannt.
Im Moment boote ich das ESXI 6 System von einem SanDisk USB 3.0 Stick und das funktioniert auch ohne Probleme.

Im vShpere Client wird unter Konfiguration/ Speicheradapter trotz Aktualisierung nichts außer dem (Boot) USB Stick angezeigt.

Hat jemand eine Idee wie ich die ext. HDD einbinden kann, um meine Backups zu fahren ?

VG Stabbi
 
Hallo Zusammen,

über eine bekannte Versteigerungsplattform bin ich zu einem T20 Motherboard + Netzteil gekommen.

In diesen werkelt nun ein Pentium G3420 + G-Skill RipJaws 4GB-Kit, DDR3-1333, CL7, non-ECC (F3-10666cl7D-4GBRH).

Da leider keine Lüfter dabei waren, musste ich mich nach Adapter-Kabel umsehen.
Die verlinken Kabel aus den USA sind recht teuer, daher habe ich mich in China umgesehen und bin fündig geworden.
2 Stück für ~ 9$ X2 Motherboard 4pin to Dell 5pin 4 Wires Adapter Cable Wire Converter 383 002 | eBay
oder
5 Stück für ~13$ X5 Motherboard 4pin to Dell 5pin 4 Wires Adapter Cable Wire Converter 383 005 | eBay
Die Lieferzeit war China typisch ca. 4 Wochen, funktioniert aber einwandfrei.

Leider war das Motherboard in einem HTPC-Gehäuse verbaut, daher suche ich noch ein Gehäuse von einem DELL T20 oder T1700.
Siehe: http://www.hardwareluxx.de/community/f108/gehaeuse-von-einem-dell-t20-oder-t1700-1088791.html

Grüße Bissi.
 
Hallo,
ich habe eine Frage zu dem eingebauten Raid Controller.
Ich möchte 3 HyperV Maschinen (DC,Exchange...) mit einem Raid1 betreiben.
Sollte ich mir besser einen Raid Controller mit extra Prozessor einbauen, oder geht das auch mit dem onBoard? (XEON-CPU)
Würde mir gerne die extra Investition ersparen.

Stefan
 
Will nur mal kurz Bericht erstatten, mein T20 hat jetzt die vorläufig endgültige Hardware-Ausbaustufe erreicht. :d

Die 4X4TB WD Red sind aus den 4 internen Halterungen nun in das externe Lindy-Gehäuse gewandert und wurden durch 4x256GB SSDs, die neu hinzugekommen sind und innen eingebaut wurden, "ergänzt". Dank von 2x 2,5" auf 3,5" Doppeladaptern von Icebox (also zwei 2,5er passen in eine 3,5"-Halterung, und die passen sogar in die Rahmen von Dell), habe ich jetzt sogar noch innen 2 der 3,5" Bays frei.

Sowohl die WDs als auch die SSDs hängen an meinem alten Perc H200, so dass zusammen mit der 300GB 2,5" HDD (OS) und der Samsung 830er (VMs) an den internen SATA Anschlüssen und im Käfig fürs optische Laufwerk nun insgesamt 10 Disks sauber verbaut und angeschlossen sind (mit der Option irgendwann ggf. insgesamt schnell und problemlos auf 12 aufrüsten zu können).

Ins Netz kommt die Box primär über die Intel x540-T2 mit 10gbit. Basis ist der T20 mit dem E3-1225v3 mit jetzt 32GB RAM.

Als OS läuft nach wie vor ein Hyper-V (Tech Preview 2 - absolut stable) mit zurzeit 3 Dauer-VMs:

1. Minimal-ubuntu als VPN-Server (1GB RAM)

2. Ubuntu mit ZFS on Linux und Napp-it als Filer, der die 4x256GB SSDs (ohne Parity) als High-speed Storage (bis zu 1GB/s lesend und schreibend übers Netz - yay!) und die 4x4TB WD Red (Raidz) als Datenstorage hosted (8GB RAM, setze ich ggf. noch rauf auf 16GB, aber bisher reicht 8 eigentlich locker)

3. Win10 für Krimskrams (4GB RAM)

Bin echt happy mit dem Ding.

Jetzt muss ich noch feintuning machen (Backup, iSCSI oder SMB als Basis für High-speed Storage Zugriff usw.), das gehört aber nicht hierher.
 
Hat jemand Erfahrung ob eine Geforce GTX 950 gehen würde? Oder mit welchen Workarounds?

Ich brauche so eine Karte für native H265 / HEVC Main 10 decoding... Alternative Karten sind auch willkommen...aber die 750Ti schein nur ein Hybrid ansatz zu haben und nicht vollständig Hardware Decoding bei H265 / HEVC Main 10 zu unterstützen
 
Könnt Ihr ungefähr sagen was der Dell T20 mit ca. 10 VMs an Strom verbraucht? Mein jetziger braucht ca. 160Watt mit ca. 10 VMs. Danke.
 
Könnt Ihr ungefähr sagen was der Dell T20 mit ca. 10 VMs an Strom verbraucht? Mein jetziger braucht ca. 160Watt mit ca. 10 VMs. Danke.

Meiner braucht mit 20 VMs im Tagesschnitt 32 Watt - aber diese Information wird Dir nichts bringen, weil es meine Umgebung ist.

Falls Du wirklich richtig gemessen hast, liste mal Deine Konfiguration auf. Hast Du eine Grafikkarte drin, die auf Volllast läuft oder 12 Platten ins Gehäuse reingequetscht? Unter welcher Umgebung hast Du virtualisiert? Welcher Prozessor und welche CPU-Last? Wieviel RAM? Gibt es Screenshots der Auslastung unter ESXi/Proxmox/etc?
 
Mein Server ist mehr oder weniger ein Desktop PC mit 32GB RAM, AMD FX 8120, einer Zotac 1GB Grafikkarte und 3 Festplatten mit einmal 80GB und zweimal 2TB. Virtualisiert wird mit 2012 R2 und Hyper-V.
 
OK, also eine Desktop/Workstation-Umgebung. Der FX8120 zieht einfach Strom und basiert auf einer alten 32nm Technologie. Du wirst vermutlich Deine 32GB RAM nicht im T20 verwenden können, es sei denn es sind nur 4 Chips und bereits DDR3 ab 1600MHz. Die 80er Festplatte wirst Du wahrscheinlich gegen eine SSD ersetzten wollen und 2x2TB im Raid ist ok. Sehe den angestrebten Stromverbrauch mehr in Richtung 40-50 Watt im T20. Eher weniger.
 
Ich hab als RAM 4x 8GB Corsair ValueSelect DDR3-1333 DIMM verbaut kann ich die auch im T20 nutzen? Wenn der T20 nur so 40 Watt verbraucht ist das in Ordnung. Auf der 80er Festplatte läuft nur das OS und deswegen reicht mir das da auf der Platte nicht viel passiert außer vielleicht mal Windows Updates. Der Rest läuft alles auf den anderen beiden Platten. Die Festplatten würde ich dann aus meinem jetzigen dann in den T20 nehmen.
 
Ich hab als RAM 4x 8GB Corsair ValueSelect DDR3-1333 DIMM verbaut kann ich die auch im T20 nutzen? Wenn der T20 nur so 40 Watt verbraucht ist das in Ordnung. Auf der 80er Festplatte läuft nur das OS und deswegen reicht mir das da auf der Platte nicht viel passiert außer vielleicht mal Windows Updates. Der Rest läuft alles auf den anderen beiden Platten. Die Festplatten würde ich dann aus meinem jetzigen dann in den T20 nehmen.

Ja, der RAM sollte laufen, auch wenn er mit 1333 MHz ausgebremst wird und keine ECC-Fehlerkorrektur hat. Ein 8-Core-Prozessor ist im Dell T20 aber nicht verbaut, der Xeon 1225v3 ist in etwa gleichauf mit Deinem FX-8120. Ausser Stromersparnis wirst Du nicht viel bekommen, da stellt sich die Frage ob Du nicht in Richtung Xeon E5-26xx gehst oder noch etwas auf die intel-14nm-Platform wartest.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh