[Sammelthread] Dell PowerEdge T20

Hallo!

Der Intel C226 (DH82C226) steht nicht auf der Hardware Compatibility List:
HCL: Storage Controllers

Du könntest versuchen den Treiber selbstgebastelt einzubinden, aber grundsätzlich ist das nicht empfehlenswert. Ohnehin ist von der Verwendung der Onboard-Fake-RAIDs allgemein abgeraten.
Es wäre besser (flexibler, sicherer und zukunftstauglicher), wenn du dir ein zusätzliches Boot/Systemlaufwerk installierst (dafür reicht im günstigsten Falle ein USB-Stick mit mindestens 16GByte-Kapazität) und das Betriebssystem deiner Wahl auf diesem installierst und deine Festplatten dann z.B. unter Xenserver mittels mdadm als Soft-RAID5 einrichtest (im BIOS dabei kein RAID, sondern einfach nur AHCI verwenden).

Wenn du dann noch ein Image oder einen fertig geklonten Stick deines Systems auf dem USB-Stick erstellst, kannst du später im Notfall (Updatefehler, Hardwarefekt) von so ziemlich jedem System booten und mit wenig Aufwand auf deine Daten zugreifen, ohne auf das Vorhandensein eines kompatiblen Intel-Controllers etc. angewiesen zu sein.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo,

ich wollt mir die zusätzlichen Festplattenrahmen (InLine 59913) klicken, aber die sind jetzt mittlerweile überall ausverkauft. Hat jemand ne Idee für ne Alternative? Gehen irgendwelche anderen Schächte oder Einschübe? Nur halt irgendwie mit Kabelbinder befestigt?

VG

Edit:

Habs doch noch auf amazon.fr für ca. 20 EUR inkl. Versand gefunden.
 
Zuletzt bearbeitet:
Weis jemand ob das auch mit meinem "Dell SAS 6/IR" funktionieren würde?
Hatte ich mal ausprobiert, klappt. Lässt sich sogar im Dell T20 umflashen. Kriegt man mittlerweile für'n Appel. Die reichen, wenn man keine SSDs verwendet und keine Festplatten einsetzt, die größer als 2TB (?) sind. Ansonsten muss man sich weiter umschauen: den IBM M5110 mit LSI 2208 Chipsatz gibt's z.B. zur Zeit für schlappe 120€: IBM ServeRAID M5110 8-CH SAS 6G SATA 6G PCI-E 81Y4481 00AE807 NEU | eBay
 
Die Antwort klingt gut! Meine 4 SSD hängen an den internen T20 Anschlüssen, am Dell SAS 6/IR sind nur 6 x 2 GB Hitachis. Da mir der Platz knapp wird würde ich gerne noch 2 x 2 GB an den DELL hängen. Wenn die HDDS bei nichtnutzung endich runterfahren würden wäre das fantastisch.

Was genau ist dafür erforderlich? Der Dell SAS Controller ist unter VMWare ESXi an eine Windows 2012 Vm weitergereicht. Ich nehme an das ich damit das runterfahren nicht hinbekommen sondern auf ein anderes OS (Free NAS?) wechseln muss? Auf welcher Firmware der Dell SAS läuft weis ich nicht mehr. Ist eine besondere Version dafür erforderlich?

Wichtig wäre mir nur da ich die Freigaben ohne Probleme in das DFS meines Fileservers einhängen kann. Replikation ist nicht nötig. Schön wäre natürlich eine Active Directory Integration damit es mit den Freigaberechten möglichst einfach und konsistent wird. Keine Ahnung ob FreeNAS das kann.
 
Zuletzt bearbeitet:
Hallo ich grüße euch :-)
Ich bin seit ca. einem Monat stolzer Besitzer eines dell t20 xeon und habe bereits das Netzteilupgrade (aus dem t1700) hinter mich gebracht. Habe dann eine asus gtx 960 als Grafikkarte eingebaut, und das System läuft soweit gut. Habe jetzt über ne asus gtx 970 nachgedacht. Diese braucht aber nen 8 pol. Pci express Stromanschluss, dass Netzteil hat aber nur ein 6 poligen. Was meint ihr? Einfach einen 6 zu 8 pol Adapter anschließen? Der TDP der GraKa wird mit max 150 w angegeben. 8 pol unterstützt wohl bis zu 150w und 6 pol nur 75w?
Weis jemand vielleicht wie das bei diesem Netzteil aussieht? Bringt ja 365 w Leistung.
Dann sollte es ja reichen? Was meint ihr dazu? Mit den Sata Stromanschlussadaptern möchte ich nicht so gern arbeiten. Hat jemand vielleicht ne Idee oder eine Info?Viele Grüße
 
Mal eine doofe (Kontroll)Frage an die Experten: ich hab in meinem T20 ja einen LSI-geflashten Raidcontroller (Dell H200) und eine Intel x540-T2 10gbit NIC. Beides sind meines Wissens PCIE 2.0 x8 Karten.

Nun muss ich ja einen Tod sterben und eine der Karten in den unteren x4 PCIe-Slot stecken.

An dem Raidcontroller hängen insb. 4x WD Red 4TB. Diese 4 Platten hängen alle am gleichen Port des Raidcontroller. An dem anderen Port habe ich ein paar alte Platten in einem HotPlug-fähigen externen Gehäuse, die ich aber nur bei Bedarf einschalte (also nur sehr selten nutze). Zusätzlich hängen eine lahme 2,5" HDD (fürs OS) und eine Samsung SSD 830 (für die VMs) an den internen 6G Ports des Mainboards.

Dass beide 10gbit Ports der x540 mal auf maximal Last laufen, dürfte eher nicht zu erwarten sein. Aber einen bringe ich öfter mal zum glühen.

Vor diesem Hintergrund habe ich zurzeit den Raidcontroller im x16 Slot und die NIC im x4. Frei nach dem Motto, die Performance die ich lokal nicht hab (auf den Platten), bekommt ich grds. auch nicht ins Netz verteilt.

Frage mich aber irgendwie, ob sich der Raidcontroller nicht eh meistens langweilt und für die lahmen Reds nicht auch PCIe x4 eigentlich reichen würde. Umgekehrt ist insbesondere die Performance auf der 10gbit-Strecke noch verbesserungsfähig und ich frage mich, ob hier der x4 selbst bei nur einem genutzten Port schon limitiert?

Lange Rede kurzer Sinn bzw. kurze Frage: Welche Karte würdet ihr denn von den beiden in den unteren x4 Slot stecken?

Zusatzfrage: weiß vielleicht zufällig jemand, ob evtl. die SATA Anschlüsse auf dem Mainboard sich mit den Steckplätzen (oder vielleicht auch nur mit einem?) die Bandbreite teilen?
 
Die Frage lässt sich doch recht einfach beantworten:
PCIe 2.0/2.1 x4 = 2000 MB/s
PCIe 3.0 x16 = 15754 MB/s
beides Full Duplex also sendend und empfangend je Q

Wie viel jeder Anschluss maximal benötigt kann man sich denke ich sehr leicht selbst ausrechnen.
der x4 reicht also für 1,6x 10Gbit oder je 80% Auslastung auf beiden 10Gbit.
Und Pi mal Daumen für 6 2/3 * SATA II normale HDDs erreichen aber eher selten das SATA II Limit bzw liegen Momentan vielleicht bei Sequenziellen Leseraten von 120 bis 175 MB/s.
 
Zuletzt bearbeitet:
Wobei der PCIE 3.0 an der CPU hängt und der 2.0 am Chipsatz glaub ich?
In so einem Fall würde ich bei der o.g. Konfiguration dazu tendieren, die 10Gbit Nic auf den 3.0er 16x Slot zu packen, damit die Karte die Netzwerkpakete mit möglichst wenig Latenz verarbeiten kann.
Ist das Raid schneller, also z.B. Flash only, und hätte eher Priorität für auf der Maschine befindliche VMs bzgl. IOPS, dann würde ich das eher umdrehen (also z.B. eine SSD 750 in den 16x Slot und die 10GBit Nic in den 4x, damit die SSD full power hätte.)
Der T20 ist mit den Slots da halt etwas eingeschränkt in den Möglichkeiten. Mein Z77 Extreme6 im Desktop da z.B. kann den 16x 3.0er PCIe auf 2 Slots PCIe 3.0 8x aufteilen (wegen SLI Support) und hat einen 3. Slot mit PCI 2.0 4x (8x + 8x + 4x wär mir auch im T20 lieber gewesen als 16x+4x Slots).
 
Zuletzt bearbeitet:
Hey,

hat von euch jemand auf seinem T20 Windows 10 installiert und auch Probleme mit der Internetgeschwindigkeit?
Der interne Netzwerkcontroller I217-LM wurde nach der Windowsinstallation automatisch mit den neuesten Treiber versorgt.
Jedoch lade ich jetzt im Durchschnitt mit 5MBit/s statt mit den fast 16Mbit/s runter.
Davor auf Windows 7 gab es keinerlei Probleme.
 
Hey,

hat von euch jemand auf seinem T20 Windows 10 installiert und auch Probleme mit der Internetgeschwindigkeit?
Der interne Netzwerkcontroller I217-LM wurde nach der Windowsinstallation automatisch mit den neuesten Treiber versorgt.
Jedoch lade ich jetzt im Durchschnitt mit 5MBit/s statt mit den fast 16Mbit/s runter.
Davor auf Windows 7 gab es keinerlei Probleme.

Ich brauche auch Windows 10. Habe aber keine Network Geschwindigkeitsprobleme.

Die Internetgeschwindigkeit beim runterladen ist zwar hilfreich aber nicht sonderlich aussagekräftig. Zu viele Variablen.

Die Geschwindigkeit zwischen zwei Maschinen am LAN hingegen ist vielsagend.

netbench.PNG
 
Hallo!

Du kannst den Unterschied schon auf den Fotos sehen:
Der eine (00AE807) hat keinen Cache onboard, aber dafür einen Steckplatz zur Erweiterung.

Da kannst du folgende Erweiterungen drauf stecken:
IBM Redbooks | ServeRAID M5110 and M5110e SAS/SATA Controllers

Der andere hat den Cache bereits fest eingebaut, kann aber dafür nicht erweitert werden.

Sofern du nicht die Hardware-RAID-Features nutzt, wird der Cache soweit ich weiss ohnehin nicht genutzt.
Der IBM5110 hat einen schnelleren Controller, aber ohne Verwendung des Hardware RAID spielt das keine Rolle. Du kannst also einfach den günstigsten aussuchen und dann im IT-Mode betreiben.
 
Zuletzt bearbeitet:
Super, danke

Angenommen, ich kaufe den Controller mit dem festen Cache, muss ich diesen erst flashen fur raid5, wenn ja, ist das crossflashen problemlos möglich mit dem m5110? Bisher habe ich das immer nur in Zusammenhang mit dem m1015 hier gelesen
 
Stopp, Kommando zurück bitte!

Habe gerade nachgelesen über den 5110. Es gibt bisher anscheinend keine Möglichkeit diesen in den IT-Mode zu flashen, obwohl er einen LSI-Controller besitzt. Der 5110 ist angeblich aus wirtschaftlichen Gründen gesperrt, um die kostenpfichtigen Updates besser verkaufen zu können. Das macht ihn für ein Software-RAID weniger gut geeignet und du solltest deshalb den 1015 vorziehen!


Zur Klärung:
Willst du wirklich ein Software-RAID verwenden? Software-RAID bedeutet, dass der Host-Bus-Adaper im Prinzip als einfacher SAS/SATA-Adapter arbeitet. Die RAID-Funktionen des Controllers sollten dabei deaktivert werden, statt dessen übernimmt das Betriebssystem oder eine Software die auf diesem läuft die RAID-Verwaltung. (Heute der flexibelste Weg, vor allem bei Nutzung von ZFS sinnvoll!)

Wenn du hingegen integrierte RAID-Funktionen des Controllers verwenden möchtest, dann ist das in diesem Falle ein echtes Hardware-RAID.

Nicht zu verwechseln mit dem Fake-RAID, welches billige Onboard-Controller auf Desktop-Mainboards anbieten, welches gelegentlich auch schon als Software-RAID bezeichnet wurde.
 
Zuletzt bearbeitet:
Stopp, Kommando zurück bitte!

Habe gerade nachgelesen über den 5110. Es gibt bisher anscheinend keine Möglichkeit diesen in den IT-Mode zu flashen, obwohl er einen LSI-Controller besitzt. Der 5110 ist angeblich aus wirtschaftlichen Gründen gesperrt, um die kostenpfichtigen Updates besser verkaufen zu können. Das macht ihn für ein Software-RAID weniger gut geeignet und du solltest deshalb den 1015 vorziehen!

Hi,

ich betreibe den M5110 im JBOD und läuft einwandfrei in meinen VM´s.

Dazu muss man als erstes einen PinMod machen das der M5110 auf allen Mainboards läuft und nicht nur in den IBM Servern.
Anleitung hier: http://www.hardwareluxx.de/community/f101/dell-poweredge-t20-1031138-87.html#post23484236

Für JBOD muss man dann eine etwas ältere FM flashen und JBOD per PreCLI aktivieren.
Siehe hier: http://www.hardwareluxx.de/community/f101/dell-poweredge-t20-1031138-88.html#post23544552

Sollte jemand die Firmware nicht finden, kann ich diese gerne Uploaden.

lg ice
 
Zuletzt bearbeitet:
Hallo allerseits,

ich habe bei meiner Konfiguration ein kleines Problem.

Ich habe eine GeForce GT610 von ASUS eingebaut und bekomme keine Grafik, solange die GeForce-Grafiktreiber durch Windows nicht geladen sind.
Hat jemand eine Idee, woran das liegen bzw. wie ich das beheben kann?
 
Hallo allerseits,

ich habe bei meiner Konfiguration ein kleines Problem.

Ich habe eine GeForce GT610 von ASUS eingebaut und bekomme keine Grafik, solange die GeForce-Grafiktreiber durch Windows nicht geladen sind.
Hat jemand eine Idee, woran das liegen bzw. wie ich das beheben kann?

wenn im Bios Multigpu aktiv ist (der igp) dann passiert sowas (einfach PCIe als primäre Ausgabe auswählen bzw bei IGP Multiview oder wie das hies deaktivieren)
 
wenn im Bios Multigpu aktiv ist (der igp) dann passiert sowas (einfach PCIe als primäre Ausgabe auswählen bzw bei IGP Multiview oder wie das hies deaktivieren)

Ich muss zuerst die GT610 ausbauen, bevor ich über die integrierte grafik ins BIOS komme. Dort sehe ich dann allerdings nirgends eine Option zum deaktivieren von Multiview (bzw. zum aktivieren).
Ich nutze die aktuellste verfügbare BIOS Version A06.
 
Ich muss zuerst die GT610 ausbauen, bevor ich über die integrierte grafik ins BIOS komme. Dort sehe ich dann allerdings nirgends eine Option zum deaktivieren von Multiview (bzw. zum aktivieren).
Ich nutze die aktuellste verfügbare BIOS Version A06.

schau mal ob du die einstellung der primären VGA findest und stell die auf PCIe (Kann meinen grad nicht rebooten, da Proxmox mit 10 vms drauf läuft
 
schau mal ob du die einstellung der primären VGA findest und stell die auf PCIe (Kann meinen grad nicht rebooten, da Proxmox mit 10 vms drauf läuft

Ich habe leider keine Einstellung für VGA gefunden. Weder primär noch sekundär noch sonstwie...
Keine Ahnung, wo die versteckt sein soll.

Ich habe die Optionen wie hier beschrieben.

Evtl. bekomme ich zusätzliche Optionen, wenn ich das BIOS mit installierter Grafikkarte aufrufe, allerdings sehe ich dann entweder das BIOS nicht, oder wenn ich mein Kabel an der internen Karte habe kommt die Meldung "illegal display configuration detected [...] System halted!" und ich komme nicht ins BIOS.
 
Zuletzt bearbeitet:
evtl irre ich mich auch (mein T20 hat zwar ne VGA, aber die ist durchgereicht zu ner VM - also nicht primär)

evtl kann dir dann jemand Anderes helfen :)
 
Ist der JBOD Mode auch sicher ohne Header auf den Harddisks?

Eine gute frage,

dafür müsste ich noch eine Platte zum Test anhängen und normal formatieren,
da ich nachdem Jbod für alle einzelne Platten ging, direkt alle 6 Platten zum RaidZ2 zusammengeführt habe.

Werde dies demnächst einmal testen wenn ich den T20 mal wieder öffne.

Oder weist du eine möglichkeit bei einem Ausbau einer der ZFS Platten nachzusehen welcher Header verwendet wird?

Ich denke das geht sicherlich nur wenn ich eine Platte zusätzlich anschließe per Jbod und dann zb im Ext, Fat, Ntfs usw formatiere
und dann zb per Recoverytool nachsehe ob er daten lesen kann nach Partitionslöschung zb.

lg ice

Ps: was ich noch dazu sagen kann, im ZFS habe ich absolut keine Probleme mit den Platten.
Hatte damals beim Aufbau nur 4x4tb hier und dazu 1x2tb + 1x1,5tb und das RaidZ2 erstellt was ja dann nur
5,8tb Nutzkapazität hatte.
Dann nach etwas Zeit zusätzlich 2x4tb erworben und die 2tb + 1,5tb dagegen ausgetauscht
und per Resilvering und Zfs update dann auf die vollen 6x4tb 15,4tb Nutzkapazität zu kommen
was auf Anhieb funktioniert hat.
 
Zuletzt bearbeitet:
Für alle, die mit dem t20 auch Spaß haben wollen ;) Der thermalright macho 120 CPU Kühler passt ohne Umbauarbeiten ins Gehäuse. Die Seitenwand sitzt dann aber stramm und natürlich passt der original Lüfter anschlusstechnisch nicht zum Board.

VG,
 
ja weil der T20 keine Molex Anschlüsse hat an den du einen Lüfter mit dem beiliegend Molexadapter vom Lüfter anschließen könntest.
 
Ahh okay. Also der Lüfter hat auch nochmal einen Adapter beiliegen.

Und wie gut passt der Lüfter zwischen die Blende und dem Gehäuse?
Und wie hast du den Lüfter mit dem Gehäuse verbunden? Kann man dort Schrauben verwenden?

Danke, für die schnelle Antwort ;)
 
habe ihn mit Kabelbinder befestigt. viel Luft zwischen Front und Gehäuse ist da nicht da Passt gerade so der Lüfter rein. Wie viel Spiel da ist kann ich dir nicht Sagen habe ich nicht gemessen da auch eher schwierig.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh