[Sammelthread] Dell PowerEdge T30

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie befestigt ihr im T30 eigentlich Eure SSDs? In meinem Fall z.B. die Intel DC S4600? Reinlegen geht immer, aber ich würde die schon gerne professionell fixieren.

Danke.
 
@Festplattenbaer: 2,5 Zoll kann man dort verbauen, wo die ODD ist (Schrauben dafür sind vorne im Festplattenkäfig). Die muss man dafür rausnehmen. Alternativ mit 3,5 Zoll zu 2,5 Zoll Adapter in einen der Festplattenplätze verbauen. Es gibt noch einen Platz unter den oberen Festplattenschächte, da passt auch ein 3,5" Laufwerk rein. Da kannste auch mit einem 2,5" Adapter die SSD unterbringen.

@Fauch: müsste ein 92mm Lüfter sein (bitte selbst nochmal nachmessen); Pin-Anschluss sind beim T30 normale 4-Pin PWM meines Wissens. Da sollte dann jeder 92mm PWM Lüfter deiner Wahl passen.
 
Wenn sie kein neues Gehäuse erfunden haben ist der Lüfter immernoch 80mm.
 
Wenn sie kein neues Gehäuse erfunden haben ist der Lüfter immernoch 80mm.
Also der hintere Gehäuselüfter im T20 ist definitiv 92mm. Im Startpost des T30 steht auch:
Gehäuselüfter: Sunon PSD1209PLV2-A (92x92x32mm) | Foxconn PV903212PSPF 0C (92x92x32mm)
Würde mich tatsächlich etwas überraschen, wenn sie beim T30 den 92mm Lüfter durch einen 80mm ersetzt hätten. Am sichersten ist es wohl, nochmal selbst nachzumessen.
 
92mm, definitiv. Ich habe selbst einen Noctua NF-B9 redux-1600 PWM verbaut.

Meine 2,5" SSD habe ich mit einem Adapter (Inateck Einbaurahmen f Zubehör) in einen der normalen 3,5" Schächte verbaut, und eine 1TB 2,5" HDD gleich dazu.
 
Zuletzt bearbeitet:
Also der hintere Gehäuselüfter im T20 ist definitiv 92mm. Im Startpost des T30 steht auch:

Würde mich tatsächlich etwas überraschen, wenn sie beim T30 den 92mm Lüfter durch einen 80mm ersetzt hätten. Am sichersten ist es wohl, nochmal selbst nachzumessen.

Es war wohl schon etwas spät. Wenn ich es schon so im Startpost festgehalten habe wird es wohl stimmen ;) und ich hab mich nur in der Zeile vertan.
 
@Janero: Noch etwas zum Startpost - ist zwar trivial aber vielleicht doch für einige von Interesse

Offiziell supportetes Linux ist nur Red Hat, kein Ubuntu.
Ich kann aber bestätigen dass meiner prima mit 16.04 und 17.10 lief und seit letzter Woche auch prima mit 18.04, jeweils mit Standard GUI (dann wird Server wohl auch funktionieren).
Wobei Ubuntu 17.10 wohl nicht mehr erwähnenswert ist, der Support ended diesen Monat.
 
Hallo,
ich würde gerne in meinen T30 noch eine PCIe Karte bauen die M.2 SSD aufnahmen kann.
Am besten wären 4 wo auch noch als Raid konfiguriert werden könnten.
Hat dies von euch einer in Gebrauch und welche Karte würdet ihr hier verbauen.

Danke für eure Infos schon mal.
 
Wie viel bist Du bereit auszugeben?

Die günstigen für 2x bzw. 4x m.2 wirst Du nämlich alle nicht nutzen können. Du brauchst was mit nem PCIE-SwitchChip.
 
Auf die Schnelle: https://www.amazon.com/gp/offer-listing/B01MTU75X4?tag=ecatapultifr-20&ascsubtag=DEFAULT33671533982827085-thaus:en_US_18_Review_5201&SubscriptionId=AKIAITCRJ2RHQCM3KCIA&linkCode=xm2&camp=2025&creative=165953

Und hier der Test bei Tomshardware:
Aplicata Quad M.2 NVMe SSD PCIe x8 Adapter Rating - Tom's Hardware

Wichtig: du darfst diese Karte nicht mit den „dummen“ Adapterkarten zum Beispiel vom Typ ASUS Hyper x16, Supermicro SLG3-AOC-2M2 oder ähnliche vergleichen. Letztere haben KEINEN PLX-Chip, d.h. du kannst die - mit mehr als einer m.2 SSD - nur mit Boards benutzen, die Bifurcation unterstützen - long story short: die Profi Plattformen 2011-3, 3647 und evtl. 2066.

Ob die Adapterkarte Dir das wert ist, musst du wissen. Mit dem Preis davon kannst du quasi fast auf eine solche Plattform wechseln und dann einen billigeren Adapter für 40 Euro nehmen...
 
hmmmm ist teuer.

Da hol ich mir dann doch nur ne günstige und binde die so in meinen Server 2016 ein.

Es soll da drauf der HyperV und dann kann ich meine beiden SSD ausbauen und 2 WD Red in den T30 bauen.
Denke damit fahre ich dann besser.
 
Dafür brauchst du ein Board, das Bifurcation unterstützt.
 
Hi Leute,
hat jemand schon versucht den Xeon 1225 v5 durch einen i7 6700K zu ersetzen? Bin beim 4k videos schneiden unter win10 anscheinend an die leistungsgrenze des v5 gestoßen, flüsiger schnitt ist einfach nicht möglich.
In der dell community schrieb jemand dass es wohl möglich wäre...
Aber was ist dabei zu beachten, ist das so ohne weiteres möglich? Bin anfänger....

Noch ne andere Frage, es gibt ne neue bios version auf der dell seite : BIOS firmware version 1.0.14 for Dell PowerEdge T30
Hat die jemand gestestet? Ist die auch downgradefähig?
 
Könnte klappen der 1240 v5 läuft ja auch. Musst du wohl testen.
 
Bestenfalls mal den Dell Support anschreiben. Die Preise werden dir aber wahrscheinlich nicht passen. Ansonsten mal auf ebay schaun.
 
Vielleicht bin ich da auch zu genau. Ist mir, genau wie der T20 gestern, zur Seite umgekippt und hat jetzt Kratzer an der Ecke. Sieht man fast nicht, aber sowas nervt mich. Naja, kommt eh in ein kleines Rack.
 
Hi Leute,
hat jemand schon versucht den Xeon 1225 v5 durch einen i7 6700K zu ersetzen? Bin beim 4k videos schneiden unter win10 anscheinend an die leistungsgrenze des v5 gestoßen, flüsiger schnitt ist einfach nicht möglich.

Das würde mich auch sehr interessieren! 1080p schneiden geht super aber bei 4k macht die Arbeit am PC keinen Spaß mehr, leider.

Ich schneide mit Wondershare Filmora.
 
Ich habe auch einen Dell T30 Server mit E3-1225 v5 CPU und 8 Gbyte gekauft und nach Bios Downgrade mit PCIe Karten wie folgt aufgerütet:
----
NVME Speicher: Samsung MZ-V7E250BW 970 Evo Interne SSD 250 GB
Bus Interface: PCIe Gen 3.0 x4, NVMe 1.3
TDP: 30W
Specs: 970 EVO NVMe M.2 SSD | MZ-V7E250BW | Samsung Deutschland
----
Graphikkarte: nvidia quadro k2000 2048 MB BIOS
Bus Interface: PCIe 2.0 x16
Steckplatz: PCIe Slot 1 blau
TDP: 51W
Specs: NVIDIA Quadro K2000 Specs | TechPowerUp GPU Database
----
NIC: Intel-Ethernet-Serveradapter: I350-T2V2
Bus Interface: PCIe v2.1 (5.0GT/s)
Steckplatz: PCIe Slot 4 schwarz
TDP: 4.4W
Specs Intel® Ethernet-Server-Adapter I350-T2V2
---

Leider verstehe immer noch nicht ganz, wie die PCIe Lanes kalkuliert werden müssen. Der Server läuft stabil bis jetzt, allerdings ohne besondere Belastung.

Überschreite ich mit dieser Konfiguration die Grenze von max. 16 PCIe Lanes der CPU, falls die Komponenten mit voller Last laufen?

Ich plane den Rechner als Linux KVM Host einzusetzen und Windows 10p mit GPU Passthru zu virtualisieren.

Danke für Tipps
 
Zuletzt bearbeitet:
Ob Last oder nicht ist da egal. Die Lanes werden einmalig zugewiesen. Wenn Du zum Beispiel eine x16 und eine x8 Karte in Slots steckst, die an der CPU hängen, dann bekommt - wenn das Board das unterstützt (fast alle) und nach dem Booten beide Geräte funktionieren - das x16-Gerät automatisch nur x8 und das x8-Gerät ebenfalls.

Dabei sind die Kombinationsmöglichkeiten aber beschränkt, d.h. in festen Schritten vorgegeben. Steckst Du im obigen Beispiel eine x4 Karte zu einer x16-Karte, bekommt die x16 trotzdem nur x8 (nicht x12) und die x4 eben x8 - 4 Lanes bleiben dann in dem Beispiel ungenutzt.

Dann kommt noch hinzu, dass von der Spezifikation alle PCIe-Geräte eigentlich auch nur mit x1 laufen müssen. D.h. eine x8-Karte muss auch in einem Slot laufen, der nur mit x4 angebunden ist. Nach meiner beschränkten Erfahrung geht das auch, nur merkst Du in einem solchen Szenario u.U. eben Performance-Einbrüche: zum Beispiel kann es seine, dass eine 10Gbit-Netzwerkkarte, die eigentlich 2x 10Gbit Vollduplex (de facto also 2x10x2=40gbit "brutto") auf die Leitung brennen kann, das dann nicht schafft wenn sie statt mit x8 nur mit x4 angebunden ist.

Wenn es stabil läuft, schau' halt mal was passiert. Bei einer Graka macht es real kaum einen Unterschied, ob die mit x16 oder mit x8 angebunden ist. Bei Server-Komponenten dann schon eher, eben bei der Nic (aber wenn Du nicht im 10gbit-Bereich bist, fast auch wieder egal bzw. von der POrt-Anzahl der Nic abhängig) oder bei RAID-Controllern / HBAs (je mehr Plattem dran hängen, desto mehr kann die PCIe-Bandbreite limitieren).

Bei der K2000 und die 350T2 solltest Du das m.E. quasi nicht merken.
 
Zuletzt bearbeitet:
Ich habe auch einen Dell T30 Server mit E3-1225 v5 CPU und 8 Gbyte gekauft und nach Bios Downgrade mit PCIe Karten wie folgt aufgerütet:
----

Leider verstehe immer noch nicht ganz, wie die PCIe Lanes kalkuliert werden müssen. Der Server läuft stabil bis jetzt, allerdings ohne besondere Belastung.

Überschreite ich mit dieser Konfiguration die Grenze von max. 16 PCIe Lanes der CPU, falls die Komponenten mit voller Last laufen?

Ich plane den Rechner als Linux KVM Host einzusetzen und Windows 10p mit GPU Passthru zu virtualisieren.

Danke für Tipps

Du hast nicht nur 16 PCIe Lanes. Der blaue PEG Slot wird mit 16 PCIe Lanes direkt über die CPU bedient. Weitere 20 Lanes stehen dir über das C236 Chipset zur Verfügung der wiederum mit 4 PCIe Lanes an der CPU hängt (DMI 3.0). Dementsprechend nutzt du nur 8 Lanes des Chipsets plus das was eben noch auf dem Board darüber angebunden ist. Die Grafikkarte hängt ja wie gesagt direkt an der CPU.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh