performancesteigerung datenbankeserver lsi/fast path/externes hd subsystem/winkom ssd

b.a.

Enthusiast
Thread Starter
Mitglied seit
11.03.2009
Beiträge
105
Ort
münchen
hat von euch jmd. mit so einer kombi erfahrung bzw. mit einer vergleichbaren kombi?
lindy 19" 2he storage an 2 sql server mit jeweils einem megaraid sas 9286cv-8ecc
das storage system mit 8 winkom ml-s8 240gb

wir haben das problem, dass wir 2 dell r510 haben, in die aber keine vernünftigen pci-e ssd wie z.b. eine fusion io-drive etc. reinpassen (größe und strom anschluss)
aktuell laufen beide server im raid 1/10/1 (3,5" sas 15000U/min) an einem h700/1gb, die kisten haben je 12kerne/24gb und laufen unter w2k8 r2 und sql 2k8r2

die datenbank ist relativ io-lastig ... so wie es aussieht bekomme ich aus unserem raidsystem nicht mehr iops raus, da wir ständig mit lock timeouts und wait states zu kämpfen haben
bevor die frage auftaucht: an der datenbank kann ich leider nicht drehen ... ist vom hersteller abhängig

testweise haben wir eine supertalent raiddrive gs in einen alten pe2950/8kerne/16gb verfrachtet und haben auf unserer datenbank eine performancesteigerung von 40% ... das hätten wir logischweise mindestens auch gerne auf unseren produktiv systemen .... any help?

gruss und danke schon mal im voraus
bernd

ps: bevor sich einer beschwert: meine shift taste ist nicht defekt .... die kleinschreibung ist ein alleinstellungsmerkmal und stilmittel meinerseits ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also 12 Kerner heißt ja Xeon 5600er mit 6 Kerne + HT . Also mit HT 24 Kerne?! Da passen die 24GB Ram doch überhaupt nicht mehr. Hier schon mal nachgerüstet? 8GB Module kosten doch nicht mehr die Welt.
Hier gleich auf 6 oder 12 x 8GB mit 48/96 GB hochrüsten.
Das Raid wird mir nicht klar ?! 2 Platten R1 für OS, Raid-10 aus x Platten DB und Raid-1 aus 2 Platten für LOGS?
Bei 2 Server könnte man ja auch über ein Shared Storage nachdenken? MD Serie von Dell z.B.

Aber vielleicht sollte sich auch erst mal ein DB Spezie die Satements anschauen. Wenn da die Abfragen nicht optimal bzw nicht gecached sind und immer Full Table Scans laufen, helfen nur x Platten.
 
Also 12 Kerner heißt ja Xeon 5600er mit 6 Kerne + HT . Also mit HT 24 Kerne?! Da passen die 24GB Ram doch überhaupt nicht mehr. Hier schon mal nachgerüstet? 8GB Module kosten doch nicht mehr die Welt.
Hier gleich auf 6 oder 12 x 8GB mit 48/96 GB hochrüsten.
Das Raid wird mir nicht klar ?! 2 Platten R1 für OS, Raid-10 aus x Platten DB und Raid-1 aus 2 Platten für LOGS?
Bei 2 Server könnte man ja auch über ein Shared Storage nachdenken? MD Serie von Dell z.B.

Aber vielleicht sollte sich auch erst mal ein DB Spezie die Satements anschauen. Wenn da die Abfragen nicht optimal bzw nicht gecached sind und immer Full Table Scans laufen, helfen nur x Platten.

mehr ram hilft nichts .... das haben wir bereits durch. wieso sollten bei 12 kernen und 24 threads 24gb udimm nicht passen????
shared storage -> zu lahm und ist nicht sinn und zweck ... wir haben keinen cluster; der eine hat die produktiv datenbank, der andere das datawarehouse mit analysis und reporting services. wir brauchen io's. 15.000 U/min sas platten schaffen das nicht. ssd an dem dämlichen h700 kann man ebenfalls vergessen
und im vorneherein die diskussion über modifikation der datenbank abzubrechen oder ram erweiterung zu diskutieren: am design der datenbank kann nichts geändert werden (leider). manche abfragen werden seriell und nicht aus dem cache bedient ... daher iops!

ok dann nochmal von vorne:
1. test mit pcie ssd raid5 (supertalent raiddrive gs) in einem pe 2950/8 kerne/16gb brachte 40% performancezuwachs -> ohne jedwede änderung an der datenbank!
dummerweise passt so ein ding in einen pe r510 nicht rein => ich brauche eine alternative => mehr platten -> nur extern, r510 ist mit raid 1/10/1 =8 platten voll bestückt
2. idee: man nehme eine lsi mit fastpath und ein externes array/storage/expander mit ssd bestückt
damit nicht unötigerweise 2 gehäuse (je eines für einen r510) rein müssen: gibt es ein externes array/storage/expander mit 2 inputs bei dem ich 4/8 ssd an je einen r510 anschliessen kann?
3. hat jmd schon erfahrung mit lsi fastpath mit externen ssd array? welche performance (iops) mit wieviel platten im raid 10. welches externe array/storage/expander ist zu empfehlen?

gruss und schon mal danke
b.a.
 
Zuletzt bearbeitet:
Kommt ne externe Loesung als Storage denn ueberhaupt nicht in Frage?

Wir haben bei uns einige Bezahlbare DS3xxx Boxen von IBM im Einsatz. Passen je Box 12 x 3,5" SAS Platten rein.
Bei uns haengen 450GB @ 15.000 RPM Platten drinne.

Laufen einige VM's darauf und Performancemaeßig sagt mir mein Bauchgefuehl dass die Kiste richtig gut was kann.
Kann dir bei Gelegenheit mal nen paar Werte rauslassen.

Gruß
 
kannst du mir bitte verraten warum in einen 2HE server keine SSDs reinpassen sollten?
Und mehr RAM für einen DB-Server ist immer gut!
 
Die IBM DS3XXX Kisten entsprechen den DELL MD32XX, gleiche LSI Technik drin mit VSA OS.
Ich denke auch, Ihr fahrt mit Shared-Storage besser. Die Denke Server 1 macht das und der andere das andere ist zu engstirnig gedacht.
Mal als Beispiel ein Angebot mit SSD Shared Storage ordentlich bumms und RAM. Und das aus 2011. Anbieter war L-Mobile.
Per SAS Angebunden also gleich schnell wie mit lokalen Storage. Quasi ja lokal, da es über einen SAS Switch läuft.



MD 3200 oder DS3300 kann man auch per SAS an bis zu 4 Server anbinden.

---------- Post added at 16:31 ---------- Previous post was at 16:24 ----------

Wie groß ist denn die DB?
Theoretisch passen in das Gehäuse ja 8-12 Platten.
Dell 400GB SAS SSD stolzer Preis.
 
kannst du mir bitte verraten warum in einen 2HE server keine SSDs reinpassen sollten?
Und mehr RAM für einen DB-Server ist immer gut!

dell r510 mit 8 festplatteneinschüben ist voll mit 8 stck 146gb 15000er sas .... und mehr passt ums verrecken nicht rein ;) genauswenig passt ein langer kontroller rein
die speicherkonfiguration ist so ausgelegt, dass jede cpu volle speicherbandbreite ziehen kann. und wie gesagt, wir hatten in der vorherigen kiste 32kerne/64gb drin ... gebracht hat es rein gar nichts, es liegt an der dämlichen seriellen abarbeitung mancher queries und denen kann man, wie wir es bereits getestet haben, nur durch io/s entgegenwirken.

---------- Post added at 15:28 ---------- Previous post was at 15:25 ----------


Kommt ne externe Loesung als Storage denn ueberhaupt nicht in Frage?

Wir haben bei uns einige Bezahlbare DS3xxx Boxen von IBM im Einsatz. Passen je Box 12 x 3,5" SAS Platten rein.
Bei uns haengen 450GB @ 15.000 RPM Platten drinne.

Laufen einige VM's darauf und Performancemaeßig sagt mir mein Bauchgefuehl dass die Kiste richtig gut was kann.
Kann dir bei Gelegenheit mal nen paar Werte rauslassen.

Gruß


extern ja, aber ziel ist für mich maximale io/s rauszuholen
am liebsten wäre mir eine pcie lösung mit flashspeicher ala fusion-io

ich befürchte nur die passt entweder nicht rein, oder man braucht einen zusätzlichen molex stromanschluss, der im r510 nicht existent ist und auch nirgends abgegriffen werden kann.

---------- Post added at 15:44 ---------- Previous post was at 15:28 ----------


Die IBM DS3XXX Kisten entsprechen den DELL MD32XX, gleiche LSI Technik drin mit VSA OS.
Ich denke auch, Ihr fahrt mit Shared-Storage besser. Die Denke Server 1 macht das und der andere das andere ist zu engstirnig gedacht.
Mal als Beispiel ein Angebot mit SSD Shared Storage ordentlich bumms und RAM. Und das aus 2011. Anbieter war L-Mobile.
Per SAS Angebunden also gleich schnell wie mit lokalen Storage. Quasi ja lokal, da es über einen SAS Switch läuft.

...

MD 3200 oder DS3300 kann man auch per SAS an bis zu 4 Server anbinden.

---------- Post added at 16:31 ---------- Previous post was at 16:24 ----------


Wie groß ist denn die DB?
Theoretisch passen in das Gehäuse ja 8-12 Platten.
Dell 400GB SAS SSD stolzer Preis.

die datenbank hat 50gb
der cube ist round about 90 gb gross
reporting, analysis je ca. 20gb

ich sehe nur die möglichkeit, zumal wir sie erfolgreich getestet haben, über pci-e und flash ... oder eine vergleichbare lösung wie lsi fatpath und externe ssd's

leider benötigen die meisten pci-e flashdrives eine zusätzliche stromquelle ... ich hab mir in der ... kiste einen wolf gesucht, und nichts -ohne zu löten- gefunden wo ich mir einen molex "klauen" kann (ausnahme lüfteranschluss)
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Ich würde eher sagen, dass das Design der Anwendung einfach für'n Arsch ist.

Was macht die Datenbank, dass ihr die IOPS ausgehen? IO-lastig heißt immer, dass irgendwas am Design/Implementierung faul ist. Ist es eine OLTP-Anwendung oder DateWarehouse?
 
Ich würde eher sagen, dass das Design der Anwendung einfach für'n Arsch ist.

Was macht die Datenbank, dass ihr die IOPS ausgehen? IO-lastig heißt immer, dass irgendwas am Design/Implementierung faul ist. Ist es eine OLTP-Anwendung oder DateWarehouse?

Das würde ich so auch unterschreiben, denn 50GB ist ja keine DB-Größe. Insbesondere wenn es mit 64GB Ram auch nicht besser lief. ( Aber ggf. reicht da ja nicht nur den Ram einbauen, man muss auch die DB so konfigurieren, den RAM auch zu nutzen)
Der TS mag dazu aber nix mehr hören. Muss man dann akzeptieren. Aber jeder gute DB/HW Berater würde hier sagen, mit HW sind 20-30% machbar, mit DB /Anwendungstuning je nach Anwendung 2-300%.
Das der (OLAP) Cube aber größer als die PROD-DB ist? Unsere Cubes sind mindestens Faktor 10 kleiner.
 
wir hatten bereits vor 2 jahren auf das mangelhafte design der Datenbank hingewiesen und kommen nicht weiter,
da es sich um das führende System (warenwirtschaft) handelt. der Server bedient nur in ganz geringem umfang die anfragen aus dem cache
ich bin nun nicht der hersteller der warenwirtschaftssoftware und habe auch nur im geringen umfang "druckmittel" entwicklungstechnisch einzugreifen,
somit bleibt mir nichts anderes übrig, als das beste daraus zu machen. stunk bzgl. des db designs habe ich oft genug gemacht; ich hab sogar einen weiteren externen dienstleister hinzugeholt der im prinzip das ganze noch einmal festgestellt und bestätigt hat... konstruktiv ist rein gar nichts dabei raus gekommen.

ich will die diskussion über das datenbankdesign nicht abwürgen, nur sind mir leider die hände gebunden/mittel ausgegangen. ohne frage ist das design ... na sagen wir mal vorsichtig ... nur suboptimal,
aber was kann ich tun, wenn queries seriell und nicht aus dem cache bedient werden. das ding schreibt ständig kleine blöcke auf die datenbank und dann kommen noch ein paar helden, die auf ean ebene auswertungen nicht gegen das dwh sondern auf der produktivdatenbank fahren :stupid:

wir hatte lediglich im zuge einer "breinigung" festgestellt, dass unser testsystem mit einer supertalent raiddrive gs alle server, selbst die des herstellers, um 40% abgehängt hat (statt 55h hat das ganze nur 32,5h gedauert) daher sind wir überhaupt erst auf die idee gekommen.
btw. die supertalent karte passt nicht in den r510 ... das habe ich bereits versucht.

@chomber
du meinst Intel/Kingston e-mlc/slc an einem schrabbligen h700/1gb würden es bringen?
fusio-io wird von ocz gefertigt? und etwa auch die firmware dafür? :sick: :wall:

ich glaube ich pack meinen alten 5 Kanal scsi aus und klemm 30x 9gb 15000er Ultra wides im raid 10 dran ... dann müsste der scsi bus ausgereizt sein :asthanos:
 
@b.a. ok, mit dem Fusion lag ich falsch, mit dem Revo-drive verwechselt. Das Fusion-io kommt von IBM.
Aber vielleicht bringt ja auch das Cache-Cade vom H700 etwas?
http://www.dell.com/downloads/global/products/pedge/en/perc-h700-cachecade.pdf

folgende Links sind vielleicht auch hilfreich:
Preiswerte SSD mit H700 MODELCAR.HK » How to Get Consumer Grade SSD to Work in Dell Poweredge R710!
SAS vs SATA SSD: http://www.principledtechnologies.com/Dell/R710_drive_options_Iometer.pdf
h700 Thread hier im Forum: http://www.hardwareluxx.de/community/f15/dell-perc-h700-sas-sata-pcie-sammelthread-819607.html
 
dell r510 mit 8 festplatteneinschüben ist voll mit 8 stck 146gb 15000er sas .... und mehr passt ums verrecken nicht rein ;) genauswenig passt ein langer kontroller rein
die speicherkonfiguration ist so ausgelegt, dass jede cpu volle speicherbandbreite ziehen kann. und wie gesagt, wir hatten in der vorherigen kiste 32kerne/64gb drin ... gebracht hat es rein gar nichts, es liegt an der dämlichen seriellen abarbeitung mancher queries und denen kann man, wie wir es bereits getestet haben, nur durch io/s entgegenwirken.
Hallo, du wirst definitiv eine Downtime haben, also kauf die ein paar Intel SSD 3700 oder eine Seagate Pulsar XT.. Mach ein Backup der aktuellen Festplatten, bau sie aus, bau die SSDs ein, formatiere sie und spiel das Backup wieder ein, dann sollte alles wie gewohnt weiter laufen.. es gibt auch eine dirty-Lösung, da du ein Raid hast, kannst du auch einfach eine HDD rausnehmen eine SSD einbauen, warten bis diese gesynct sind und dann nach und nach die anderen tauschen, hat den vorteil das diese keine downtime hat..
 
Wie sieht die CPU-Auslastung aus und habt ihr ein Testsystem bei dem ihr die Datenbank mal vollends im Ram laufen könntet? Selbst für Windows Server gibt es etwas teurere Ramdisk-Software. 64-256GB sind bei aktuell ~2TB maximalem Ramausbau nun wirklich kein Problem mehr. Wenn dir noch etwas an der Sicherheit liegt, nimm ein ggf. etwas älteres System bei dem man den Ram auch per Hardware spiegeln (Raid1) kann. Diese gibt es gebraucht von Händlern je nach alter und Ausstattung zwischen 1000 und 20000 Euro.
 
Was ist das denn für ein Warenwirtschaftssystem?
 
@chomber
danke dir schon mal für die links. laut meinen informationen direkt von dell, müssten wir unseren h700 austauschen, da der das angeblich noch nicht unterstützt - selbst mit bios/firmwareflash nicht

@colttt
das ist schon klar ... daher haben wir ja 2 identische systeme, damit im notfall der eine übernehmen kann. auf das dwh können wir notfalls auch mal für einen tag verzichten ...
sas ssd an einem nicht optimierten h700, eher weniger

@bluesunset
die meiste zeit ca. 8-12%, wenn eine dieser queries kommt ... 40% bis volllast vom sql server auf allen kernen
unser aktueller testserver ist ein pe2950 16gb/8kerne, also max. 32gb ... den alten sql server habe ich zum virtualisierungsserver umgebaut und in betrieb genommen, steht also adhoc nicht zur verfügung.
aber eine gute idee, die db in den ram auszulagern ... auf einer entwicklungsmaschine wäre ich sofort dabei, aber auf einem produktivsystem, das alles (kassen, onlineshop, wareneingang etc.) lahmlegen kann?

@turbocharged
medeas
 
sorry aber was isn ein h700 ?? und warum sollte das nicht gehen?

desweiteren nutzt du ja Win2008.. dort sieht man ja im RessourcenManager sehr gut was gerade wie ausgelastet ist, ob es wirklich an der HDD liegt würdest du dann dort auch sehen..
 
@Coltt: H700= Raid-Controller Modell von Dell.

Das mit dem neuen Controller (für SSD's)scheint aber Unwissen vom Berater zu sein, denn klar unterstützt der SSD:
http://en.community.dell.com/support-forums/servers/f/906/p/19324790/19689719.aspx#19689719
http://www.dell.com/downloads/global/products/pvaul/en/perc-technical-guidebook.pdf kannst ihn ja mal Seite 5 bzw. 12 vor die Füße werfen.


um noch mal auf dein Anfangspost zurück zu kommen : HDD-Config: Raid 1/10/1 und du schreibst 8 HDD. Das heißt ein Raid-1 mit 2 Platten, 1 Raid-10 mit 4 Platten und 1 R-1 mit 2 Platten?
ggf wäre hier ein gesamtes R-50/R10 oder zumindest zwei Raid-10 besser (gewesen).
Einfach um mehr Spindeln und damit I/O's zu haben.

Aber bevor hier an dem Server gedocktert wird, nen R520 mit 48GB RAM, 2x Quad E2407, H710p und 6x200GB SATA SSD im Raid-50 und 5 Jahre Pro-support 4h für 10.5k netto (unverhandelt> Ziel 8-9k).
 
Zuletzt bearbeitet:
die meiste zeit ca. 8-12%, wenn eine dieser queries kommt ... 40% bis volllast vom sql server auf allen kernen
unser aktueller testserver ist ein pe2950 16gb/8kerne, also max. 32gb ... den alten sql server habe ich zum virtualisierungsserver umgebaut und in betrieb genommen, steht also adhoc nicht zur verfügung.
aber eine gute idee, die db in den ram auszulagern ... auf einer entwicklungsmaschine wäre ich sofort dabei, aber auf einem produktivsystem, das alles (kassen, onlineshop, wareneingang etc.) lahmlegen kann?
40% bis 100% CPU-Auslastung bei einem 12kern System spricht nicht gerade für viel Disk IO, eher für größere Berechnungen.
Der Test mit einem extra System und der Datenbank in einer Ramdisk wäre eher dazu gewesen um Disk IO als Flaschenhals auszuschließen.
Acht 146GB 15k rpm 3.5" SAS Platten sind im übrigen nicht gerade aktuell. Die kleinste größe sind (normal) 300GByte mit zwei Magnetscheiben.
Bis auf die etwas geringere IOPs sind die aktuelleren 2.5" 10k rpm SAS Platten mit max. 1200GB aber vorzuziehen.
Ein Raid5 oder 50 bringt keine Vorteile. Bei euch hilft nur ein Raid10 über möglichst alle Disks.

Wegen Produktivsystem und Datenbank im RAM, je nach DBMS werden entsprechende Logdateien mitgeführt, anhand dieser und dem letzten Speicherstand auf den SAS HDDs kannst du den letzten Zustand wieder herstellen. Nebenbei kosten die von mir angesprochenen Systeme mit mehr oder weniger maximalem Speicherausbau neu um die 40-200k Euro. Bei IBM wäre es z.B. ein X3850 M sowieso, Dell, HP und Sun (Oracle) haben auch entsprechende Systeme im Angebot.

Aber das Hauptproblem liegt bei euch wie gesagt bei einem wohl schlecht gewählten Datenbankmodell, es sollte um entsprechende Fremdschlüssel erweitert werden.
 
Kannst Du keine Trace-Files von der DB erstellen? Da sieht man nämlich sehr deutlich, was das Problem ist, ob die DB auf die Platte warten muss oder auf CPU oder Netzwerk.

Bei Oracle kann man sowas sehr leicht erstellen.
 
@Coltt: H700= Raid-Controller Modell von Dell.

Das mit dem neuen Controller (für SSD's)scheint aber Unwissen vom Berater zu sein, denn klar unterstützt der SSD:
Re: Dell certified drives only with PERC H700? - PowerEdge HDD/SCSI/RAID Forum - Servers - Dell Community
http://www.dell.com/downloads/global/products/pvaul/en/perc-technical-guidebook.pdf kannst ihn ja mal Seite 5 bzw. 12 vor die Füße werfen.


um noch mal auf dein Anfangspost zurück zu kommen : HDD-Config: Raid 1/10/1 und du schreibst 8 HDD. Das heißt ein Raid-1 mit 2 Platten, 1 Raid-10 mit 4 Platten und 1 R-1 mit 2 Platten?
ggf wäre hier ein gesamtes R-50/R10 oder zumindest zwei Raid-10 besser (gewesen).
Einfach um mehr Spindeln und damit I/O's zu haben.

Aber bevor hier an dem Server gedocktert wird, nen R520 mit 48GB RAM, 2x Quad E2407, H710p und 6x200GB SATA SSD im Raid-50 und 5 Jahre Pro-support 4h für 10.5k netto (unverhandelt> Ziel 8-9k).

gebe ich dir recht ... es wäre ne massnahme umzukonfigurieren und ein raid 10 über alle 8 platten zu fahren.
einen/zwei neue/n server bekomme ich bei der gf leitung dieses jahr nicht durch ... ich kann nur von unserem "spielgeld" agieren.

die seite 12 hatte ich auch gesehn, angeblich handelt es sich bei unserem h700 um einen der erst verbauten bla bla bla .... war übrigens der technische support und nicht ein distri
wobei wir reden hier über 400 bis 500 € und im gegenzug dazu von 80 personen die unmittelbar betroffen sind und nicht vernünftig arbeiten können... so what!, ich schmeiss einfach einen originalen lsi rein
btw. unser distri hat mich heute kontaktiert ....fushio-io ist für den 510er nicht freigegeben .... haben die sie noch alle?

40% bis 100% CPU-Auslastung bei einem 12kern System spricht nicht gerade für viel Disk IO, eher für größere Berechnungen.
Der Test mit einem extra System und der Datenbank in einer Ramdisk wäre eher dazu gewesen um Disk IO als Flaschenhals auszuschließen.
Acht 146GB 15k rpm 3.5" SAS Platten sind im übrigen nicht gerade aktuell. Die kleinste größe sind (normal) 300GByte mit zwei Magnetscheiben.
Bis auf die etwas geringere IOPs sind die aktuelleren 2.5" 10k rpm SAS Platten mit max. 1200GB aber vorzuziehen.
Ein Raid5 oder 50 bringt keine Vorteile. Bei euch hilft nur ein Raid10 über möglichst alle Disks.



Wegen Produktivsystem und Datenbank im RAM, je nach DBMS werden entsprechende Logdateien mitgeführt, anhand dieser und dem letzten Speicherstand auf den SAS HDDs kannst du den letzten Zustand wieder herstellen. Nebenbei kosten die von mir angesprochenen Systeme mit mehr oder weniger maximalem Speicherausbau neu um die 40-200k Euro. Bei IBM wäre es z.B. ein X3850 M sowieso, Dell, HP und Sun (Oracle) haben auch entsprechende Systeme im Angebot.

Aber das Hauptproblem liegt bei euch wie gesagt bei einem wohl schlecht gewählten Datenbankmodell, es sollte um entsprechende Fremdschlüssel erweitert werden.


es sind sequentielle abfragen über den gesamten datenbestand die das system blockieren, wir haben das ganze gestern wieder schön beobachten können ... webshop fragt lagerbestände ab, aufgrund der selektionsparameter werden aus nahezu allen tabellen kleine blöcke gelesen ... andere queries werden zu diesem zeitpunkt nicht parallel abgehandelt und die cpus gehen auf anschlag, weil sich die abfragen gegenseitig aufschaukeln. zu diesem zeitpunkt wird nichts berechnet, zumindest was ich aus dem sql management studio im aktivitätsmonitor erkennen kann. die meiste zeit aber "dümpelt" der server mit 3-8% cpu last nur vor sich hin


@colttt
den leistungsmonitor lasse ich mittlerweile prinzipiell mitlaufen, schon um argumentationsgrundlagen zu haben.
ich bin ja schon am überlegen ob ich nicht unser testsystem reaktiviere und zum produktivsystem mache, ich trau nur den mlc's auf dem raiddrive keine langfristige produktionszeit zu.
 
Dann anders: ein R320 mit 2x 200GB R1 SATA SSD liegt bei 5000€ mit 16GB RAM 1x8 Core Xeon. Mit 6Core knapp 800€ weniger.
Zusammengefasst: 1 SSD mit nem alten PE 2950 schafft 40% mehr wie SAS 15K Platten.. ok, fast zu erwarten.
in den jetzigen R510 passen keine SSD's rein, oder zumindest nicht supported. Blöd, aber wenn es so ist?!

80 Leute sind betroffen bzw. beschweren sich über den Speed. Na wenn man da keine Prios bei der GF setzen kann? Dell übrigens bietet auch Mietkauf an.
Grundsätzlich ist diese wohl noch nicht virtualisierte Umgebung (bei der Userzahl) recht selten geworden.
Beispiele:
-Fällt einer der Server aus, können 80 User X Stunden nicht arbeiten. Und selbst bei 4h Pro-Support heißt das nur, die 4h laufen ab dem Moment, wo Dell sagt, jetzt muss getauscht werden. Da spreche ich aus eigener leidvoller Erfahrung.
- Die r510 haben nur 1 NT > Ausfall, Serverausfall.
- Schon mal berechnet, was dem Unternehmen die 80 nicht arbeitenden User pro Stunde kostet bzw. welchen Umsatz die dann nicht erwirtschaften können?

Wir haben mitte 2009 für 2xDell R610, je 2xE5540, 16gb RAM, Dual-Controller MD3000i mit 12x 146GB 15K SAS Platten, ISCSI Switch, Win 2008 Enterprise,VMWARE 3.5 sowie Vranger, 3000er USV und dazu nen R200 zum Verwalten in Summe 30.000€ per Mietkauf bezahlt. Sicher nach guten /langen Verhandeln. (Wettbewerbsangebote, zog sich über 1-2 Monate) Mit 5 Jahre Pro Support.
Je 1 Server kann mir abrauchen und die Storage ist Dual Controller.
Schon alleine aus diesem Grund hätten sich die zwei Server mit genug Ram für Virtualisierung angeboten.

Passen den SAS Expander rein? Sprich um externe SAS Geräte anzubinden?
HP StorageWorks P2000 SAS Storage SAN 24 x 256GB SSD SATA 6Gb/s /3 Year Warranty | eBay
Einfach mal dem Dell Berater vor die Füße werfen, ob sie dir was ähnliches anbieten können. je 2 SAS Controller in die R510 und keine Speed-Sorgen mehr.
 
@chomber
du meinst Intel/Kingston e-mlc/slc an einem schrabbligen h700/1gb würden es bringen?
fusio-io wird von ocz gefertigt? und etwa auch die firmware dafür?
Wenn ihr ernsthaft über eine Fusion-IO nachdenkt, dann sollte ausreichend Geld vorhanden sein einen neuen Server zu kaufen.

Wenn es Dell sein soll, würde sich der R720 anbieten. Da gibt es gleich ab Werk diverse Server SSD Optionen.
 
Dann anders: ein R320 mit 2x 200GB R1 SATA SSD liegt bei 5000€ mit 16GB RAM 1x8 Core Xeon. Mit 6Core knapp 800€ weniger.
Zusammengefasst: 1 SSD mit nem alten PE 2950 schafft 40% mehr wie SAS 15K Platten.. ok, fast zu erwarten.
in den jetzigen R510 passen keine SSD's rein, oder zumindest nicht supported. Blöd, aber wenn es so ist?!

80 Leute sind betroffen bzw. beschweren sich über den Speed. Na wenn man da keine Prios bei der GF setzen kann? Dell übrigens bietet auch Mietkauf an.
Grundsätzlich ist diese wohl noch nicht virtualisierte Umgebung (bei der Userzahl) recht selten geworden.
Beispiele:
-Fällt einer der Server aus, können 80 User X Stunden nicht arbeiten. Und selbst bei 4h Pro-Support heißt das nur, die 4h laufen ab dem Moment, wo Dell sagt, jetzt muss getauscht werden. Da spreche ich aus eigener leidvoller Erfahrung.
- Die r510 haben nur 1 NT > Ausfall, Serverausfall.
- Schon mal berechnet, was dem Unternehmen die 80 nicht arbeitenden User pro Stunde kostet bzw. welchen Umsatz die dann nicht erwirtschaften können?

Wir haben mitte 2009 für 2xDell R610, je 2xE5540, 16gb RAM, Dual-Controller MD3000i mit 12x 146GB 15K SAS Platten, ISCSI Switch, Win 2008 Enterprise,VMWARE 3.5 sowie Vranger, 3000er USV und dazu nen R200 zum Verwalten in Summe 30.000€ per Mietkauf bezahlt. Sicher nach guten /langen Verhandeln. (Wettbewerbsangebote, zog sich über 1-2 Monate) Mit 5 Jahre Pro Support.
Je 1 Server kann mir abrauchen und die Storage ist Dual Controller.
Schon alleine aus diesem Grund hätten sich die zwei Server mit genug Ram für Virtualisierung angeboten.

Passen den SAS Expander rein? Sprich um externe SAS Geräte anzubinden?
HP StorageWorks P2000 SAS Storage SAN 24 x 256GB SSD SATA 6Gb/s /3 Year Warranty | eBay
Einfach mal dem Dell Berater vor die Füße werfen, ob sie dir was ähnliches anbieten können. je 2 SAS Controller in die R510 und keine Speed-Sorgen mehr.

du hast aber schon richtig gelesen?
wir haben 2 identische server, gleiche konfig gleicher sql und gleicher patchstand .... das heisst 100% redundanz ... jeder der beiden kann im notfall zu 100% übernehmen. des weiteren haben wir 2 testserver und ... na sagen wir mal noch 6 weitere sql server, die ebenfalls im notfall übernehmen können. das bedeutet im k-fall (getestet und ja ich weiss was k-fall bedeutet) 10 min für das letzte backup und die transaction logs
und weil es so schön ist .... ich weiss ja nicht welche r510 du gesehen hast, unsere haben redundanten netzteile :popcorn:
und nur mal so, es ist zwar ein popliger pe2950 aber es ist keine herkömmliche ssd, sondern eine pcie hardware raid karte die mal eben 80000 iops im raid 5 macht.

in den r510 sind 2 pcie x8/x4 steckplätze frei, und wenn es drauf ankommt schmeiss ich die dualport lan karte raus und dann habe ich 3 pcie x8/x4 frei. also raidkontroller oder expander sind kein grosses problem, nur dürfen sie keinen strom benötigen, denn den kann ich, wenn überhaupt, nur an den lüfteranschlüssen abgreifen :wall::fresse:

@jdl
ich kann immo eher 6000 für ne fushion begründen, als noch einen server, da wir gerade eben erst 3 server (darunter ein 720er) angeschafft haben. den 720er können wir leider nicht nehmen, der hätte zwar 16 platten (im raid 10) drin, aber nur 6 kerne und 16gb
 
Zuletzt bearbeitet:
Nur ein Netzteil in euren pe2950 Servern und wohl auch keine redundante USV-Anlage spricht auch leider gegen einen maximalen RAM Ausbau.
Den Storage könntest du auslagern und entweder per iSCSI (10Gbit (dual Port) NICs), FC oder SAS anbinden.
Wenn ihr euch einen kleinen Storageserver mit ZFS als Dateisystem hinstellt könnt ihr z.B. neben einem Raid10 auch ein drei oder n-Wege Mirror aufbauen.
Vier SLC (Intel 530 z.B.?) SSDs im Spiegel dürfte dann wohl deutlich schneller sein als eure bisherige Lösung. Wenn ihr auch noch 64GByte RAM oder mehr verbaut wird vom Dateisystem auch das meiste im RAM zwischengespeichert und muss nicht erst von den "lahmen" SSDs geladen werden.
 
b.a. wieso gleich so agressiv?
Ok, nach 2x nicht redundant habe ich die letzte Konfig bei Dells Tech Sheet zum R610 mit der Info zu redundanten NT wohl überlesen.
Wenn Ihr in 10min das letzte SQL Server Backup inkl. Transact. Log einspielen könnt, um so besser. Ich wollte auch eure RTO nicht in Frage stellen.
Ich hatte es erst so gelesen, ein R510 für Prod DB, einer für DataWarehouse.
Und mit dem Supertalent-Drive, ok ja eine SSD-RAID5 Karte.
Von den verschiedenen anderen Server mal ganz zu schweigen.

Also, Ihr habt euch vorab (Vor Kauf der R510 für diese Konstellation) nicht genau schlau gemacht, welche I/Os ihr braucht bzw. die 1K Platten Raid-10/Raid-1 der R510 bringen. Fakt.
Alles andere ist jetzt eh nur noch viel Geld dem Problem hinterherwerfen. Ob du für diesen Anwendungsfall in diese Semi-Pro Forum mit der Frage richtig aufgehoben bist, ist eh dir Frage. Ich bin dann raus.
 
ich zitiere mich mal selbst:
das war die frage:

hat von euch jmd. mit so einer kombi erfahrung bzw. mit einer vergleichbaren kombi?
lindy 19" 2he storage an 2 sql server mit jeweils einem megaraid sas 9286cv-8ecc
das storage system mit 8 winkom ml-s8 240gb

....

... wenn nicht, auch ok
 
Also sorry Leute, aber bevor ich solche Geschütze auffahre, gehe ich dem Hersteller so lange auf den Sack, dass er das Zeug korrigiert.

Alternativ einen Consultant holen und er soll die DB analysieren und schauen, ob man da mit Indexes und so weiter was machen kann. Über Hardware gewinnt man langfristig gesehen gar nichts.

Ein Beispiel:

Ich habe etliche HP Itanium2 Maschinen hier stehen, mit HP-UX und Oracle 11gR2 drauf. Pro Maschine haben wir ca. 25 DBs, die immer online und im Zugriff sind. Ich habe eine durchschnittliche Last von ca. 0,3. Und wir haben DB Größen von stellenweise 700GB und eine GUI-Anwendung, wo es auf die Antwortzeiten ankommt, oben drauf. Merkste was? Unsere SQLs gehen über mehrere DIN A4 Seiten und beinhalten analytische Funktionen, Partitioning, Baskets, geschachtelte Which-Clauses und so Späße, was Oracle eben so zu bieten hat.

50GB DB Größe ist ein absoluter Witz. Wenn man da Performanceprobleme hat, ist es ein Armutszeugnis.

Die Maschinen sind wie folgt konfiguriert:

  • 4x Itanium2 1,6GHz
  • 64GB RAM
  • 2x 15k 74GB Platten, hier ist nur das Betriebssystem drauf
  • der Storage ist über 2x FC HBA angebunden, 2GBit pro Kanal mit Load Balancing
  • Storage ist eine HP Eva4000

Wir haben ca. 4ms beim Zugriff auf den Storage.

Ich kenne SQL Server jetzt gar nicht. Bei Oracle kannst Du Tracing einschalten und da sagt Dir die DB alles, was Du wissen willst.
  • mit welchen Prädikaten wurde zugegriffen
  • wie ist der Ausführungsplan
  • IO-States
  • Wait-States
  • ...

Da MS SQL ja auch eine Enterprise DB sein will, sollte es dort doch auch möglich sein sowas zu machen.
 
ich zitiere mich mal selbst:
das war die frage:



... wenn nicht, auch ok

also von denen die hier bis jetzt geantwortet haben, anscheinend nicht..
mehr tips und hinweise können wir dir hier jetzt glaube ich auch nicht mehr geben..
wenn du nicht zwingend DELL haben möchtest, kann ich dir die Server von Thomas-Krenn empfehlen die sind sehr gut und die Beratung/Support ist einfach der Hammer, da kann DELL und Co einpacken..(mMn)

btw: Muss es unbedingt MS-SQL sein? würde nicht auch mysql oder besser noch PostgreSQL als DB-Backend gehen? Das ist kostenlos und kann alles und mehr als der MS-SQL-Server..

Da MS SQL ja auch eine Enterprise DB sein will, sollte es dort doch auch möglich sein sowas zu machen.
viele features gehen nur in der Enterprise-Edition..
 
leute, wenn es nach mir geht, baue ich alles auf opensource, unix oder solaris auf, aber leider bin ich nicht bei wünsch dir was ...
die warenwirtschaftssoftware basiert auf .net und erfordert zwingend einen m$ datenbankserver; die software unterstützt ja nicht mal einen cluster, wobei wir ohnehin die enterpriseversion des sql servers einsetzen

ich kann granular auswerten, welche abfrage, von wem, auf welche tabelle gerade welche abfrage durchführt und wo der lock oder was auch immer passiert ... nur nützt mir das nichts, da das datenbankdesign vom hersteller nicht geändert wird bzw. dem zu teuer ist es zu ändern. das einzige, was mir immo möglich ist, die entsprechenden abfragen zu killen

letztendlich geht es mir aber nicht darum das datenbank design zu diskutieren, oder einen schuldigen zu finden, sondern viel mehr geht es mir um eine lösung, die ich selbst beeinflussen kann
ich halte mich stets an henry ford I "suche nicht nach fehlern, suche nach lösungen"

daher habe ich gerade beschlossen das ganze auszuprobieren, wenn nicht doch noch etwas konstruktives zur angestrebten lösung kommt:
d.h. ich werde einen lsi 9286cv-8ecc an ein hp msa50 mit erst einmal 4ssd mit aktivierten fastpath an unserem dwh ausprobieren, dann werde ich ja sehn, in wieweit die angestrebten 160000 iops erreicht werden können und ob es eine performancesteigerung gibt.

gruss und danke für den input
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh