newbie0815
Neuling
Hi, ich habe mich gerade erst registriert, mein Name spricht also Bände und ich bitte bereits jetzt um Verzeihung
Ich hätte gern eine realistische Einschätzung zur Verhältnismäßigkeit unserer derzeitigen "Ausstattung" (Hardware) bezogen auf das, was sie leisten muss:
Wir sind zu dritt (alles Statistiker mit sehr guten R-Kenntnissen) und bekommen pro Jahr etwa 5 GB Rohdaten aus drei verschienenden Quellen rein. Diese Daten müssen aufbereitet, geprüft und validiert, anschließend miteinander verknüpft und dann parallel analysiert werden. Das geschieht mit Hilfe von ca. 300 eher komplexen und ineinander verschachtelten R-Skripten (die Anzahl der Code-Zeilen variiert dabei zwischen 1 und 1233). Wir produzieren etwa 30 GB an R-Workspace-Dateien, 3 GB an log-files, 30 GB an internem Output (hauptsächlich Tabellen und txt) und 8 GB an tex und pdf Output.
Bisher läuft das Ganze auf einem (virtuellen) Windows Server 2012 R2, Intel Xeon CPU E5-2420 v2 @ 2.20GHz (two sockets, 20 virtual nodes) mit 56 GB RAM. Wir benötigen ca. 20 GB, 10 GB bzw. 15 GB an RAM, um die Jahresdaten aus den drei Quellen zu prozessieren, und stoßen dabei regelmäßig an Grenzen.
Eine Cluster-Lösung zu wählen, wie es in einem universitären Umfeld Gang und Gäbe ist, hieße hier wohl mit Kanonen auf Spatzen zu schießen. Aber gibt es nicht vielleicht eine Alternative dazwischen, die unseren Ansprüchen gerecht wird und dabei bezahlbar bleibt?
Im schlimmsten Fall sind wir - aus Gründen - bei der Wahl eines neuen Servers auf Windows-Lösungen eingeschränkt, das nur am Rande...
Ich bedanke mich für schon jetzt für jeden Kommentar und jede Meinung!
Ich hätte gern eine realistische Einschätzung zur Verhältnismäßigkeit unserer derzeitigen "Ausstattung" (Hardware) bezogen auf das, was sie leisten muss:
Wir sind zu dritt (alles Statistiker mit sehr guten R-Kenntnissen) und bekommen pro Jahr etwa 5 GB Rohdaten aus drei verschienenden Quellen rein. Diese Daten müssen aufbereitet, geprüft und validiert, anschließend miteinander verknüpft und dann parallel analysiert werden. Das geschieht mit Hilfe von ca. 300 eher komplexen und ineinander verschachtelten R-Skripten (die Anzahl der Code-Zeilen variiert dabei zwischen 1 und 1233). Wir produzieren etwa 30 GB an R-Workspace-Dateien, 3 GB an log-files, 30 GB an internem Output (hauptsächlich Tabellen und txt) und 8 GB an tex und pdf Output.
Bisher läuft das Ganze auf einem (virtuellen) Windows Server 2012 R2, Intel Xeon CPU E5-2420 v2 @ 2.20GHz (two sockets, 20 virtual nodes) mit 56 GB RAM. Wir benötigen ca. 20 GB, 10 GB bzw. 15 GB an RAM, um die Jahresdaten aus den drei Quellen zu prozessieren, und stoßen dabei regelmäßig an Grenzen.
Eine Cluster-Lösung zu wählen, wie es in einem universitären Umfeld Gang und Gäbe ist, hieße hier wohl mit Kanonen auf Spatzen zu schießen. Aber gibt es nicht vielleicht eine Alternative dazwischen, die unseren Ansprüchen gerecht wird und dabei bezahlbar bleibt?
Im schlimmsten Fall sind wir - aus Gründen - bei der Wahl eines neuen Servers auf Windows-Lösungen eingeschränkt, das nur am Rande...
Ich bedanke mich für schon jetzt für jeden Kommentar und jede Meinung!