Werbung
Facebook zählt mit über 950 Millionen Nutzern, wovon täglich rund 550 Millionen aktiv sind, zu den größten sozialen Netzwerken weltweit und führt damit die Liste aller Netzwerke von der Größe her mit großem Abstand an. Dass bei einer solch großen Anzahl an Nutzern auch gewaltige Datenmengen anfallen, liegt auf der Hand. Facebook hat sich diesbezüglich nun erstmals gegenüber US-Journalisten geäußert und einen ein Blick hinter die Kulissen gewährt. Demnach muss die Serverfarm tagtäglich 500 Terabyte an neuen Daten verarbeiten. Jeden Tag kommen rund 300 Millionen neue Fotos und 2,7 Milliarden Like-Klicks zustande. Auch müssen die Systeme mit über 70.000 Datenbankabfragen täglich auskommen. Außerdem scannen die Systeme alle 30 Minuten etwa 105 Terabyte, um aus der gewaltigen Datenmenge weitere Erkenntnisse zu erlagen.
Die daraus gewonnenen Informationen sollen dazu dienen, beispielsweise höhere Klickzahlen bei Werbeanzeigen generieren zu können. Zudem wird bei der Einführung neuer Features geprüft, ob dieses die Verweildauer erhöhen. Der Scan der Daten erfolgt aber auch im Sinne der Nutzer, schließlich will man ihnen weitere Freunde vorschlagen und benötigt hier immer aktuelle Daten. All dies muss nahezu in Echtzeit erfolgen, um ein optimales Nutzungs-Erlebnis bieten zu können.
Aktuell speichert Facebook einen Großteil dieser Daten in einem Hadoop-Disk-Cluster, der mehr als 100 Petabyte umfasst. Genutzt wird hierfür ein einziges Rechenzentrum. Backups und weitere Daten werden in weiteren Rechenzentren abgelegt. Zu guter Letzt versicherte Jay Parikh, Vizepräsident für Entwicklung bei Facebook, dass man eine „Null-Toleranz-Politik“ beim Missbrauch der Daten fahren würde.
Facebook hatte gestern eine neue Version seiner mobilen Smartphone-App vorgestellt.