Wie Facebook die Daten von 300 Millionen Nutzern verkraftet

30.000 Server, 25 TByte Logfile täglich und 600.000 Fotos pro Sekunde

Facebook ist groß, in jeder Dimension. Das sagt Jeff Rothschild, Vice President für Technologie bei Facebook bei einer Präsentation an der Universität San Diego und unterlegte dies mit Zahlen. Rothschild erläuterte die Architektur hinter Facebook und sprach über künftige technische Herausforderungen.

Artikel veröffentlicht am ,

Facebook verzeichnet mit derzeit 200 Millionen aktiven Nutzern rund 200 Milliarden Pageviews pro Monat und verarbeitet täglich 3,9 Billionen Feed-Aktionen. Täglich werden mehr als 1 Milliarde Chat-Nachrichten über Facebook ausgetauscht und mehr als 100 Millionen Suchanfragen gestellt. Zudem werden wöchentlich mehr als 2 Milliarden Content-Elemente hochgeladen. Facebook Connect kommt auf mehr als 15.000 Webseiten zum Einsatz.

Inhaltsverzeichnis
  1. Wie Facebook die Daten von 300 Millionen Nutzern verkraftet
  2. Wie Facebook die Daten von 300 Millionen Nutzern verkraftet
  3. Wie Facebook die Daten von 300 Millionen Nutzern verkraftet

Dazu betreibt Facebook aktuell rund 30.000 Server, so Rothschild und betonte den großen Einfluss, den Facebooks Techniker haben: Statistisch betrachtet ist jeder Techniker bei Facebook für rund 1 Million Nutzer zuständig.

Zu den populärsten Applikationen auf Facebook zählt die Foto-Applikation mit derzeit 20 Milliarden Fotos, von denen jedes in vier Auflösungen gespeichert wird. Insgesamt hostet Facebook also rund 80 Milliarden Fotos, wobei monatlich 2 bis 3 Milliarden hinzukommen. Auch die Nachfrage ist groß: Bis zu 600.000 Fotos liefert Facebook pro Sekunde aus.

Haystack - eigenes Dateisystem für Fotos

Dabei hatte Facebook anfangs den Erfolg seiner Foto-Applikation und die damit einhergehenden Herausforderungen unterschätzt, räumt Rothschild ein. So war das System zunächst in zwei Schichten aufgeteilt: Die Upload-Schicht kümmerte sich um die eigentlichen Uploads, skalierte die Bilder und speicherte sie auf NFS-Server. Die Serving-Schicht lieferte die auf NFS-Servern gespeicherten Bilder aus. Dabei kamen kommerzielle NFS-Server zum Einsatz, doch die verfügbaren Dateisysteme waren nicht gut darin, solch große Datenmengen zu verwalten, so Rothschild. Zudem passten die Metadaten nicht in den Speicher, was zu vielen Festplattenzugriffen führte. Letztendlich war I/O das große Problem, nicht die Speicherdichte.

Stellenmarkt
  1. Universität Konstanz, Konstanz
  2. SCISYS Deutschland GmbH, Bochum
  3. Bayern Facility Management GmbH, München
  4. Spiegel-Verlag Rudolf Augstein GmbH & Co. KG, Hamburg

Um dem Herr zu werden, begann Facebook die am häufigsten abgerufenen Bilder zu cachen und über ein CDN auszuliefern. Das Cachesystem entwickelte Facebook auf Basis von Memcached und Lighty.

  1. Wie Facebook die Daten von 300 Millionen Nutzern verkraftet
  1. 1
  2. 2
  3. 3