• IT-Karriere:
  • Services:

Github: 43 Sekunden ohne Netzwerk führen zu 24 Stunden Ausfall

Bei einer Routinewartung in einem der Rechenzentren von Github ist kurzzeitig die Netzwerkverbindung weggebrochen, was zu einem Ausfall und schlechter Verfügbarkeit einiger Github-Dienste über 24 Stunden sorgte. Das Team konnte zwischendrin deshalb nicht mal seine Nutzer informieren.

Artikel veröffentlicht am ,
Ein Server von Github
Ein Server von Github (Bild: Github)

Der Technologiechef von Github, Jason Warner, beschreibt im Blog des Unternehmens recht ausführlich den Ablauf eines Vorfalls in der vergangenen Woche, der durch die unglückliche Verknüpfung verschiedener Umstände zu einem Teilausfall der Github-Dienste über 24 Stunden geführt hat. Ausgangspunkt war demnach der routinemäßige Wechsel einer 100-GBit-Glasfaserverbindung in einem der Github-Rechenzentren. Der Wechsel führte jedoch für die Dauer von 43 Sekunden zum Abbruch der Netzwerkverbindung, was große Folgen haben sollte.

Stellenmarkt
  1. Stadtverwaltung Eisenach, Eisenach
  2. Bechtle AG, Düsseldorf, Krefeld

Denn der kurzzeitige Netzwerkausfall verursachte Inkonsistenzen in den MySQL-Datenbanken des Betreibers. Zur Verwaltung seiner verschiedenen MySQL-Cluster nutzt Github die eigene Software Orchestrator, die beim Ausfall des Netzwerks genau das machte, was zu erwarten war: Die Orchestrator-Software veranlasste einen Failover der Schreibzugriffe von dem nicht mehr erreichbaren Rechenzentrum an der US-Ostküste zu jenem an der US-Westküste.

Sobald die Netzwerkverbindung jedoch wiederhergestellt worden war, registrierte das System Schreibzugriffe im Rechenzentrum an der US-Ostküste, die nicht an der US-Westküste repliziert worden waren und umgekehrt. Diese Inkonsistenz führte unter anderem zu einigen Problemen mit internen Diensten. Darüber hinaus überlastete die Latenz zwischen den Rechenzentren den Cluster an der Westküste, da nun alle Dienste in dem Rechenzentrum der Ostküste ihre Daten in den Westküsten-Cluster geschrieben hatten.

Sicherung der Daten hat Priorität

Um die Integrität der Nutzerdaten nicht zu gefährden, hat sich das Team schließlich entschlossen, einige Dienste von Github so herunterzufahren, dass diese keine weiteren Daten in den Datenbank-Cluster schreiben können. Betroffen davon waren unter anderem die Webhooks und die Möglichkeit Github-Pages zu erstellen.

Github informierte seine Nutzer zwar kurz über Twitter und die hauseigene Statusseite, konnte allerdings erst Stunden später im eigenen Blog auf das Ereignis näher eingehen. Der Grund dafür ist, dass Github für seinen Blog intern ebenfalls auf die Pages setzt, deren Veröffentlichung aber eigentlich ausgesetzt worden war. Es bedurfte also einer "größeren Anstrengung" den Blog-Post zu veröffentlichen. In Zukunft will Github Vorkehrungen treffen, um schneller reagieren zu können.

Mühsame Wiederherstellung

Das zuständige Team hat zwar einen Plan erstellt, um die Inkonsistenzen in den Datenbanken zu beheben, die Daten ordnungsgemäß zu replizieren und die ursprüngliche Topologie wieder aufzubauen. Doch während dies umgesetzt wurde, begann der Arbeitstag in Europa und später in den USA, so dass die Cluster dann eine deutlich größere Anzahl an Schreibzugriffen verarbeiten mussten. Das wiederum verlangsamte jedoch den Wiederherstellungsprozess.

Betroffen waren davon laut dem Blogeintrag etwa fünf Millionen Webhook-Ereignisse und rund 80.000 Pages-Builds. Erst etwas mehr als 24 Stunden nach dem Beginn des Ausfalls waren sämtliche ausstehenden Wiederherstellungsarbeiten abgeschlossen und die Github-Dienste konnten wieder normal arbeiten.

Derzeit untersucht das Team noch knapp 1000 Schreibzugriffe, die möglicherweise nicht richtig von Github verarbeitet worden sind und so zu einem Datenverlust geführt haben könnten. Davon betroffene Nutzer haben ihre Aktionen jedoch zwischenzeitlich einfach wiederholt und so sicher durchführen können. Durch eine detaillierte Analyse will das Team außerdem noch herausfinden, welche dieser Zugriffe noch automatisiert wiederhergestellt werden können und für welche das Team betroffene Nutzer explizit kontaktieren muss.

Darüber hinaus will Github künftig systematisch verschiedene Fehlerszenarien testen und in sogenanntes Chaos-Engineering investieren.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Spiele-Angebote
  1. 59,99€
  2. (-67%) 19,99€
  3. (-72%) 8,50€
  4. 13,99€

dominikp 24. Dez 2018

Dann würde ja gar nichts mehr bei denen funktionieren ^^ - Verbidnung fehlgeschlagen...

Baladur 12. Dez 2018

Du hast eher nicht so verstanden was überhaupt passiert ist, und das die Erwähnung von...

mhstar 08. Nov 2018

Ja, das gibts. Ja, das ist ein gelöstes Problem (STONITH / Fencing). Blöd nur wenn man...


Folgen Sie uns
       


Silent Hill (1999) - Golem retro_

Wir haben einen Ausflug ins beschauliche Silent Hill gemacht - und ins Jahr 1999.

Silent Hill (1999) - Golem retro_ Video aufrufen
Verkehr: Das Kaltstart-Dilemma der Autos mit Hybridantrieb
Verkehr
Das Kaltstart-Dilemma der Autos mit Hybridantrieb

Bei Hybridautos und Plugin-Hybriden kommt es häufiger zu Kaltstarts als bei normalen Verbrennungsmotoren - wenn der Verbrennungsmotor ausgeht und der Elektromotor das Auto durch die Stadt schiebt. Wie schnell lässt sich der Katalysator vorwärmen, damit er Abgase dennoch gut reinigen kann?
Von Rainer Klose

  1. Elektroautos EU-Kommission billigt höheren Umweltbonus
  2. Elektroauto Jaguar muss I-Pace-Produktion mangels Akkus pausieren
  3. 900 Volt Lucid stellt Serienversion seines Luxus-Elektroautos vor

Generationenübergreifend arbeiten: Bloß nicht streiten
Generationenübergreifend arbeiten
Bloß nicht streiten

Passen Generation Silberlocke und Generation Social Media in ein IT-Team? Ganz klar: ja! Wenn sie ihr Wissen teilen, kommt am Ende sogar Besseres heraus. Entscheidend ist die gleiche Wertschätzung beider Altersgruppen und keine Konflikte in den altersgemischten Teams.
Von Peter Ilg

  1. Frauen in der Technik Von wegen keine Vorbilder!
  2. Arbeit Warum anderswo mehr Frauen IT-Berufe ergreifen
  3. Arbeit Was IT-Recruiting von der Bundesliga lernen kann

Unitymedia: Upgrade beim Kabelstandard, Downgrade bei Fritz OS
Unitymedia
Upgrade beim Kabelstandard, Downgrade bei Fritz OS

Der Kabelnetzbetreiber Unitymedia stellt sein Netz derzeit auf Docsis 3.1 um. Für Kunden kann das viel Arbeit beim Austausch ihrer Fritzbox bedeuten, wie ein Fallbeispiel zeigt.
Von Günther Born

  1. Hessen Vodafone bietet 1 GBit/s in 70 Städten und kleineren Orten
  2. Technetix Docsis 4.0 mit 10G im Kabelnetz wird Wirklichkeit
  3. Docsis 3.1 Magenta Telekom bringt Gigabit im Kabelnetz

    •  /