Oswald Regular
OpenSans Regular
Gefahr erkannt, Gefahr gebannt
Zuverlässiger Schutz vor IT-Katastrophen.

Sie erinnern sich sicherlich noch an die Ölkatastrophe im Golf von Mexiko, die 2010 durch einen Unfall auf der Bohrinsel Deepwater Horizon verursacht wurde. In der Berichterstattung über dieses Ereignis wurde immer wieder die große Bedeutung des „Blowout-Preventers“ betont. Hierbei handelt es sich um ein Absperrventilsystem, mit dem ein Blowout, d. h. ein unkontrolliertes Austreten von Erdöl, verhindert werden kann. Ein Blowout-Preventer ist eine mehrere Hundert Tonnen schwere Vorrichtung, die am Meeresboden direkt über dem Bohrloch installiert wird. Im regulären Betrieb fließt das Erdöl aus dem Bohrloch in das Förderrohr der Bohrinsel. Wenn jedoch etwas schiefgeht, betätigt der Blowout-Preventer kräftige hydraulische Schieber, die das Förderrohr zusammendrücken. Falls das nicht ausreicht, wird das Rohr mit der gewaltigen Schneidevorrichtung des Blowout-Preventers zerschnitten. Der Blowout-Preventer wird natürlich nur in Ausnahmesituationen aktiviert. Aber wenn eine solche Situation eintritt, muss er funktionieren, da anderenfalls enorme Schäden drohen.

Glücklicherweise kommen schwere Bohrunfälle nur selten vor. Bei Systemen zur Verarbeitung von Geschäftsdaten sieht das leider anders aus. Hier treten Ausfälle häufig und in vielen Varianten auf, sei es, dass bei einem Stromausfall das Notstromaggregat nicht anspringt; dass Computer abstürzen, obwohl sie redundant konfiguriert sind; dass Festplatten in RAID-Arrays ausfallen; dass jemand versehentlich eine falsche Taste drückt; dass ungültige Daten das System lahmlegen; dass Datenbanken keine Daten mehr aufnehmen oder dass Transaktionen in überlasteten Netzwerken abgebrochen werden … Bei solchen Ausfällen können Sie von Glück reden, wenn das System nur eine Zwangspause einlegt. Wenn Sie jedoch Pech haben wie beim Bohrunfall im Golf von Mexiko, strömen Daten völlig unkontrolliert aus, sodass ein riesiges Chaos entsteht! Dann müssen die Betriebsmitarbeiter die Systeme herunterfahren und versuchen, möglichst viele Daten wiederherzustellen. Und die Wiederaufnahme des Betriebs kann zu einem neuerlichen „Blowout“ führen, also zu noch mehr Datenverlust und noch größerem Chaos.

Auch wenn die Bezeichnung „Blowout“ im Zusammenhang mit IT-Ausfällen nicht üblich ist, beschreibt sie den Sachverhalt in vielen Fällen recht gut. Die Daten strömen überall aus, und das System fällt komplett aus oder ist nur noch eingeschränkt funktionsfähig.

Softwareingenieure bemühen sich seit Jahrzehnten, solche Probleme in den Griff zu bekommen. Aber das Erstellen ausfallsicherer Systeme ist äußerst schwierig, da die Anforderungen von Fall zu Fall stark variieren und die „Software-Blowout-Preventer“ in der Regel individuell entwickelt werden (häufig von Leuten, die keine Experten auf diesem Gebiet sind). Da die Erstellung solcher Systeme mit hohen Kosten verbunden ist, neigen Softwareingenieure gelegentlich dazu, sich auf das Nötigste zu beschränken und darauf zu vertrauen, dass schon nichts schiefgehen wird. Getestet werden diese Systeme oft relativ planlos, da viele Beteiligte nicht genau wissen, wie es zu Ausfällen kommen kann. Schlimmer noch: meist steht ein hohes Maß an Robustheit in direktem Konflikt mit anderen Anforderungen an das Datenverarbeitungssystem, z. B. hoher Leistungsfähigkeit; man kann das eine oder das andere haben, aber nicht beides gleichzeitig. Mit anderen Worten: Je robuster das System ist, desto niedriger ist seine Leistung und umgekehrt. Da die Einhaltung von Geschäftszielen (z. B. bestimmten Leistungsniveaus) wesentlich einfacher nachgewiesen werden kann als der Robustheitsgrad, wird der Robustheit oft eine niedrigere Priorität zugewiesen.

EIN NEUER ANSATZ

Ab Initio hat als Grundprinzip erkannt, dass zur Verhinderung von Datenverarbeitungs-Blowouts ein anderer, umfassenderer Ansatz verfolgt werden muss. Die Ingenieure von Ab Initio haben sich dazu verpflichtet, bei der Softwareentwicklung immer zuerst Mechanismen zu entwerfen, die von Anfang an sicherstellen, dass die Software robust, benutzerfreundlich und leistungsstark ist. Da dieser Ansatz ein integraler Bestandteil der Ab Initio-Software ist, können Benutzer sich ganz auf ihre Geschäftsanforderungen konzentrieren und sich darauf verlassen, dass sie zuverlässig vor IT-Katastrophen geschützt werden.

Wie funktioniert das? Stellen Sie sich eine Ab Initio-Anwendung als eine Abfolge von Verarbeitungsschritten vor, die durch Daten-Pipes miteinander verbunden sind. Durch diese Pipes fließen Daten sehr schnell von einem Schritt zum nächsten. Manche Schritte haben mehrere eingehende und/oder ausgehende Pipes. Über die Pipes wird eine Verbindung zu Datenspeichereinheiten oder anderen Verarbeitungssystemen hergestellt, die Datenströme aufnehmen oder ausgeben. Diese miteinander verbundenen Systeme aus Verarbeitungsschritten und Daten-Pipes können extrem groß sein – wesentlich größer und komplexer als der U-Bahn-Plan von New York!

Der Checkpointmechanismus von Ab Initio besteht aus einem in das Daten-Pipe-Netz integrierten Ventilsystem. In der Regel befindet sich eine Reihe von Ventilen an den Eingängen und Ausgängen des Verarbeitungssystems. An strategischen Punkten innerhalb des Verarbeitungssystems können ebenfalls Ventile positioniert sein. Darüber hinaus können die Ventile (Checkpoints) mit Datenreservoirs ausgestattet sein, in denen eine Kopie der Daten gespeichert wird, bevor die Daten in den nächsten Abschnitt des Systems fließen. Manche dieser Ventile (Checkpoints) können von Benutzern festgelegt werden, andere werden von der Ab Initio-Software automatisch positioniert. Die meisten Ventile sind in der Ab Initio-Software implementiert, einige aber auch in anderen Softwaretechnologien wie Datenbanken und Message-Queues. Das Wichtigste ist, dass alle diese Ventile mit einem zentralen Controller verbunden sind, der alle Öffnungs- und Schließvorgänge der Ventile steuert und präzise synchronisiert. Dieser Controller ist das Co>Operating System von Ab Initio.

Das Co>Operating System ist für parallele und verteilte Hochleistungsverarbeitung sowie für eine maximale Robustheit bei Ausfällen ausgelegt. Während große Datenmengen mit hoher Geschwindigkeit durch die Pipes fließen – über Netzwerke und Server und verbunden mit externen Systemen aller Art –, achtet das Co>Operating System wachsam auf jedes Anzeichen eines möglichen Blowouts.

BEREIT FÜR DEN ERNSTFALL

Da die Ventile vom Co>Operating System stets sorgfältig geöffnet und geschlossen werden, ist das Risiko im Fall eines Blowouts auf die Daten beschränkt, die gerade zwischen den Ventilen fließen. Und da das Co>Operating System eine Kopie der potenziell bedrohten Daten in seinen Datenreservoirs speichert und ständig genau verfolgt, wie viele Daten in das System und aus dem System geflossen sind, kommt es nie zu tatsächlichen Datenverlusten. Sobald die Ursache für den Ausfall behoben ist, sorgt das Co>Operating System nach seinem Neustart dafür, dass die Ausführung der Anwendungen automatisch an den richtigen Stellen fortgesetzt wird. Zu diesem Zweck füllt es die Daten-Pipes wieder mit den richtigen Daten (aus den Datenreservoirs), sodass alles wieder so ist, als hätte es niemals einen Ausfall gegeben. Es gab zwar einen Blowout, aber niemand kam zu Schaden. Es gingen keine Daten verloren und die Arbeit kann weitergehen. Was will man mehr?

PS: Bei der Beschreibung des Checkpointverfahrens wurden zahlreiche Details wie Two-Phase-Commit, Checkpointauslöser, Messageblips, Transaktionsmanager und das XA-Protokoll ausgelassen. Ab Initio kümmert sich um die Details, damit Sie das nicht tun müssen. Und das Beste ist: Es funktioniert einfach.

English
Français
Español
Sprache:
Deutsch
简体中文
日本語