Oswald Regular
OpenSans Regular
Fit und gar nicht fad
Eine große Rundfunkgesellschaft braucht ein leistungsfähiges und reaktionsschnelles Datenarchiv.

Datenarchivierung ist eigentlich kein besonders spannendes Thema. Schon die Definition ist zum Gähnen langweilig:

Datenarchivierung ist die Verlagerung von Daten, die nicht mehr aktiv verwendet werden, auf ein separates Datenspeichergerät, auf dem sie langfristig aufbewahrt werden. Datenarchive bestehen aus älteren Daten, die noch wichtig sind und zur späteren Verwendung benötigt werden. Datenarchive werden indiziert und haben Suchfunktionen, sodass die Daten schnell gefunden und abgerufen werden können. – Definition gemäß Whatis.com

Datenarchivierung wird schon seit mehr als 25 Jahren praktiziert – also nichts Neues. Anders als Social Networking oder iPads eignet sich das Thema kaum für einen angeregten Smalltalk auf Partys. Trotzdem hat die Bedeutung der Datenarchivierung für IT-Abteilungen in den letzten paar Jahren deutlich zugenommen. Warum jetzt?

Dies liegt vor allem an zwei Dingen. Erstens ist der Bedarf nach Datenarchivierung deutlich gestiegen, weil die Regulierung stark zugenommen hat und Unternehmen mehr Daten für wesentlich längere Zeiträume zugänglich machen möchten. Zweitens machen die Vielfalt und die Menge der Daten technisch alles schwieriger – vom Einrichten der Prozesse für die Erfassung der Daten aus verschiedenen Dateien (z. B. XML) und Datenbanken über die physische Speicherung der Daten bis hin zum schnellen Ad-hoc-Zugriff auf die Daten. Das mag nicht allzu anspruchsvoll klingen, aber wenn diese Anforderungen nicht erfüllt werden, kann ein Unternehmen rasch scheitern.

Eine große Rundfunkgesellschaft war mit Herausforderungen dieser Art konfrontiert. In ihrem Fall führten die großen Mengen an Daten, die den Hauptgeschäftssystemen, darunter dem CRM-System (Customer Relationship Management) und dem Abrechnungssystem, jeden Monat hinzugefügt wurden, zu betrieblichen Problemen – Rechnungsläufe dauerten zu lange, und das System reagierte zu langsam, sodass Kundendienstmitarbeiter bei Telefonaten mit Kunden nur eingeschränkt handlungsfähig waren usw. Kurz gesagt hatten die Datenarchivierungsprobleme direkte Auswirkungen auf das Unternehmen, und zwar sowohl für den Kundendienst als auch für die Finanzen. Daher stand die Lösung dieser Probleme weit oben auf der Tagesordnung des Unternehmens.

FRÜHE LÖSUNGEN

Der erste Lösungsansatz, den das Unternehmen prüfte, bestand natürlich darin, die vorhandenen Verarbeitungssysteme mit zusätzlicher Hardware auszubauen und sich dadurch komplett von der Notwendigkeit zur Datenarchivierung zu befreien. Aber angesichts der Datenmenge, die den Datenbanken jeden Monat hinzugefügt wird, wäre dies mit ständigen teuren Upgrades verbunden gewesen und hätte die Situation nicht grundlegend verbessert. Das Problem lag darin, dass die Datenbanken, die die Daten enthielten, aufgrund ihrer internen Architektur nicht linear skalierbar waren. Nach zahlreichen Tests kam das Unternehmen zu dem Schluss, dass die einzige praktikable und kostengünstige Lösung darin bestand, die Datenbanktabellen einfach zu verkleinern. Aufgrund gesetzlicher Auflagen müssen die Daten 7 Jahre gespeichert werden, aber in betrieblicher Hinsicht genügt es, wenn sich die Daten der jeweils letzten 18 Monate auf den Verarbeitungssystemen befinden. Die restlichen Daten können in einem Archiv gespeichert sein. Die überwiegende Mehrheit der Daten (Milliarden von Datensätzen) befindet sich in einigen wenigen „Faktentabellen“, z. B. Tabellen für Abrechnungs- oder Kontaktereignisse. Eine Analyse ergab, dass die Leistung und die Reaktionszeit erheblich verbessert werden können, wenn diese Daten archiviert und von den ursprünglichen Verarbeitungssystemen entfernt werden.

Diese Lösung hatte jedoch einen Nachteil. Viele Tausend Benutzer innerhalb des Unternehmens müssen in Echtzeit auf alle Daten zugreifen können. Die meisten von ihnen sind Kundendienstmitarbeiter, die Reaktionszeiten von weniger als einer Sekunde verlangen. Zudem legt eine andere Benutzergruppe Wert darauf, komplexe vereinte Abfragen durchführen zu können, bei denen Daten aus dem Archiv mit Daten kombiniert werden, die in Verarbeitungs- und Business-Intelligence-Systemen gespeichert sind.

Die Kombination dieser technischen Herausforderungen konnte mit keiner vorgefertigten Lösung bewältigt werden. Das einzige Unternehmen, das alle diese Anforderungen an die Archivierung erfüllen konnte, war Ab Initio.

EXTRAHIEREN DER DATEN VERBUNDEN MIT LEICHTER VERFÜGBARKEIT

Mit dem Co>Operating System® von Ab Initio® erstellten die Entwickler des Unternehmens parallele Anwendungen (sogenannte „Graphen“), mit denen die Milliarden von zu archivierenden Datensätzen aus den Betriebsdatenbanken entladen wurden. Die extrahierten Daten wurden parallel in ein ICFF (Indexed Compressed Flat File)-System von Ab Initio geschrieben. ICFF-Systeme eignen sich hervorragend zur Datenarchivierung, denn sie können Daten im Vergleich zu herkömmlichen Datenbanken um ein Vielfaches schneller laden, aber sie benötigen nur einen Bruchteil des Speicherplatzes. Um Zugriff auf diese Speichergeräte zu gewähren, hat Ab Initio sowohl eine Web-Service-Schnittstelle als auch eine ANSI-SQL-Schnittstelle für Ad-hoc-Abfragen bereitgestellt. Die SQL-Schnittstelle unterstützt außerdem vereinte Abfragen über das Archiv und die Betriebsdatenbanken. Fazit: Eine durchgehende Lösung.

KOSTENEINSPARUNGEN ALS ZUSATZVORTEIL

Das Projekt war für die Rundfunkgesellschaft äußerst erfolgreich. Die Leistung und Reaktionsfähigkeit der Verarbeitungssysteme wurden deutlich verbessert, und die Benutzer können in weniger als einer Sekunde auf Terabytes archivierter Daten zugreifen. Da der größte Teil der Kerndaten sich nicht mehr auf Speicher der obersten Ebene befindet, sondern komprimiert und auf kostengünstigen Festplattenspeicher ausgelagert wurde, hat das Unternehmen zudem beträchtliche Kosten gespart.

Vielleicht hat das vermeintlich fade Thema Datenarchivierung doch seinen Reiz.

English
Français
Español
Sprache:
Deutsch
简体中文
日本語