KI + Datenanalyse
Hand in Hand zum Daten-Management
Dabei gilt es, Daten aus heterogenen Quellen, internen wie externen, zusammenzuführen. Viele Daten-Management-Lösungen legen den Fokus hier allein auf die Fähigkeit, unterschiedliche Daten von A nach B schieben zu können. Neue Marktstudien zum Thema Datenqualität und Stammdatenmanagement, wie sie etwa die Zeitschrift Computerwoche oder das Beratungsunternehmen Pricewaterhouse Coopers (PwC) unabhängig voneinander durchgeführt haben, zeigen hinsichtlich der Kundenanforderungen allerdings deutlich andere Schwerpunkte. So sind sich nach beiden Studien fast alle befragten Entscheider bewusst, dass schlechtes Datenmanagement fatale Folgen für Unternehmen haben kann und dass die Datenqualität zentral für ein effizientes Datenmanagement ist (Computerwoche: 92 Prozent). Laut PwC-Studie sehen dabei 83 Prozent der Befragten die mangelnde Aktualität der Daten als große Herausforderung an. 78 Prozent bemängeln deren Unvollständigkeit und weitere 58 Prozent sehen Defizite bei Korrektheit und Konsistenz. Datenqualität ist demnach auch bei der Integration oder Migration von Daten von entscheidender Bedeutung. Zumindest dann, wenn Daten den unterschiedlichen IT-Systemen in geeigneter Form zur Verfügung stehen sollen. Unter dem Aspekt langfristig solider Unternehmensentwicklung rückt daher ein Datenmanagement immer mehr in den Fokus, das beide Ansätze – Datenintegration und Datenqualität – miteinander verknüpft und in einer übersichtlichen, flexiblen Lösung bereitstellt.
Themen im Artikel
Kosten und Compliance
Unternehmen entstehen unnötige Kosten durch inadäquate Daten. Datenqualität ist beispielsweise die entscheidende Basis für sinnvolle Ergebnisse bei analytischen Business-Applikationen. Fehlerhafte Daten verfälschen die Ergebnisse und begrenzen so die Effizienz jeder Business Intelligence-Lösung. Durch eine Nachbearbeitung entstehen zusätzliche Kosten. Ein weiterer Kostenfaktor sind fehlerhafte und inkonsistente Daten beim Betrieb eines CRM-Systems. Das Spektrum reicht hier von Mailings, die aufgrund falscher Adressen einfach in den Weiten des Netzes verschwinden, über fehlerhafte Rechnungen oder Rechnungsadressen bis hin zu wichtigen Warensendungen, die den Empfänger nicht rechtzeitig oder gar nicht erreichen. Hinzu kommen Compliance-Anforderungen, deren Nichtbeachtung oder fehlerhafte Umsetzung ein Unternehmen teuer zu stehen kommen. Eine Abmahnung wegen unerlaubter Telefonwerbung – weil Privatkunden versehentlich in eine Marketing-Datenbank aufgenommen werden – kann mehrere Tausend Euro kosten. Bei Verstößen gegen Sanktionslisten geht der Schaden schnell in die Hunderttausende und sogar über die Millionengrenze.
Um solche Risiken im Sinne eines verantwortlichen Compliance-Managements zu minimieren, müssen Lösungen eingesetzt werden, die den Anforderungen und der Komplexität der jeweiligen Geschäftsprozesse Rechnung tragen. Die Bandbreite der Aufgaben reicht hier von der periodischen Integration und Qualitätssicherung bei kleineren externen Datenbeständen bis hin zum kontinuierlichen Monitoring und der Synchronisation heterogener Daten aus unternehmensweiten Systemen. Sinnvoll ist also eine modular aufgebaute, skalierbare Lösung, die eine ganzheitliche Sicht auf den gesamten Datenlebenszyklus ermöglicht, ohne die Bedürfnisse des Unternehmens aus den Augen zu verlieren. Hier setzt professionelles Daten-Management an.
Ein effektives Daten-Management-Konzept implementiert alle dafür notwendigen Datenqualitäts-Funktionen: Analyse, Standardisierung, Cleansing, Matching, Monitoring und Anreicherung. Es bietet umfangreiche ETL-Funktionalitäten (Extraktion, Transformation, Laden) für Quell- und Zielsysteme und ist durch Anbindung an alle gängigen Applikationen und Plattformen universell einsetzbar. Workflows lassen sich in solch einer Lösung umfassend abbilden und reproduzieren. Um die analytischen Geschäftsprozesse effizient zu gestalten, werden gemeinsame Metadaten-Repositories angelegt.
Grundlage: Ein Daten-Management-Konzept
Veränderte Compliance-Regeln und Richtlinien zu implementieren und zu überwachen, muss ad-hoc ebenso möglich sein wie in periodischen Abständen. Gleiches gilt für die Organisation von Datenqualitäts- und Datenintegrations-Aufgaben. Gerade umfangreiche Batchprozesse sollten aus Performancegründen in einem Scheduler angelegt und automatisiert zu bestimmten Zeiten abgearbeitet werden können. Um all diese Anforderungen zu managen, bedarf es zudem einer einheitlichen und bedienerfreundlichen Arbeitsoberfläche. Außerdem sollte die Daten-Management-Lösung modular aufgebaut sein. So trägt sie den unterschiedlichen Anforderungen der Anwender Rechnung.
Prinzipiell lassen sich dabei vier Anwendungs-Szenarien ausmachen: Datenintegration, Datenmigration und -konsolidierung, Datensynchronisation sowie Datenqualitäts-Initiativen.
In gewachsenen, heterogenen IT-Landschaften besteht sowohl für operative wie für analytische Anwendungen häufig der Bedarf, Daten aus unterschiedlichen Systemen in einem Zielsystem zusammenzuführen. Hier sind Daten aus Quellsystemen zu extrahieren und nach einem Transformationsprozess in ein Zielsystem zu laden. Die Integrationsbedürfnisse reichen dabei von der Zusammenführung einzelner, spezifischer Daten bis hin zur parallelen Bearbeitung riesiger Datenbestände, die in Integrations-Workflows abgebildet werden müssen. Dies betrifft Data Warehouse-Systeme als Basis für Business Intelligence oder für Corporate Performance-Management ebenso wie das Zusammenführen operativer Bewegungsdaten aus Kundensystemen. Datenobjekte werden in den unterschiedlichen Systemen aber oft in abweichenden Formaten gespeichert – das kann an unterschiedlichen Normen zur Speicherung von Daten liegen oder an abweichenden Datenstrukturen, zum Beispiel bei Finanz-, Personal- oder Vertriebsdaten. Eine einfache Zusammenführung durch den reinen Vergleich von Zeichen reicht nicht aus. Hier ist vor der Speicherung der Daten im Zielsystem ein entsprechender Transformationsprozess durchzuführen, der die Daten standardisiert.
Eine effiziente Datenintegrations-Lösung muss daher in der Lage sein, aus den bestehenden Daten und Metadaten der Quell- bzw. Zielsysteme Transformationsregeln abzuleiten. Sie muss außerdem über Konnektoren für den direkten Zugriff auf die Quellsysteme (Dateien, Datenbanken und Applikationen wie etwa CRM oder ERP) verfügen. Außerdem sollte sie Metadaten über die Syntax und Semantik von Quell- und Zieldaten ermitteln und zusammen mit den Workflows für die Datenintegration in einem gemeinsamen Repository speichern können, um wiederkehrende Datenintegrations-Prozesse zu beschleunigen.
Datensynchronisation
Datenmigrations- und Datenkonsolidierungs-Projekte unterscheiden sich funktional kaum von den generellen Anforderungen an klassische Datenintegrations-Projekte. Allerdings ist den erweiterten Ansprüchen im Metadaten-Repository bei der Umsetzung und Einhaltung von Business-Regeln und dem damit verbundenen Reporting Rechnung zu tragen. Hinzu kommen bei Datenmigrations-Projekten, beispielsweise im Rahmen von Unternehmensfusionen, Fragen, wie mit den Altbeständen umzugehen ist: Was muss archiviert werden? Welche und vor allem wie viele Daten müssen in die eigenen Systeme übernommen werden?
Sollen effiziente Datenintegrations- und Datenmigrations-Workflows entstehen, dann muss allerdings sichergestellt werden, dass nur saubere Datensätze vorliegen – frei von Fehlern und Dubletten.
Nur dann ist gewährleistet, dass auch die Daten im Zielsystem fehlerfrei und konsistent sind – zumal sich die Probleme im Zielsystem durch die Übernahme von Daten aus mehreren unbereinigten Quellen noch vervielfachen. Datenintegrations-Lösungen müssen daher mit Funktionalitäten zur Herstellung und Sicherung von Datenqualität kombiniert werden. Erst dann bilden sie die Basis für ein sinnvolles Daten-Management.
Bei der Synchronisation sind in der Regel die zeitnahen Herausforderungen des Stammdatenmanagements zu meistern. Daten werden dabei entweder unidirektional oder bidirektional abgeglichen. Letzteres ist notwendig, wenn Datensätze in heterogenen Systemen bearbeitet und aktualisiert werden. Beide Seiten haben dann die gleiche Berechtigung, aber womöglich unterschiedliche Referenznummern – zum Beispiel eine Kontakt-ID im CRM und eine Debitorennummer im ERP. Datensynchronisationsmodule müssen in der Lage sein, diese Konflikte zu managen, ohne die Integrität der Daten zu gefährden. Zudem besteht teilweise die Notwendigkeit, die Daten zeitnah abzugleichen (Real-Time), um die operativen Geschäftsprozesse nicht zu beeinträchtigen. Datensynchronisationen sind außerdem häufig sehr komplex, da viele unterschiedliche Datensätze zur selben Zeit abgeglichen werden müssen – eine echte Herausforderung für einen performanten Workflow.
Datenqualitäts-Initiativen
Data Quality, das letzte Szenario, ist gleichzeitig auch die notwendige Basis für effiziente Datenmanagement-Projekte in den anderen Szenarien. Die Grundlage für optimale Abläufe in einem Unternehmen sind glaubwürdige, das heißt in allen Aspekten belastbare Unternehmensdaten. Ist diese Voraussetzung nicht erfüllt, ist beispielsweise der Nutzen geplanter Business Intelligence- oder M&A-Projekte mehr als fraglich, Projektbudgets beziehungsweise -laufzeiten werden überschritten oder Projekte scheitern sogar gänzlich. Die Datenqualität hier im Fokus zu behalten reduziert hingegen solche Risiken. Eine allgemeingültige Bewertung der Qualität von Daten ist dabei weder sinnvoll noch möglich. Wichtig ist, dass sich die Daten für den gedachten Zweck eignen, also „fit for use“ sind. Doppelte und fehlerhafte Datensätze im Unternehmen hemmen die Business-Prozesse und stellen alle Aussagen und Entscheidungen in Frage, die auf diesen Daten beruhen. Geeignete Daten-Management-Lösungen sorgen hingegen dafür, die notwendige Datenqualität in allen operativen oder analytischen Business-Applikationen sicherzustellen. Wichtig dabei ist, dass eine einmal erreichte Datenqualität auch regelmäßig überwacht und kontinuierlich gesichert wird. Daten-Management-Lösungen müssen also über Monitoring-Funktionalitäten verfügen, die bestehende, interne Datensätze, aber auch externe Daten überprüfen, entweder „on the fly“ oder periodisch, in regelmäßigen Abständen.
Jedes Unternehmen, das ein umfassendes Daten-Management betreibt, das etwas zur Steigerung der Datenqualität und zur Verbesserung der Datenintegration tut, wird kurz-, mittel- und langfristig positive Effekte bei Produktivität, Flexibilität und Effizienz beobachten. Professionelles Daten-Management bildet die Basis für gesteigerte Leistungsfähigkeit und ein gesichertes Wachstum. -sg-
Uniserv GmbH, Pforzheim Tel. 07231/936–0, http://www.uniserv.com