Datenqualitätsmanagement

Andreas Mühlbauer,

Daten sauber halten

Die Qualität der Daten eines Unternehmens ist direkte Grundlage für Produktivität, zuverlässige Entscheidungen und Kundenzufriedenheit.

Datenqualität ist entscheidend, um valide Aussagen zu ermöglichen und fundierte Entscheidungen zu treffen. © istock/gremlin

Daten sind die DNA eines Fertigungsunternehmens. Ihre Qualität ist entscheidend, um valide Aussagen zu ermöglichen und fundierte Entscheidungen zu treffen. Ein wichtiges Werkzeug dafür ist eine regelmäßige Datenbereinigung. Wer mit einem unternehmensweiten Datenqualitätsmanagement dafür sorgt, dass Stamm- und Bewegungsdaten durchgängig korrekt generiert und fehlerfrei verarbeitet werden, bildet das Fundament für effiziente Datenauswertungen sowie Mehrwert-Services und sichert sich seine Wettbewerbsfähigkeit.

Maschinen, Flurförderfahrzeuge, Roboter – Fertigungsbetriebe investieren in Hunderte von Assets, um Produktqualität und schlanke Prozesse zu gewährleisten. Zu selten gilt allerdings ihr Blick dem Wichtigsten im Unternehmen: den Daten. Diese werden teilweise über Jahre genutzt und sind das Bindeglied über alle Geschäftsprozesse hinweg. Aber wenn Daten nicht „gewartet“ werden, verschleißen sie irgendwann – schleichend und häufig unbemerkt. Die Folgen sind weitreichend und kostenträchtig: Verzögerungen in Produktion und Auslieferung, fehlerhafte Bestandsführung, ungenaue Fertigungsplanung oder unpräzise Geschäftsentscheidungen, um nur einige zu nennen.

Business Intelligence funktioniert nur mit Clean Data

Um diese Beeinträchtigungen zu vermeiden, ist es notwendig, ein Bewusstsein für das Thema Datenqualität und Daten als Unternehmens-DNA zu schaffen. Nur wenn dem Management bewusst ist, dass Business Intelligence erst mit „Clean Data“ funktioniert, lässt sich das strategische Ziel einer sauberen Datenhaltung erfolgreich ins Unternehmen tragen. Das erhöht die Treffsicherheit fundierter Entscheidungen, weil sich Daten aus unterschiedlichen Datenquellen in Kombination mit einer hohen Transparenz über Vertriebscockpits, Dashboards und Reports prüfen lassen und sich so deren Qualität sichern lässt.

Anzeige

Neben dem Management sind ebenso alle Mitarbeiter in Hinblick auf das Potenzial einer hohen Datenqualität zu sensibilisieren. Dabei unterstützen konkrete Zielsetzungen für das Datenqualitätsmanagement beispielsweise stabilere Kundenbeziehungen oder eine höhere Transparenz. Alle Mitarbeiter müssen ein Bewusstsein dafür entwickeln, welche Auswirkungen vermeintlich kleine Ungenauigkeiten bei der Datenerfassung auf die Kosten und ihre Arbeit haben. „Business Intelligence“ beginnt aus diesem Grund bereits auf der Ebene der Logistiker.

Um vorhandene Datenbestände umfassend zu beurteilen, sind neben der IT-Abteilung auch die Fachabteilungen, in denen die Daten entstehen, in die Analyse einzubinden. Denn die Anwender kennen ihre Daten besser als jeder andere. ERP-Hersteller wie ProAlpha fertigen in einem ersten Datencheck einen Report an, der den Kunden die Datenqualitäts-(DQ-)Kennzahlen für ihre bereitgestellten Daten dokumentiert und Hinweise gibt, wie sich die Datenqualität verbessern lässt. Zu Beginn eines jeden Datenqualitätsprojektes ist es außerdem empfehlenswert, die zur Verfügung stehenden Datenbestände anhand gezielter Fragestellungen mit den Verantwortlichen durchzugehen.

Den Status quo der eigenen Datenqualität kennen

Ein entscheidender Ausgangspunkt zur Datenbereinigung ist das Wissen um die tatsächliche Datenqualität. Es dient als Basis für anstehende Meilensteine wie beispielsweise die Machbarkeit von gewünschten Kennzahlen oder die Vorbereitung einer Migration. Für die Erfassung und Abbildung des Ist-Zustandes gibt es wirkungsvolle Analysetools und -verfahren. Damit ist es möglich, vorhandene Probleme mit einem überschaubaren Aufwand zu identifizieren und die Fehlerhäufigkeit zu benennen. In der Regel kommen dabei redundante Stammdaten, unvollständige Datensätze und fehlerhaft erfasste Daten zum Vorschein, aber auch Widersprüche zwischen verschiedenen Datenbeständen. So ist zum Beispiel eine Kompatibilitätsanalyse für die neue Struktur eines Systems wesentlich, um eine Datenmigration vorzubereiten. Mit dieser Analyse lassen sich Inkompatibilitäten in Formaten sowie Wertelängen sofort erkennen und Informationen im Vorfeld ergänzen oder Datenobjekte analysieren, die nicht mit in das neue System übernommen werden müssen.

Der daraus entstehende Ergebnisreport ist ein wichtiger Indikator für ein anstehendes Datenqualitätsprojekt. Auf seiner Basis lassen sich Regeln ausarbeiten, die klare Richtlinien in Hinblick auf die Datenrelevanz und die Vollständigkeit eines Datensatzes vorgeben. Mit einem unternehmensweiten Glossar lassen sich Inhalt sowie Metrik der Dateninhalte beschreiben und für alle Mitarbeiter nachvollziehbar machen. Anhand dieser Merkmale lässt sich der Datenbestand bewerten und definieren, was mit fehler- oder lückenhaften Daten passieren soll.

Einmaliges Datentuning reicht nicht

Ist der Datenschatz bereinigt und poliert, kann das Management sich auf belastbare Informationen aus dem ERP-System verlassen und entsprechend reagieren. Das Projekt der Datenbereinigung darf jedoch keine einmalige Angelegenheit sein – „keep it clean“ lautet der Schlüssel zum langfristigen Erfolg. Um eine einwandfreie Datenqualität auf Dauer sicherzustellen, müssen turnusmäßige Qualitätskontrollen und Datenbereinigungen etabliert werden. Die Grundlage hierfür sind flexible und bedarfsorientierte Regelwerke, mit denen Fehler erkannt und an das Zielsystem, in den meisten Fällen das ERP-System, übergeben werden. Im Anschluss können die Mitarbeiter die Daten direkt bereinigen.

Wie oft die Datenbestände geprüft werden sollen, hängt stark vom jeweiligen Unternehmen und seinen Prozessen ab. Entscheidend ist jedoch die kontinuierliche sowie regelmäßige Überprüfung und Messung des Fortschritts. Damit erzielen Unternehmen gleich zwei Vorteile: Einerseits sorgt ein gutes Datenqualitätsmanagement intern für mehr Produktions- und Prozesssicherheit, wodurch fundierte Entscheidungen sichergestellt werden. Andererseits steigern verlässliche Aussagen über Verfügbarkeiten und Liefertermine die Kundenzufriedenheit und fördern die Zusammenarbeit.

Gunnar Schug, Managing Director der Business Unit Advanced Analytics, ProAlpha

Anzeige

Das könnte Sie auch interessieren

Anzeige

Plug & Produce

Integration interdisziplinärer Daten

Copa-Data präsentiert auf der SPS verschiedene disziplinübergreifende Anwendungsbeispiele der Softwareplattform Zenon. Der branchen- und herstellerübergreifende MTP-Standard unterstützt Unternehmen dabei, ihre Daten aus verschiedenen Disziplinen...

mehr...

Eplan-Plattform 2023

Mehr Tempo im Engineering

Die neue Eplan-Plattform 2023 vereinfacht und beschleunigt die Projektierung mit neuer Cloud-basierter Artikelverwaltung und Multinorm-Unterstützung für Schaltplan-Makros. So kommen Anwender gerade bei internationalen Projekten durch vereinfachtes...

mehr...
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige