Best Practices für eine bessere Datenqualität in Unternehmen Ohne Datenqualität scheitern Analyseprojekte
31. Mai 2015Ohne eine optimale Datenqualität kommt es zu Abweichungen oder Fehlern in zentralen Geschäftsprozessen und strategische Big-Data-Analytics-Projekte sind zum Scheitern verurteilt. Eine Korrektur lässt sich nur durch ein systematisches und im idealen Fall unternehmensweites Vorgehen erzielen. Ziel einer Qualitätssteigerung ist es, die relevanten Daten aus den unterschiedlichen Quellen möglichst effizient zur Optimierung von Entscheidungs- und Geschäftsprozessen und letztlich zur Steigerung der Wettbewerbsfähigkeit eines Unternehmens einzusetzen.
Prioritäten setzen
Eine der wichtigsten Voraussetzungen für den Erfiolg von Analytik-Projekten mit großen Datenbeständen ist eine kontinuierlich hohe Datenqualität und -integrität. Welche Maßnahmen die Unternehmen dazu umsetzen sollten, zeigt CGI Deutschland anhand von fünf Best Practices.
Prioritäten für Verbesserungen setzen: In vielen Fällen bietet es sich an, in den Fachbereichen eine Bestandsaufnahme der aktuellen Probleme vorzunehmen. Die Mitarbeiter kennen die Abläufe am besten und wissen, wo die Schwachpunkte der abteilungsübergreifenden Geschäftsprozesse liegen.
So sind beispielsweise Kundendatensätze in den einzelnen Abteilungen unterschiedlich aufgebaut, Daten sind unvollständig, es gibt abweichende Bezeichnungen für Artikel oder in der Materialdatenbank fehlen einzelne Teilenummern. Alle diese Mängel haben unterschiedliche finanzielle Auswirkungen. In einem Projekt zur Verbesserung der Datenqualität empfiehlt es sich dort anzusetzen, wo die Kosten zur Beseitigung am niedrigsten und die monetären Prozessverbesserungen möglichst schnell erreichbar sind.
Verfügbarkeit von Daten maximieren: In sehr vielen Geschäftsprozessen – oder auch für Big-Data-Analytics-Applikationen – werden Daten aus mehreren Quellen benötigt. Meist werden sie automatisiert über individuelle Datenimporte oder ETL (Extract, Transform, Load)-Prozesse mit Daten versorgt. Je mehr Schnittstellen vorhanden sind, desto höher sind Wartungsaufwand und Fehleranfälligkeit. Hier muss im Einzelfall geprüft werden, ob ein Data Warehouse, vereinheitlichte Datentöpfe oder eine logische beziehungsweise virtuelle Datenintegration die bessere Lösung bieten.
Feste Definitionen
Verantwortlichkeiten, Rollen und Regeln definieren: Eine nachhaltige Verbesserung der Datenqualität erfordert Änderungen und Maßnahmen in den Bereichen Technologie, Organisation und Mitarbeiter. Oft gibt es in den Fachbereichen bereits Mitarbeiter, die "ihre" geschäftsprozessrelevanten Daten bis ins Detail kennen und bei Datenqualitätsproblemen konsultiert werden.
Um die Qualität der Daten zu steigern, reicht es oft nicht aus, mit technischen Mitteln Dubletten zu beseitigen oder Lücken in den Datensätzen aufzuspüren und zu schließen. In der Rolle eines Data Steward stellen die Fachexperten geschäftsprozessbezogene Regeln dafür auf, wie die Daten erzeugt und gepflegt werden, sie sind für die Umsetzung und Einhaltung der Vorgaben verantwortlich und passen die Verfahren kontinuierlich an neue Anforderungen an.
Metriken für die Datenqualität aufbauen: Um eine nachprüfbare Wirkung zu erzielen, empfiehlt es sich, konkrete Kennziffern für die Qualität bestimmter Daten festzulegen. Beispiele dafür sind: maximal drei Prozent Fehler in den Kunden- und Artikeldatensätzen, höchstens zwei Prozent in den Adressdaten, nicht mehr als ein Prozent in den Materialdaten oder maximal drei Prozent in Rechnungsrückläufen.
Entscheidend ist, dass die Metriken transparent, messbar und überprüfbar sind, damit die Prozessverantwortlichen Rechenschaft über ihre Aktivitäten ablegen können oder im anderen Fall Maßnahmen zur Abhilfe eingeleitet werden und deren Effekt überprüft werden kann.
Kontinuität
Mechanismen zur kontinuierlichen Verbesserung einrichten: Die Einführung von Datenqualitäts-Management ist kein einmaliges Projekt, vielmehr müssen die Abläufe, Prozesse und Ergebnisse fortlaufend analysiert und verbessert werden. Im Idealfall sollte die Aufgabe dem Regelkreislauf "Plan, Do, Check und Act" folgen. Damit lässt sich sicherstellen, dass die Workflows zur Sicherung des Datenqualitäts-Managements und zur Einhaltung der Datenintegrität einem kontinuierlichen Verbesserungsprozess unterliegen, bei dem es darum geht, ob interne und externe Regeln sowie Vorschriften tatsächlich umgesetzt und neue Anforderungen berücksichtigt werden.
"Unternehmen können das Thema Datenqualität nicht mehr länger aufschieben. In vielen stark regulierten Branchen ergibt sich die Einhaltung einer hohen Datenqualität aus immer mehr gesetzlichen Vorschriften. An der Etablierung eines unternehmensweiten Datenqualitäts-Managements führt damit kein Weg vorbei", sagt Knut Veltjens, Vice President / Practice Head Business Intelligence bei CGI in Sulzbach bei Frankfurt am Main. "Darüber hinaus spielt ein effizientes Datenqualitäts-Management eine wichtige Rolle, wenn es um den Ausbau der Wettbewerbsfähigkeit von Unternehmen geht."
Weitere Informationen gibt es bei CGI.