Sieben Kriterien zur Beurteilung der DatenqualitätGut oder schlecht – Datenqualität richtig eingeschätzt

18. April 2019

Das Qualitätsmanagement für Stamm- und Bewegungsdaten gehört zu den Top-Themen im Mittelstand. Grund dafür sind Trends wie Digitalisierung und Industrie 4.0. Um die Datenqualität eines Unternehmens hinreichend beurteilen zu können, rät der ERP-Hersteller proALPHA, sieben Kriterien heranzuziehen.

Viele Unternehmen haben in der Vergangenheit ihre Datenqualität vernachlässigt, aus unterschiedlichen Gründen. Dass ihre ERP-Systeme dadurch nicht optimal agierten, war ihnen nicht bewusst oder nahmen sie billigend in Kauf. Mit der Digitalisierung der Prozesse und dem rasanten Aufstieg von Künstlicher Intelligenz (KI) wird dies noch zu einem größeren Risiko. Denn es ist wissenschaftlich hinreichend belegt: Eine schlechte Datenqualität beeinflusst Effizienz und Ergebnis, auch bei KI-Systemen wie selbstlernenden Maschinen. Für viele Firmen wird es Zeit, aktiv zu werden.

Anzeige
it clientmanagement ad

Der ERP-Hersteller proALPHA rät, Daten einem siebenstufigen Leistungstest zu unterziehen – und zwar eigene Bestände genauso wie Informationen aus anderen Quellen, etwa von Wirtschaftsauskunfteien und anderen Drittanbietern. Die entscheidenden Performance-Parameter sind:

  • Vollständigkeit: Fehlen Informationen, ist das mehr als nur ärgerlich. Je digitalisierter Abläufe werden, umso wichtiger ist es, dass sämtliche benötigen Daten vorliegen. Sind beispielsweise Angaben zu den Bauteilen für ein Produkt unvollständig, stockt möglicherweise der Produktionsprozess oder das Endprodukt entspricht nicht den Vorgaben. Um die Performance der Geschäftsprozesse sicherzustellen, empfehlen sich die Definition von Pflichtfeldern sowie automatisierte Prüfungen an ausgewählten Prozesspunkten. Unternehmen sollten dennoch nicht in „Datensammelwut“ verfallen. Denn bei personenbezogenen Daten gilt seit Inkrafttreten der Datenschutzgrundverordnung (DSGVO) das Gebot der Sparsamkeit: Es dürfen nur so viele Informationen gespeichert werden, wie tatsächlich nötig sind. Nicht mehr erforderliche Daten sind nachhaltig zu löschen.
  • Aktualität: Nicht-synchronisierte Adress- und Kontaktdaten sind ein Paradebeispiel für veraltete Informationen. Gerade weil Vertriebsmitarbeiter nur sporadisch in der Zentrale vorbeischauen, war in der Vergangenheit die Kundendatenbank nie auf dem aktuellen Stand. Mobile CRM-Lösungen sorgen hier für Abhilfe. Sie halten zudem auch so produktionskritische Informationen wie Lagerdaten auf Stand. Dennoch muss nicht jeder Status in Echtzeit vorliegen. Unternehmen sollten vielmehr ihre Prozesse einem Check unterziehen, wo eine schnellere Datenbereitstellung für mehr Produktivität sorgt und genau dort ansetzen.
  • Konsistenz: Datensätze in verschiedenen Systemen dürfen sich nicht widersprechen. In der Praxis führen eine doppelte Datenhaltung in mehreren Datensilos und manuelle Übertragung im besten Fall „nur“ zu Mehraufwand für die Dateneingabe. Im schlimmsten Fall entstehen Fehler, etwa beim Übertrag der Auftragsdaten in eine Software für Qualitätssicherung. Daraus resultierende Inkonsistenzen sind heute, dank moderner Integrationstechniken, relativ einfach in den Griff zu bekommen.
  • Konformität: Daten müssen den Anforderungen der Systeme und der Prozesse entsprechen, zum Beispiel im passenden, möglichst standardisierten Format vorliegen. Datums- und Währungsformate sind hier Klassiker. Bei Zeitstempeln ist ferner darauf zu achten, dass zusätzlich zu Stunden und Minuten auch die jeweilige Zeitzone miterfasst wird. Schließlich liegen zwischen 8 Uhr in Shanghai und 8 Uhr in São Paulo zwölf Stunden Zeitunterschied.
  • Genauigkeit: Daten müssen genau sein. Genauer gesagt: Sie müssen ausreichend genau sein. Denn nicht jeder Geschäftsprozess benötigt Hochpräzisionsdaten bis auf die x-te Kommastelle. Auch hier sollten sich Unternehmen zuerst fragen: Wie exakt müssen Messwerte und andere Daten sein? Die benötigte Genauigkeit sollte dann auch systemseitig durch entsprechende Regeln und Datenprüfungen nachgehalten werden.
  • Einzigartigkeit: Dubletten blähen nicht nur den Datenbestand unnötig auf. Sie sorgen auch für unnötige Rückfragen. Bleiben sie unentdeckt, kommt es schnell zu Fehlinterpretationen. Zum Beispiel, wenn ein Lieferant mehrere Lieferantennummern hat und dadurch Kennzahlen wie das Vertragsvolumen für Rabattverhandlungen nicht aggregiert werden. Redundante Daten aus einem Bestand herauszufiltern, geht bereits mit Bordmitteln eines Tabellenkalkulationsprogramms. Jedoch schleichen sich so Dubletten immer wieder ein und die Arbeit beginnt von vorn. Ein automatisierter Data Quality Manager bietet einen nachhaltigeren Weg zu sauberen Daten.
  • Richtigkeit: Dieses Kriterium verweist neben der Aktualität auf einen weiteren, wesentlichen Aspekt: nämlich die Richtigkeit, die Verlässlichkeit der Daten. Die aktuelle Diskussion um Fake News unterstreicht dies einmal mehr: Eine „topaktuelle“ Information über ökonomische Schwierigkeiten eines Zulieferers muss nicht zwingend korrekt sein. Die Quellen, aus denen Unternehmen geschäftsrelevante Informationen beziehen, müssen also nachvollziehbar und glaubwürdig sein.

Das Verhältnis der Unternehmen zu ihren Daten ist oft zwiespältig: An einigen Stellen, etwa im Vertriebs- oder Finanzbereich, wird ihrer Qualität teilweise offen misstraut, an anderen Stellen, zum Beispiel in der Produktion, wird die Qualität oft überschätzt. Ein nachhaltiges Qualitätsmanagement für Daten hilft in dreierlei Hinsicht:
Es bewahrt vor kostspieligen Fehlern, erhöht das Vertrauen in die eigenen Daten und ermöglicht bessere Entscheidungen.

Vor allem aber helfen richtig gemanagte Daten, Prozesse zu digitalisieren. Um dieses Plus an datengetriebener Effizienz zu erzielen, können sich Unternehmen bei Spitzenmannschaften im Sport einiges abschauen: Es braucht eine profunde und ehrliche Analyse, eine klare Strategie und den individuellen Einsatz für kontinuierliche Verbesserung, auf allen Ebenen des Teams. (rhh)

Hier geht es zu proALPHA

Lesen Sie auch