Datenqualität erfolgreich managen

Datenqualität erfolgreich managen

26. November 2010 - Falsche Daten führen zu Problemen in Geschäftsprozessen und sind teuer. Dennoch fehlt in vielen Unternehmen ein Konzept für die Sicherung der Datenqualität.
Artikel erschienen in IT Magazine 2010/12
(Quelle: Vogel.de)

Verfälschte, unvollständige und inkonsistente Daten und daraus abgeleitete Informationen führen zu Problemen in Geschäftsprozessen, in denen diese Daten verwendet werden. Ungültige Daten verzögern die tägliche Arbeit, verursachen Aufwand und damit Kosten. Denn die Daten müssen korrigiert und Prozesse neu aufgesetzt werden. Ebenso müssen Reports neu erstellt werden, wenn die Zahlen nicht konsistent sind. Des weiteren müssen Berichte verifiziert werden, weil Zweifel bestehen, ob diese wirklich gültig sind.


Werden strategische Entscheidungen auf Grund mangelhafter Daten gefällt, kann dies für ein Unternehmen kritisch werden. Bei Banken und Versicherungen steigt die Bedeutung der Datenqualität zudem durch neue Anforderungen im Bereich der Compliance. Ein Riskmanagement bei einer Bank kann nur funktionieren, wenn die Qualität der firmeninternen als auch der externen Daten systematisch gemanagt wird.


Die drei wichtigsten Treiber für die Verbesserung der Datenqualität sind also die Einsparung von Kosten und Erhöhung der wirtschaftlichen Leistungsfähigkeit, die Notwendigkeit, gültige und konsistente Informationen für die Unternehmensführung verfügbar zu machen und die Erfüllung der gesetzlichen Compliance.



Nachlässigkeit wird teuer

Der negative Ein?uss schlechter Datenqualität auf ein Unternehmen wurde in verschiedenen Studien erforscht. Gemäss Thomas Redman, einem bekannten Fachmann für Datenqualität und Autor des Buches «Data Quality: The Field Guide», schmälert die schlechte Datenqualität den operativen Gewinn um 8 bis 12 Prozent.


Oftmals werden die Folgen schlechter Datenqualität von Linienmanagern aber fälschlicherweise als «normal cost of doing business» akzeptiert und nicht der mangelnden Qualität zugeschrieben, wie der Autor Larry English in seinem Buch «Improving Data Warehouse and Business Information Quality: Methods for Reducing Costs and Increasing Pro?ts» schreibt. Das Potential und die Bedeutung einer hohen Datenqualität wird somit in sehr vielen Fällen nicht wirklich wahrgenommen. Ein Grund dafür ist, dass manche Fehler erst in späteren Prozessen auffallen. Zum Beispiel, wenn in Berichten Kategorien auftauchen, die offensichtlich so nicht existieren dürften oder die mehrfach mit unterschiedlichen Bezeichnungen vorhanden sind. Als Folge resultiert eine falsche Aggregation der Daten und der Report kann so nicht verwendet werden. Ungültige Daten verursachen also nicht nur Zusatzarbeit, sondern verschlechtern die Akzeptanz bei den Anwendern in den Fachabteilungen, die wichtige geschäftliche Entscheidungen nicht auf fehlerhaften Daten abstützen möchten. Nachlässigkeit bei der Datenqualität verursacht also ernst zu nehmende direkte und indirekte Kosten für ein Unternehmen.



 
Seite 1 von 3

Neuen Kommentar erfassen

Anti-Spam-Frage Was für Schuhe trug der gestiefelte Kater?
Antwort
Name
E-Mail
SPONSOREN & PARTNER