IT-Strategie Datenqualitätsmanagement Die Datenpflege braucht Strategie und Organisation Anforderungsmanagement, ständige Tests, ein Datenqualitätsmanagement sowie interne Kontrollsysteme – all diese Maßnahmen dienen der Datenpflege. Erfolg haben sie nur als Teil einer umfassenden Strategie. Verlässliche Daten stellen für Unternehmen eine elementare Ressource dar. Sie sind die Grundlagen für operative, taktische und strategische Entscheidungen und bilden zudem das Fundament für automatisierte IT-Prozesse. Schlechte Datenqualität beruht meist auf einem ganzen Bündel von Problemen. Punktuelle Datenbereinigungen erzielen meist nur kurzfristige Effekte. Wenn Daten sich häufig ändern, werden zudem die erzielten Verbesserungen schnell obsolet. Datenpflegemaßnahmen erfordern eine Strategie sowie ein Bewusstsein für die Bedeutung der Datenqualität. Grundlage ist ein Datenqualitätskonzept in Verbindung mit Vorgaben zur Data Governance. Um die Qualität nachhaltig zu steigern, empfiehlt es sich, Datenqualitätsmanagement als ganzheitlichen und kontinuierlichen Verbesserungsprozess anzusehen. Dafür ist eine Verzahnung von mehreren Maßnahmen notwendig. An erster Stelle stehen dabei das Testmanagement sowie interne Kontrollsysteme. Wie in anderen Unternehmensprozessen gilt auch hier das Prinzip „Plan, Do, Check, Act“, also ein ständiger Kreislauf von Definition, Maßnahme, Prüfung und Reaktion. Sechs Grundprinzipien hat das Datenqualitätsmanagement. In erfolgreichen Initiativen werden sie eng miteinander verzahnt. Quelle: Mayato 32 5/2015 www.isreport.de Mehr dazu im web • Betriebsdaten brauchen Pflege http://tiny.cc/Datenpflege • Datenqualität in der Logistik http://tiny.cc/DQ-Logistik IT-Strategie Das Testmanagement sowie das interne Kontrollsystem (IKS) stellen die tragenden Säulen für ein umfassendes DatenqualiQuelle: Mayato tätsmanagement dar. Datenqualitätsmanagement verfolgt das Ziel, die Qualität von Daten über den gesamten Lebenszyklus hinweg zu planen, zu steuern und zu kontrollieren. Datenprobleme sind Alltag in sämtlichen Unternehmen Business-Intelligence-Lösungen haben vielerorts die Datenqualitätsschwächen ans Licht gebracht und die Notwendigkeit zum Handeln offengelegt. Das Problembewusstsein ist also in den Unternehmen durchaus vorhanden. Vielfach wurde bereits in Teillösungen zur Verbesserung der Datenqualität investiert. So finden sich beispielsweise bei Finanzdienstleistern interne Kontrollsysteme. Meist handelt es sich hierbei um individuell programmierte Code-Bausteine zur punktuellen Prüfung der Datenqualität. Mit den anderen Disziplinen des Datenqualitätsmanagements sind diese Kontrollsysteme allerdings nur selten verzahnt. Die Organisation sowie die eingesetzte Technologien blieben weitgehend unverändert. In landesübergreifenden Konzernstrukturen lassen sich Datenverantwortlichkeiten teilweise nur schwer in die Praxis umsetzen. Oft kommt das daher, dass die Werkzeuge für das Datenqualitätsmanagement fehlen. All dies führt dazu, dass sich trotz des Problembewusstseins und trotz vieler Einzelmaßnahmen und teilweise großer Investitionen die Gesamtsituation in Sachen Datenqualität verschärft. Die Kosten für das Beheben von Fehlern und deren Konsequenzen steigen. www.isreport.de Datenqualität ist ein Prozess kontinuierlicher Verbesserung Nur selten verfügen die BusinessIntelligence-Organisationen über ein durchgängiges Konzept für die Datenpflege. Sie setzen Datenqualitätsmaßnahmen oft erst dann um, wenn ein monetär relevanter Business Case vorliegt. Angesichts relativ hoher Kosten für Pflegemaßnahmen kann dies recht lange dauern. In der Zwischenzeit verschärfen sich oft die Probleme, so dass der Aufwand weiter steigt. Aus diesem Teufelskreis auszubrechen, erfordert noch genauere Kosten-Nutzen-Rechnungen, vor allem aber mutige Entscheidungen im Top-Management. Datenqualitätsmanagement erfasst sämtliche Phasen des Lebenszyklus von Daten, von der Erzeugung über Verarbeitung, Speicherung, Pflege und Darstellung bis hin zu deren Löschung. Fehler sollen vermieden und alle funktionalen, nicht-funktionalen und übergreifenden Anforderungen erfüllt werden. Damit die Datenqualität nachhaltig steigt, muss die Pflege als kontinuierlicher Verbesserungsprozess auf allen Ebenen im Unternehmen und in allen Phasen des Produktlebenszyklus angelegt sein. Das Testmanagement dient als Baustein der Datenpflege Die Kosten für den Test neuer Applikationen übersteigen oft die Entwicklungskosten. Eine weitere Schwierigkeit ist die Auswahl der Tests. Das Richtige zu testen ist ein wesentlicher Hebel, um effizient mit den vorhandenen Ressourcen für den 5/2015 Test umzugehen. Tests der Datenqualität sind typischerweise Teil des Testmanagements. Unternehmen, die Testmanagement zum Nachweis und zur Sicherstellung der Anforderungen und der einhergehenden Datenqualität betreiben, setzen grundsätzlich für jedes Projekt ein separates Testmanagement auf, das die Entwicklung der Anwendungssoftware von der Anforderungsanalyse bis hin zur Inbetriebnahme begleitet. Die dazugehörigen Tests basieren auf festgelegten Kriterien und Abnahmebedingungen. Das Testmanagement deckt Fehler auf, liefert Informationen zur Fehlerbehebung und schafft Vertrauen in die Daten. Es beinhaltet die Planung des Testvorgehens und wird in einzelne Teststufen unterteilt. Diese werden den jeweiligen Zielen mit ihren qualitativen Anforderungen und Methoden zugeordnet. Weitere Aufgaben bestehen im Schaffen und Nutzen benötigter Ressourcen und in der Messung der Datenqualität. Testmanagement und Qualitätssicherung stellen Qualität der Anwendungssoftware über alle Testphasen sicher. Fachbereich und IT-Abteilung müssen bei der Datenpflege eng kooperieren. Werden Fehler im Test rechtzeitig bemerkt und technisch wie fachlich analysiert sowie deren Auswirkungen bewertet, lässt sich eine mangelhafte Datenqualität bereits im Ansatz vermeiden. In der Praxis ist die Kommunikation zwischen IT und Fachbereich oft nur schwach ausgeprägt. Zu Beginn werden die fachlichen Anforderungen in 33 IT-Strategie ein Konzept gegossen. In gut funktionierenden Unternehmen erstellt der Fachbereich relevante Testfälle. Danach allerdings gehen die Dokumente an die IT, ohne dass während der Entwicklung ein Austausch erfolgt. Selbst wenn die IT dann vollumfängliche Entwicklertests macht, kommen beide Seiten erst spät wieder zusammen. Die fachlichen Tests führen nur wenige Unternehmen gewissenhaft genug durch. Meist werden Fehler nicht kritisch genug geprüft und Testvorgehen und Testfälle nicht neuen Erkenntnissen angepasst. Am Ende wird die Software implementiert und vielfach erst im produktiven Betrieb festgestellt, dass die Lösung nicht wie gewünscht funktioniert. Die daraus resultierenden Anpassungen gehen mit einem erhöhten Aufwand einher und müssen im laufenden Betrieb umgesetzt werden. Sind Anwendungen hingegen richtig getestet, steigen Qualität und Stabilität der Software und die Verlässlichkeit der Daten. Ein Teil der Qualitätskontrolle findet im laufenden Betrieb statt Zur Sicherstellung der Datenqualität im laufenden Betrieb setzen viele Unternehmen ein internes Kontrollsystem ein. Anders als das Testmanagement ist es zeitlich nicht begrenzt. Es bezieht sich stets auf aktuelle, produktive Daten und deren unmittelbare Veränderungen. Der Mehrwert eines solchen Systems ergibt sich aus der permanenten Identifizierung von Schwachstellen. Das System beinhaltet prozessintegrierte (organisatorische Sicherungsmaßnahmen) und prozessunabhängige Überwachungsmaßnahmen (interne Revision). Die Prozesse und Prüfmethoden unterscheiden sich in Struktur, Funktion und Ausgabe. Der Datenumfang spielt dabei eine wesentliche Rolle. Ein internes Kontrollsystem kann sich auf einen Vollbestand, auf Datenbestände zu bestimmten Stichtagen oder auf einzelne Änderungslieferungen beziehen. Die Messung erfolgt durch Anzahl und Summe der Abweichungen 34 in einer Statistik. Das diesbezügliche Reporting stellt die Datenqualität dar, erlaubt aber auch die Steuerung von Korrekturmaßnahmen. Ein umfassendes Reporting ist nur dann möglich, wenn sämtliche Bestandteile der Anwendungssoftware berücksichtigt und geprüft werden. Bei einem ganzheitlichen Ansatz für das Datenqualitätsmanagement sollte ein standardisierter Rahmen für das Vorgehen erstellt werden, der es erlaubt, Pflegemaßnahmen auch für große Mengen von Problemen effizient durchzuführen. Meist sind die Qualitätsprobleme vielfältig, was das Management der verfügbaren Ressourcen zu einer Herausforderung macht. Ein hoher Automatisierungsgrad beim Durchlauf von Tests schafft Freiräume für die Fehleranalyse. Dabei, aber auch schon bei der initialen Sichtung von Daten und Bewertung von Risiken in Sachen Datenqualität empfiehlt sich der Einsatz von Datenanalysewerkzeugen. Heutige Tools für Self-Service BI erlauben es auch fachlichen Anwendern ohne tiefgehende technische Kenntnisse, sich schnell mit den Zusammenhängen in den Daten vertraut zu machen. Eine sinnvolle Ergänzung dazu stellen Data-Profiling-Werkzeuge dar, die eine Übersicht über Inhalte von Datenfeldern und Häufigkeiten bestimmter Konstellationen herstellen. Verzahnung von mehreren Maßnahmen zur Datenpflege Die Ergebnisse von Analysen der Datenqualität sollten in eine zentrale Datenhaltung einfließen, welche die Basis für ein konsolidiertes und revisionssicheres Reporting nach Innen und Außen ist. Der einfache Zugang zu aggregierten Ergebnissen und detaillierten Fehlerdaten erleichtert das fortwährende Monitoring und die Fehleranalyse. Für ein ganzheitliches Management der Datenqualität müssen Verantwortlichkeiten geregelt sein, ebenso Schwellwerte, Schweregrade und andere Bewertungskriterien. Nur so werden Fehler 5/2015 schnell erkannt und behandelt. Total Data Quality Management erhebt die Datenqualität zum obersten Unternehmensziel und erleichtert das Ausrollen von Pflegemaßnahmen. Als Erweiterung zum Datenqualitätsmanagement richtet es alle unternehmerischen Strukturen auf Qualität aus. Um die Zielqualität von Daten zu definieren, die Ist-Qualität zu messen und Maßnahmen zu einer kontinuierlichen und nachhaltigen Annäherung an das Ziel zu entwickeln, sind vielfältige Aktivitäten erforderlich. Vor allem die Nachhaltigkeit erweist sich dabei als Herausforderung. Datenqualitätsmanagement muss die Qualität von Daten über deren gesamten Anwendungslebenszyklus hinweg planen, steuern und kontrollieren sowie die Aktivitäten der Qualitätssicherung verzahnen. Eine zentrale Rolle spielen dabei das Testmanagement und die internen Kontrollsysteme. Das Testmanagement greift beim Aufbau und der Weiterentwicklung von Software und stellt bereits in der Projektphase sicher, dass die später generierten und verarbeiteten Daten der Zielqualität entsprechen. Zusätzlich kann dies auch bei der Identifikation und Bereinigung kritischer Datenbestände wertvolle Dienste leisten. Im laufenden Betrieb überwacht eher das interne Kontrollsystem die Daten. Die diesbezüglichen Anwendungen sollten automatisiert und effizient ablaufen. Das Anforderungsmanagement ist oft der Ausgangspunkt Auch das Anforderungsmanagement sollte mit dem Datenqualitätsmanagement verzahnt werden. Teil des Anforderungsmanagements sollte die Beschreibung der Ist-Situation der Daten sein, beispielsweise in Form eines Datensteckbriefs. Hierzu sind toolgestützte Analysen unverzichtbar, da das theoretische Wissen über die Daten oft nicht die Realität widerspiegelt. Die manuelle Analyse von Stichproben übersieht leicht seltene, aber kritische Konstellationen. Der www.isreport.de IT-Strategie Fotos: Mayato Die Autoren Marcus Dill (links) ist Geschäftsführer des Analysten- und Beraterhauses Mayato. Stefan Gruhn (Mitte) fungiert dort als Senior Project Manager, Thomas Weiler als Senior Business Intelligence Architect. detaillierte Blick auf umfassende Datenbestände führt oft zu überraschenden Erkenntnissen. Früh identifiziert können problematische Aspekte bereits in Fachkonzepten und anderen Anforderungsdokumenten berücksichtigt werden, beispielsweise durch Definition von Regeln zum Bereinigen von Fehlern. In der Praxis führt dies zu massiven Einsparungen dank eines geringeren Fehleraufkommens. Die vorgezogene Datenanalyse bildet eine wesentliche Grundlage für das Verständnis der fachlichen Abhängigkeiten und für die Definition fachlicher Integritätsbedingungen zur Testfallerstellung und Prüfung des internen Kontrollsystems. Sie erleichtert auch die Definition von Zielzuständen, Schwellwerten und Reaktionen im Fehlerfall. Idealerweise werden diese Steuergrößen und -maßnahmen des Datenqualitätsmanagements bereits im Stadium der Anforderung an Software-Anwendungen und softwaregestützte Prozesse abgefragt. Hierfür müssen Vorlagen des Anforderungsmanagements Passagen zum Datenqualitätsmanagement beinhalten. Kein noch so gründliches Anforderungsmanagement schützt vor unerwarteten Störfällen. Treten diese während der Entwicklung oder in www.isreport.de Tests auf, sollten die Erkenntnisse daraus immer auch hinsichtlich ihrer Auswirkungen auf die Konzeption hin untersucht werden. Da die Fachkonzeption später einen wesentlichen Teil der Dokumentation für den laufenden Betrieb darstellt, muss diese dann auf eventuell nötige Anpassungen geprüft werden. Die Data Stewards agieren als Anwälte der Daten Datenqualitätsmanagement und seine Hilfsprozesse sorgen dafür, dass Daten über ihren kompletten Anwendungslebenszyklus analysiert und die sie produzierenden oder verarbeitenden Prozesse schon vorab getestet werden. Damit lässt sich eine hohe Qualität von Daten gewährleisten, welche die Grundlage für das Vertrauen in die darauf basierenden Entscheidungen darstellt. Begleitende Maßnahmen fördern das Datenqualitätsmanagement. Hilfreich ist Unterstützung auf oberster Führungsebene. Selbst dann muss vielfach Überzeugungsarbeit geleistet werden, damit alle Bereiche und lokalen Entscheidungsträger mitziehen und zentrale Vorgaben nicht unterwandert werden. Praxisbeispiele, welche die Auswirkungen schlechter und das Potenzial guter Datenquali- 5/2015 tät den Kosten entgegenhalten, sowie der Aufbau interner Referenzprojekte fördern die Bereitschaft zur Unterstützung. Helfen können zudem kleine Pilotanalysen, die ohne großen Aufwand an konkreten Beispielen den Ist-Zustand und Handlungsbedarfe ermitteln und aufzeigen, dass Datenqualitätsmanagement auch mit geringem Aufwand möglich ist. Das Problembewusstsein wächst, weil viele Mitarbeiter über das Anforderungs- und Testmanagement und die internen Kontrollsysteme mit den Mechanismen der Datenpflege in Berührung kommen. Datenqualitätsmanagement hat nur dann Erfolg, wenn das gesamte Unternehmen mitzieht. Die Überzeugungs- und Koordinationsarbeit hierfür sowie entsprechende Initiativen erfordern eine zentrale Organisationseinheit für Datenqualität. Deren Mitarbeiter sind Anwälte der Datenqualität. Sie koordinieren die Aktivitäten dezentral handelnder Data Stewards, die im Rahmen einer Data Governance festgelegt werden. Anfänglich kann auch ein Business Intelligence Competence Center die Datenqualität sicherstellen. Langfristig empfiehlt sich der Aufbau einer eigenen Data-Governance-Organisation. jf 35
© Copyright 2024 ExpyDoc