Die Datenpflege braucht Strategie und Organisation

IT-Strategie
Datenqualitätsmanagement
Die Datenpflege braucht
Strategie und Organisation
Anforderungsmanagement, ständige Tests, ein Datenqualitätsmanagement sowie
interne Kontrollsysteme – all diese Maßnahmen dienen der Datenpflege. Erfolg
haben sie nur als Teil einer umfassenden Strategie.
Verlässliche Daten stellen für
Unternehmen eine elementare Ressource dar. Sie sind die Grundlagen
für operative, taktische und strategische Entscheidungen und bilden
zudem das Fundament für automatisierte IT-Prozesse. Schlechte Datenqualität beruht meist auf einem
ganzen Bündel von Problemen. Punktuelle Datenbereinigungen erzielen
meist nur kurzfristige Effekte. Wenn
Daten sich häufig ändern, werden
zudem die erzielten Verbesserungen
schnell obsolet.
Datenpflegemaßnahmen erfordern
eine Strategie sowie ein Bewusstsein
für die Bedeutung der Datenqualität.
Grundlage ist ein Datenqualitätskonzept in Verbindung mit Vorgaben zur
Data Governance. Um die Qualität
nachhaltig zu steigern, empfiehlt es
sich, Datenqualitätsmanagement als
ganzheitlichen und kontinuierlichen
Verbesserungsprozess anzusehen.
Dafür ist eine Verzahnung von mehreren Maßnahmen notwendig. An
erster Stelle stehen dabei das Testmanagement sowie interne Kontrollsysteme. Wie in anderen Unternehmensprozessen gilt auch hier das
Prinzip „Plan, Do, Check, Act“, also
ein ständiger Kreislauf von Definition,
Maßnahme, Prüfung und Reaktion.
Sechs Grundprinzipien hat das Datenqualitätsmanagement. In erfolgreichen Initiativen werden sie eng miteinander verzahnt.
Quelle: Mayato
32
5/2015
www.isreport.de
Mehr dazu im web
• Betriebsdaten brauchen Pflege
http://tiny.cc/Datenpflege
• Datenqualität in der Logistik
http://tiny.cc/DQ-Logistik
IT-Strategie
Das Testmanagement sowie das interne Kontrollsystem (IKS) stellen die tragenden Säulen für ein umfassendes DatenqualiQuelle: Mayato
tätsmanagement dar.
Datenqualitätsmanagement verfolgt
das Ziel, die Qualität von Daten über
den gesamten Lebenszyklus hinweg
zu planen, zu steuern und zu kontrollieren.
Datenprobleme sind Alltag
in sämtlichen Unternehmen
Business-Intelligence-Lösungen
haben vielerorts die Datenqualitätsschwächen ans Licht gebracht und
die Notwendigkeit zum Handeln offengelegt. Das Problembewusstsein
ist also in den Unternehmen durchaus
vorhanden. Vielfach wurde bereits in
Teillösungen zur Verbesserung der
Datenqualität investiert. So finden
sich beispielsweise bei Finanzdienstleistern interne Kontrollsysteme.
Meist handelt es sich hierbei um individuell programmierte Code-Bausteine zur punktuellen Prüfung der
Datenqualität. Mit den anderen Disziplinen des Datenqualitätsmanagements sind diese Kontrollsysteme
allerdings nur selten verzahnt. Die
Organisation sowie die eingesetzte
Technologien blieben weitgehend
unverändert.
In landesübergreifenden Konzernstrukturen lassen sich Datenverantwortlichkeiten teilweise nur schwer
in die Praxis umsetzen. Oft kommt das
daher, dass die Werkzeuge für das Datenqualitätsmanagement fehlen. All
dies führt dazu, dass sich trotz des Problembewusstseins und trotz vieler Einzelmaßnahmen und teilweise großer
Investitionen die Gesamtsituation in
Sachen Datenqualität verschärft. Die
Kosten für das Beheben von Fehlern
und deren Konsequenzen steigen.
www.isreport.de
Datenqualität ist ein Prozess
kontinuierlicher Verbesserung
Nur selten verfügen die BusinessIntelligence-Organisationen über
ein durchgängiges Konzept für die
Datenpflege. Sie setzen Datenqualitätsmaßnahmen oft erst dann um,
wenn ein monetär relevanter Business Case vorliegt. Angesichts relativ
hoher Kosten für Pflegemaßnahmen
kann dies recht lange dauern. In der
Zwischenzeit verschärfen sich oft die
Probleme, so dass der Aufwand weiter
steigt. Aus diesem Teufelskreis auszubrechen, erfordert noch genauere
Kosten-Nutzen-Rechnungen, vor allem aber mutige Entscheidungen im
Top-Management.
Datenqualitätsmanagement erfasst
sämtliche Phasen des Lebenszyklus
von Daten, von der Erzeugung über
Verarbeitung, Speicherung, Pflege
und Darstellung bis hin zu deren Löschung. Fehler sollen vermieden und
alle funktionalen, nicht-funktionalen
und übergreifenden Anforderungen
erfüllt werden. Damit die Datenqualität nachhaltig steigt, muss die Pflege
als kontinuierlicher Verbesserungsprozess auf allen Ebenen im Unternehmen und in allen Phasen des Produktlebenszyklus angelegt sein.
Das Testmanagement dient
als Baustein der Datenpflege
Die Kosten für den Test neuer Applikationen übersteigen oft die
Entwicklungskosten. Eine weitere
Schwierigkeit ist die Auswahl der
Tests. Das Richtige zu testen ist ein
wesentlicher Hebel, um effizient mit
den vorhandenen Ressourcen für den
5/2015
Test umzugehen. Tests der Datenqualität sind typischerweise Teil des
Testmanagements. Unternehmen, die
Testmanagement zum Nachweis und
zur Sicherstellung der Anforderungen
und der einhergehenden Datenqualität betreiben, setzen grundsätzlich
für jedes Projekt ein separates Testmanagement auf, das die Entwicklung der Anwendungssoftware von
der Anforderungsanalyse bis hin zur
Inbetriebnahme begleitet. Die dazugehörigen Tests basieren auf festgelegten Kriterien und Abnahmebedingungen.
Das Testmanagement deckt Fehler
auf, liefert Informationen zur Fehlerbehebung und schafft Vertrauen in die
Daten. Es beinhaltet die Planung des
Testvorgehens und wird in einzelne
Teststufen unterteilt. Diese werden
den jeweiligen Zielen mit ihren qualitativen Anforderungen und Methoden
zugeordnet. Weitere Aufgaben bestehen im Schaffen und Nutzen benötigter Ressourcen und in der Messung
der Datenqualität. Testmanagement
und Qualitätssicherung stellen Qualität der Anwendungssoftware über
alle Testphasen sicher.
Fachbereich und IT-Abteilung
müssen bei der Datenpflege eng kooperieren. Werden Fehler im Test
rechtzeitig bemerkt und technisch
wie fachlich analysiert sowie deren
Auswirkungen bewertet, lässt sich
eine mangelhafte Datenqualität bereits im Ansatz vermeiden. In der
Praxis ist die Kommunikation zwischen IT und Fachbereich oft nur
schwach ausgeprägt. Zu Beginn werden die fachlichen Anforderungen in
33
IT-Strategie
ein Konzept gegossen. In gut funktionierenden Unternehmen erstellt der
Fachbereich relevante Testfälle. Danach allerdings gehen die Dokumente an die IT, ohne dass während der
Entwicklung ein Austausch erfolgt.
Selbst wenn die IT dann vollumfängliche Entwicklertests macht, kommen
beide Seiten erst spät wieder zusammen. Die fachlichen Tests führen nur
wenige Unternehmen gewissenhaft
genug durch. Meist werden Fehler
nicht kritisch genug geprüft und Testvorgehen und Testfälle nicht neuen
Erkenntnissen angepasst. Am Ende
wird die Software implementiert und
vielfach erst im produktiven Betrieb
festgestellt, dass die Lösung nicht wie
gewünscht funktioniert. Die daraus
resultierenden Anpassungen gehen
mit einem erhöhten Aufwand einher
und müssen im laufenden Betrieb
umgesetzt werden. Sind Anwendungen hingegen richtig getestet, steigen
Qualität und Stabilität der Software
und die Verlässlichkeit der Daten.
Ein Teil der Qualitätskontrolle
findet im laufenden Betrieb statt
Zur Sicherstellung der Datenqualität
im laufenden Betrieb setzen viele Unternehmen ein internes Kontrollsystem ein. Anders als das Testmanagement ist es zeitlich nicht begrenzt. Es
bezieht sich stets auf aktuelle, produktive Daten und deren unmittelbare Veränderungen. Der Mehrwert
eines solchen Systems ergibt sich aus
der permanenten Identifizierung von
Schwachstellen. Das System beinhaltet prozessintegrierte (organisatorische Sicherungsmaßnahmen) und
prozessunabhängige Überwachungsmaßnahmen (interne Revision). Die
Prozesse und Prüfmethoden unterscheiden sich in Struktur, Funktion
und Ausgabe. Der Datenumfang spielt
dabei eine wesentliche Rolle. Ein internes Kontrollsystem kann sich auf
einen Vollbestand, auf Datenbestände
zu bestimmten Stichtagen oder auf
einzelne Änderungslieferungen beziehen. Die Messung erfolgt durch Anzahl und Summe der Abweichungen
34
in einer Statistik. Das diesbezügliche
Reporting stellt die Datenqualität dar,
erlaubt aber auch die Steuerung von
Korrekturmaßnahmen. Ein umfassendes Reporting ist nur dann möglich, wenn sämtliche Bestandteile der
Anwendungssoftware berücksichtigt
und geprüft werden.
Bei einem ganzheitlichen Ansatz
für das Datenqualitätsmanagement
sollte ein standardisierter Rahmen
für das Vorgehen erstellt werden, der
es erlaubt, Pflegemaßnahmen auch
für große Mengen von Problemen effizient durchzuführen. Meist sind die
Qualitätsprobleme vielfältig, was das
Management der verfügbaren Ressourcen zu einer Herausforderung
macht. Ein hoher Automatisierungsgrad beim Durchlauf von Tests schafft
Freiräume für die Fehleranalyse. Dabei, aber auch schon bei der initialen
Sichtung von Daten und Bewertung
von Risiken in Sachen Datenqualität
empfiehlt sich der Einsatz von Datenanalysewerkzeugen. Heutige Tools
für Self-Service BI erlauben es auch
fachlichen Anwendern ohne tiefgehende technische Kenntnisse, sich
schnell mit den Zusammenhängen in
den Daten vertraut zu machen. Eine
sinnvolle Ergänzung dazu stellen Data-Profiling-Werkzeuge dar, die eine
Übersicht über Inhalte von Datenfeldern und Häufigkeiten bestimmter
Konstellationen herstellen.
Verzahnung von mehreren
Maßnahmen zur Datenpflege
Die Ergebnisse von Analysen der Datenqualität sollten in eine zentrale
Datenhaltung einfließen, welche die
Basis für ein konsolidiertes und revisionssicheres Reporting nach Innen
und Außen ist. Der einfache Zugang
zu aggregierten Ergebnissen und
detaillierten Fehlerdaten erleichtert
das fortwährende Monitoring und
die Fehleranalyse. Für ein ganzheitliches Management der Datenqualität müssen Verantwortlichkeiten
geregelt sein, ebenso Schwellwerte,
Schweregrade und andere Bewertungskriterien. Nur so werden Fehler
5/2015
schnell erkannt und behandelt. Total
Data Quality Management erhebt
die Datenqualität zum obersten Unternehmensziel und erleichtert das
Ausrollen von Pflegemaßnahmen. Als
Erweiterung zum Datenqualitätsmanagement richtet es alle unternehmerischen Strukturen auf Qualität aus.
Um die Zielqualität von Daten zu
definieren, die Ist-Qualität zu messen
und Maßnahmen zu einer kontinuierlichen und nachhaltigen Annäherung
an das Ziel zu entwickeln, sind vielfältige Aktivitäten erforderlich. Vor
allem die Nachhaltigkeit erweist sich
dabei als Herausforderung. Datenqualitätsmanagement muss die Qualität von Daten über deren gesamten
Anwendungslebenszyklus hinweg
planen, steuern und kontrollieren
sowie die Aktivitäten der Qualitätssicherung verzahnen. Eine zentrale
Rolle spielen dabei das Testmanagement und die internen Kontrollsysteme. Das Testmanagement greift beim
Aufbau und der Weiterentwicklung
von Software und stellt bereits in der
Projektphase sicher, dass die später
generierten und verarbeiteten Daten
der Zielqualität entsprechen. Zusätzlich kann dies auch bei der Identifikation und Bereinigung kritischer
Datenbestände wertvolle Dienste
leisten. Im laufenden Betrieb überwacht eher das interne Kontrollsystem die Daten. Die diesbezüglichen
Anwendungen sollten automatisiert
und effizient ablaufen.
Das Anforderungsmanagement
ist oft der Ausgangspunkt
Auch das Anforderungsmanagement
sollte mit dem Datenqualitätsmanagement verzahnt werden. Teil des
Anforderungsmanagements sollte die
Beschreibung der Ist-Situation der
Daten sein, beispielsweise in Form
eines Datensteckbriefs. Hierzu sind
toolgestützte Analysen unverzichtbar, da das theoretische Wissen über
die Daten oft nicht die Realität widerspiegelt. Die manuelle Analyse von
Stichproben übersieht leicht seltene,
aber kritische Konstellationen. Der
www.isreport.de
IT-Strategie
Fotos: Mayato
Die Autoren
Marcus Dill (links) ist Geschäftsführer des Analysten- und Beraterhauses Mayato.
Stefan Gruhn (Mitte) fungiert dort als Senior Project Manager,
Thomas Weiler als Senior Business Intelligence Architect.
detaillierte Blick auf umfassende Datenbestände führt oft zu überraschenden Erkenntnissen.
Früh identifiziert können problematische Aspekte bereits in Fachkonzepten und anderen Anforderungsdokumenten berücksichtigt werden,
beispielsweise durch Definition von
Regeln zum Bereinigen von Fehlern.
In der Praxis führt dies zu massiven
Einsparungen dank eines geringeren
Fehleraufkommens. Die vorgezogene
Datenanalyse bildet eine wesentliche
Grundlage für das Verständnis der
fachlichen Abhängigkeiten und für
die Definition fachlicher Integritätsbedingungen zur Testfallerstellung
und Prüfung des internen Kontrollsystems. Sie erleichtert auch die Definition von Zielzuständen, Schwellwerten
und Reaktionen im Fehlerfall. Idealerweise werden diese Steuergrößen
und -maßnahmen des Datenqualitätsmanagements bereits im Stadium der
Anforderung an Software-Anwendungen und softwaregestützte Prozesse
abgefragt. Hierfür müssen Vorlagen
des Anforderungsmanagements Passagen zum Datenqualitätsmanagement beinhalten.
Kein noch so gründliches Anforderungsmanagement schützt vor unerwarteten Störfällen. Treten diese
während der Entwicklung oder in
www.isreport.de
Tests auf, sollten die Erkenntnisse
daraus immer auch hinsichtlich ihrer
Auswirkungen auf die Konzeption hin
untersucht werden. Da die Fachkonzeption später einen wesentlichen
Teil der Dokumentation für den laufenden Betrieb darstellt, muss diese
dann auf eventuell nötige Anpassungen geprüft werden.
Die Data Stewards agieren
als Anwälte der Daten
Datenqualitätsmanagement und seine Hilfsprozesse sorgen dafür, dass
Daten über ihren kompletten Anwendungslebenszyklus analysiert
und die sie produzierenden oder verarbeitenden Prozesse schon vorab
getestet werden. Damit lässt sich eine
hohe Qualität von Daten gewährleisten, welche die Grundlage für das
Vertrauen in die darauf basierenden
Entscheidungen darstellt.
Begleitende Maßnahmen fördern
das Datenqualitätsmanagement.
Hilfreich ist Unterstützung auf oberster Führungsebene. Selbst dann muss
vielfach Überzeugungsarbeit geleistet
werden, damit alle Bereiche und lokalen Entscheidungsträger mitziehen und zentrale Vorgaben nicht unterwandert werden. Praxisbeispiele,
welche die Auswirkungen schlechter
und das Potenzial guter Datenquali-
5/2015
tät den Kosten entgegenhalten, sowie
der Aufbau interner Referenzprojekte fördern die Bereitschaft zur Unterstützung. Helfen können zudem
kleine Pilotanalysen, die ohne großen
Aufwand an konkreten Beispielen
den Ist-Zustand und Handlungsbedarfe ermitteln und aufzeigen, dass
Datenqualitätsmanagement auch mit
geringem Aufwand möglich ist. Das
Problembewusstsein wächst, weil
viele Mitarbeiter über das Anforderungs- und Testmanagement und die
internen Kontrollsysteme mit den
Mechanismen der Datenpflege in Berührung kommen.
Datenqualitätsmanagement hat
nur dann Erfolg, wenn das gesamte
Unternehmen mitzieht. Die Überzeugungs- und Koordinationsarbeit
hierfür sowie entsprechende Initiativen erfordern eine zentrale Organisationseinheit für Datenqualität.
Deren Mitarbeiter sind Anwälte der
Datenqualität. Sie koordinieren die
Aktivitäten dezentral handelnder
Data Stewards, die im Rahmen einer
Data Governance festgelegt werden.
Anfänglich kann auch ein Business
Intelligence Competence Center die
Datenqualität sicherstellen. Langfristig empfiehlt sich der Aufbau einer
eigenen Data-Governance-Organisation.
jf
35