Conveso LogoMeine Akademie

Lektion 5 von 5

Monitoring, Governance und Rollout

Vom Projekt zum Prozess

Die vorherigen Lektionen haben gezeigt, welche Werkzeuge Datenqualität in welcher Disziplin verbessern. Bleibt die Frage: Wie wird aus einem einmaligen Aufräumen ein tragfähiger Betrieb? Diese Lektion fügt die Bausteine zu einem nachhaltigen Datenqualitäts-Ansatz zusammen.

Die fünf Qualitätsdimensionen

Ein belastbares Monitoring ruht auf fünf klassischen Dimensionen. Pro Dimension lassen sich konkrete Kennzahlen definieren.

Vollständigkeit. Wie hoch ist der Anteil der Pflichtfelder, die tatsächlich gefüllt sind? Pro Feld und Domäne messbar. Typische Zielwerte liegen bei 95 Prozent und höher.

Korrektheit. Wie oft stimmt der hinterlegte Wert mit der Realität überein? Stichprobenartig per manuellem Abgleich oder durch Rückmeldungen aus dem Alltag (z. B. retournierte Lieferungen wegen falscher Adresse).

Konsistenz. Wie oft stimmen Werte zum gleichen Sachverhalt zwischen Systemen überein? Messbar über automatische Abgleiche zwischen CRM, ERP, Shop.

Aktualität. Wie alt ist der letzte Aktualisierungszeitpunkt der relevanten Felder? Pro Feld definierbar: Kontaktdaten maximal zwölf Monate alt, Bonität maximal sechs Monate, Preise maximal dreißig Tage.

Eindeutigkeit. Wie hoch ist die Dubletten-Quote? Ergänzbar um die Anzahl offener Prüfqueue-Fälle aus dem Deduplikations-Prozess.

Für jede Dimension braucht es einen Basiswert, einen Zielwert und einen Rhythmus der Messung. Ein einfaches Dashboard mit diesen Werten reicht für den Start.

Data Ownership: wer verantwortet was?

Die häufigste Ursache, warum Datenqualitäts-Initiativen versanden, ist nicht technischer Natur. Sie ist organisatorisch: Es fehlt eine klar benannte Verantwortung pro Datendomäne.

Ein praxistaugliches Modell unterscheidet drei Rollen:

Data Owner. Die fachliche Verantwortung. Entscheidet über Pflichtfelder, zulässige Wertebereiche, Qualitätsschwellen. In der Regel auf Bereichsleitungsebene: Leiter Vertrieb für Kundenstammdaten, Leiter Einkauf für Lieferantenstammdaten, Produktmanagement für Produktdaten.

Data Steward. Die operative Verantwortung. Arbeitet in der Regel in der Fachabteilung und kümmert sich um laufende Pflege, Prüfqueue-Bearbeitung, Rückmeldungen aus dem Alltag. Teilzeit-Aufgabe, aber klar benannt.

Data Platform. Die technische Verantwortung in IT oder einer Datenstelle. Sorgt für funktionierende Schnittstellen, KI-Werkzeuge, Dashboards und Reports. Keine fachliche Entscheidungskompetenz — umsetzend, nicht priorisierend.

In kleineren Unternehmen werden die ersten beiden Rollen häufig in einer Person vereint; die Trennung zum Technik-Team bleibt aber sinnvoll.

Feedback-Schleifen

Ohne Rückkopplung verlernt eine Organisation. Drei Feedback-Mechanismen haben sich bewährt:

  • Direkte Meldung aus dem Alltag. Ein einfaches Formular oder eine Schaltfläche im CRM/ERP, mit der Sachbearbeiter eine falsche Information melden. Die Meldung landet in einer Queue der Data Stewards.
  • Retour-Signale. Zurückgelaufene E-Mails, nicht zustellbare Post, Reklamationen wegen falscher Ansprache. Diese Signale werden automatisch gesammelt und ausgewertet.
  • Stichproben-Review. Ein wiederkehrender Termin (monatlich, quartalsweise) mit Data Ownern und Data Stewards, der Ausreißer in den KPIs bespricht und Gegenmaßnahmen beschließt.

Eine gut gepflegte Feedback-Schleife ist oft wertvoller als ein großes Bereinigungs-Projekt — sie hält Qualität auf Dauer hoch.

Rollout in drei Wellen

Für ein strukturiertes Einführungs-Vorgehen bewährt sich eine dreiwellen-Logik:

Welle 1 — eine Datendomäne, ein Bereich. Zum Beispiel Kundenstammdaten im Vertrieb. Baseline messen, KI-gestützte Bereinigung durchführen, Monitoring einrichten, Feedback-Schleife aufbauen. Laufzeit drei bis vier Monate.

Welle 2 — weitere Domänen im gleichen Bereich oder dieselbe Domäne in weiteren Bereichen. Zum Beispiel Kundenstammdaten im Service, zusätzlich Produktdaten im Vertrieb. Laufzeit weitere drei bis vier Monate.

Welle 3 — Querschnitt. Konsistenzprüfungen zwischen Systemen, abgestimmte Golden Records über Domänen hinweg, einheitliches Dashboard. Laufzeit vier bis sechs Monate.

Nach drei Wellen — rund zwölf Monate — ist ein tragfähiger Datenqualitäts-Betrieb etabliert, der danach im Alltag läuft und regelmäßig justiert wird.

Typische Stolpersteine

  • Keine Baseline. Ohne Vorher-Messung lässt sich kein Erfolg zeigen. Erste Wochen gehören der Baseline.
  • Zu viele Dimensionen gleichzeitig. Sich anfangs auf zwei oder drei KPIs konzentrieren, die greifbar sind, statt fünfzehn halbherzig zu verfolgen.
  • Data Owner nicht benannt. Die Rolle wird „irgendwie mitverantwortet" — und damit nicht verantwortet. Schriftlich benennen.
  • Werkzeuge vor Prozessen. Ein gekauftes Tool löst kein Qualitätsproblem, wenn Regeln und Verantwortungen fehlen.
  • Einmal-Bereinigung ohne Nachhaltigkeit. Der Glanz einer „aufgeräumten" Datenbank hält ohne laufenden Prozess sechs bis neun Monate.

Kursabschluss

Sie haben jetzt einen durchgängigen Blick:

  • Datenqualität ist ein Dauerprozess mit fünf Problemklassen und fünf Qualitätsdimensionen.
  • KI-gestützte Klassifikation und Extraktion liefern den breitesten Hebel.
  • Deduplikation und Golden-Record-Prozesse beseitigen eine der teuersten Qualitätslücken.
  • Anreicherung schließt fachliche Felder mit sauberer Provenienz und rechtlicher Grundlage.
  • Monitoring, klare Rollen und Feedback-Schleifen machen den Betrieb belastbar.

Mit diesem Rahmen können Sie Datenqualität im eigenen Unternehmen nachhaltig verbessern — nicht auf einmal, aber jede Welle merklich.

Die Abschlussprüfung wartet auf Sie.

Wissenscheck

Welche KPI-Dimensionen gehören in ein belastbares Datenqualitäts-Monitoring?

Welche Organisationsrolle fehlt typischerweise in Unternehmen mit dauerhaften Datenqualitätsproblemen?