(openPR) Wenn schlechte Daten zum Risiko für die Bank werden – warum Institute ihr Datenqualitätsmanagement (DQM) dringend neu aufstellen müssen?
In Banken und Sparkassen gilt Datenqualität oft noch als technisches Randthema – dabei ist sie längst zu einem der größten Risikofaktoren geworden. Aufsichtsprüfungen zeigen seit Jahren dieselben Schwachstellen: unvollständige Datenhaushalte, fehlerhafte Aggregationen, widersprüchliche Stammdaten und eine mangelnde Governance. Besonders kritisch wird es, wenn diese Defizite direkt in die Risikosteuerung hineinwirken. Fehlerhafte Daten bedeuten falsche Risikoberichte – und damit eine gefährliche Fehleinschätzung der Kapital- und Liquiditätslage sowie der Tragfähigkeit des Geschäftsmodells.
Spätestens mit den neuen DORA-Vorgaben ist klar: Datenqualität ist kein „nice to have“, sondern Pflicht.
Die Praxis sieht jedoch alarmierend aus: In vielen Häusern existieren keine klaren Verantwortlichkeiten für Data Governance, Qualitätsstandards werden nur punktuell definiert und Datenqualitätsberichte sind oberflächlich oder fehlen ganz. Probleme werden nicht systematisch erfasst und nachverfolgt, sondern ad hoc behandelt. Besonders im Kontext von Big Data und heterogenen Systemlandschaften treten Fehler massiv auf – sei es durch doppelte Datenhaltung, fehlerhafte Schnittstellen oder nicht dokumentierte manuelle Eingriffe. Prüfungen identifizieren regelmäßig eine hohe Zahl schwerwiegender Feststellungen (F3/F4), die direkt in das IKT-Risikomanagement und das operationelle Risiko einzahlen.
Genau hier setzt das Online-Seminar „Aufsichts-Anforderungen an das Datenqualitätsmanagement (DQM)“ am 29. September 2025 an.
Am Vormittag zeigt Daniel Schmidt (Bundesbank), welche regulatorischen Anforderungen aus DORA, MaRisk und BCBS 239 resultieren, wie Daten als strategisches Asset verstanden werden müssen und wo die häufigsten Schwachstellen liegen. Er erläutert, wie Datenqualitätsprobleme prüfungssicher erfasst, berichtet und nachverfolgt werden – und warum ohne klare Standards und Prozesse keine zuverlässige Risikosteuerung möglich ist.
Im Anschluss legt Thomas Klupp (KPMG) den Fokus auf den Aufbau eines nachhaltigen DQM. Er zeigt, wie Meta- und Stammdatenmanagement in der Praxis funktionieren, welche Automatisierungspotenziale bestehen und wie der Einsatz moderner Technologien – bis hin zu KI-gestützten Verfahren – helfen kann, Fehler frühzeitig zu erkennen und Prozesse effizienter zu gestalten. Best Practices und typische Stolpersteine aus aktuellen Projekten verdeutlichen, dass Datenqualität vor allem ein organisatorisches Thema ist – und nicht allein ein IT-Problem.
Am Nachmittag vermittelt Dr. Karsten Geiersbach (Kasseler Sparkasse) aus Revisionssicht, wie Datenqualität geprüft werden sollte. Er erläutert, wie spezielle Analysetools eingesetzt werden können, welche neuen Revisionsmethoden sich bewähren und wie eine saubere Datenbasis nicht nur die Qualität der Prüfungen selbst erhöht, sondern auch die Effizienz anderer Prüffelder verbessert.
Das Seminar richtet sich an alle, die Verantwortung für Datenqualität tragen – von Revision und Risikocontrolling über Data Governance bis hin zu Informationssicherheit und Compliance. Die Teilnehmenden erhalten nicht nur einen Überblick über regulatorische Erwartungen, sondern konkrete Lösungsansätze, wie sie Datenqualitätsprobleme identifizieren, beheben und nachhaltig vermeiden können.
Die Botschaft ist eindeutig: Wer Datenqualität nicht zur Chefsache macht, riskiert falsche Risikoberichte, aufsichtliche Beanstandungen und gravierende Steuerungsfehler. Dieses Seminar zeigt, wie Institute ihre Datenbasis stabilisieren, Prozesse professionalisieren und künftige Prüfungen souverän bestehen können.
Weitere Informationen und Anmeldung unter: https://www.akademie-heidelberg.de/termin/aufsichts-anforderungen-das-datenqualitaetsmanagement-dqm












