(openPR) Aufsicht setzet die Leitplanken für den KI-Einsatz – KI-Governance entscheidet über Zukunftsfähigkeit
Künstliche Intelligenz hält mit hoher Geschwindigkeit Einzug in Banken: automatisierte Kreditentscheidungen, Betrugserkennung, Kundenkommunikation oder Prozessoptimierung im Backoffice. Doch mit dem Innovationsschub wächst ein neues regulatorisches Spannungsfeld. Der AI-Act, bestehende Aufsichtsanforderungen, Datenschutzrecht und IT-Regulierung greifen ineinander – und stellen Institute vor die Frage, wie KI nicht nur produktiv, sondern auch kontrollierbar eingesetzt werden kann.
Genau hier entstehen derzeit die größten Unsicherheiten. Viele Häuser experimentieren mit KI-Tools, ohne eine klare Governance-Struktur etabliert zu haben. Verantwortlichkeiten sind nicht eindeutig definiert, Risikoklassifizierungen fehlen oder werden zu oberflächlich vorgenommen. Besonders kritisch wird es bei Hochrisiko-KI-Systemen, etwa im Kreditgeschäft oder bei automatisierten Entscheidungen mit Auswirkungen auf Kundinnen und Kunden. Fehlende Transparenz, unzureichende Dokumentation oder mangelhafte Erklärbarkeit können schnell zu aufsichtsrechtlichen Beanstandungen führen.
Hinzu kommen neue IT- und Sicherheitsrisiken. Manipulierte Trainingsdaten, „Halluzinationen“ generativer Modelle oder unkontrollierte Schnittstellen zu Cloud-Umgebungen schaffen zusätzliche Angriffsflächen. Gleichzeitig bleibt die Verantwortung für Governance, Monitoring und Notfallmanagement beim Institut – selbst wenn KI-Dienste über Hyperscaler bezogen werden. Die zentrale Frage lautet daher: Welche Pflichten liegen bei der Bank, welche beim Dienstleister – und wie wird diese Abgrenzung prüfungssicher dokumentiert?
Das Online-Seminar „KI-Governance: (Aufsichts-)Anforderungen an den Einsatz von Künstlicher Intelligenz (KI)“ am 14. April 2026 greift diese Herausforderungen umfassend auf.
Dr. Markus Held (BSI) beleuchtet die regulatorischen und sicherheitstechnischen Anforderungen an KI-Nutzung und Risikomanagement.
Dr. Maximilian Mähr (BaFin) gibt Einblick in die Rolle der BaFin als Marktüberwachungsbehörde und die Erwartungen an Hochrisiko-KI-Systeme.
Bastian Bahnemann (Microsoft) bringt die technische Umsetzungsperspektive ein. Er zeigt, wie KI-Compliance im Zusammenspiel mit Cloud-Infrastrukturen umgesetzt werden kann.
Dr. Christoph Krück und Dr. Stefan Peintinger (beide SKW Schwarz Rechtsanwälte) übernehmen die rechtliche Einordnung. Sie analysieren die Auswirkungen des AI-Act, der DSGVO und bestehender Outsourcing-Anforderungen auf Bankprozesse und Verträge – inklusive der Anforderungen an Dokumentation, Transparenz und Diskriminierungsvermeidung.
Im Mittelpunkt stehen Risikoklassifizierung, Einbindung in das bestehende Risikomanagement, KI-Audits nach IDW PS 861 sowie konkrete Ansätze für Monitoring und Notfallmanagement. Ziel ist es, KI-Systeme so zu gestalten, dass sie innovationsfördernd und zugleich aufsichtsrobust sind.
Die zentrale Botschaft: KI wird zum Steuerungsthema auf Vorstandsebene. Institute, die KI-Governance, Risikoanalyse und Dokumentation nicht frühzeitig sauber aufsetzen, riskieren regulatorische Konflikte und Reputationsschäden. Dieses Seminar zeigt, wie KI-Einsatz strategisch, sicher und prüfbar gestaltet werden kann.
Weitere Informationen und Anmeldung unter:
https://www.akademie-heidelberg.de/seminar/ki-governance-aufsichts-anforderungen-den-einsatz-von-kuenstlicher-intelligenz-ki













