(openPR) Wenn Algorithmen entscheiden – warum die Interne Revision beim Thema KI jetzt handeln muss
Künstliche Intelligenz (KI) hält Einzug in die Finanzwelt – mit rasanter Geschwindigkeit. Banken nutzen KI-Modelle längst für Kreditentscheidungen, Betrugserkennung oder Marktanalysen. Doch mit dem Nutzen wachsen auch die Risiken: fehlerhafte Modelle, versteckte Verzerrungen (Bias), mangelnde Transparenz und schwer nachvollziehbare Entscheidungslogiken. Was passiert, wenn ein Algorithmus diskriminiert, falsche Bonitätsbewertungen liefert oder eine Risikoeinschätzung auf unvollständigen Daten beruht? Genau hier ist die Interne Revision gefragt – doch viele Revisionsfunktionen stehen vor einer völlig neuen Herausforderung.
Denn klassische Prüfmethoden stoßen bei KI-Systemen schnell an ihre Grenzen. Während herkömmliche Prozesse klar dokumentiert und nachvollziehbar sind, basieren Machine-Learning-Modelle auf hochkomplexen, selbstlernenden Strukturen. Sie verändern sich mit jeder Datenzufuhr – oft ohne menschliches Zutun. Viele Institute wissen noch nicht, wie sie diese dynamischen Systeme prüfen sollen oder welche regulatorischen Anforderungen gelten. Spätestens mit dem EU AI Act, dem NIST AI Risk Management Framework und der ISO/IEC 23894:2023 steht fest: KI darf nicht unkontrolliert eingesetzt werden. Transparenz, Fairness, Robustheit und Nachvollziehbarkeit werden zum Maßstab der Prüfung – und zur Pflicht der Revision.
Das Online-Seminar „Künstliche Intelligenz in der Internen Revision: Einsatz & Prüfung“ am 5. November 2025 bietet hier dringend benötigte Orientierung.
Die erfahrenen Referenten Jan Zeitz und Nikolai König von Protiviti zeigen praxisnah, wie Revisorinnen und Revisoren KI-Modelle verstehen, bewerten und sicher prüfen können.
Im ersten Teil vermitteln sie grundlegendes Wissen: Was ist eigentlich KI, Machine Learning oder Deep Learning – und wie unterscheiden sich diese Verfahren? Anhand realer Anwendungsfälle aus Unternehmen wird deutlich, wie groß das Potenzial, aber auch wie gravierend die Risiken sind – etwa durch fehlerhafte Trainingsdaten, unerkannte Biases oder Sicherheitslücken in der Modellarchitektur.
Der zweite Vortrags-Block widmet sich den regulatorischen Anforderungen und der KI-Governance. Die Teilnehmenden erfahren, welche neuen Pflichten der EU AI Act für Banken, Versicherer und Dienstleister mit sich bringt und wie sie diese in ihre Governance-Strukturen integrieren. Dabei wird gezeigt, wie Verantwortlichkeiten, Eskalationsprozesse und Dokumentationspflichten so organisiert werden können, dass Prüfungen standhalten.
Besonderes Augenmerk liegt auf der Prüfungsmethodik: Mithilfe bewährter Frameworks wie CRISP-DM und COBIT lernen die Teilnehmenden, wie ein KI-Audit strukturiert abläuft – von der Datenanalyse über Modellvalidierung bis hin zur Überprüfung von Fairness, Erklärbarkeit und Robustheit. Ergänzt wird dies durch Fallstudien aus realen KI-Audits, die zeigen, wo Revisionen typischerweise ansetzen müssen – und wo bisherige Prüfungsansätze scheitern.
Ziel ist es, die Interne Revision in die Lage zu versetzen, KI-Anwendungen nicht nur zu prüfen, sondern aktiv mitzugestalten. Denn die Revision wird künftig eine Schlüsselrolle einnehmen: Sie muss nicht nur Risiken aufdecken, sondern auch sicherstellen, dass KI verantwortungsvoll und wertschöpfend eingesetzt wird.
Die Botschaft ist klar: KI ist kein Zukunftsthema mehr – sie verändert die Unternehmenssteuerung, das Risikomanagement und die Revision schon heute. Wer die Mechanismen und Kontrollanforderungen jetzt nicht versteht, wird sie bald nicht mehr steuern können. Dieses Seminar zeigt, wie sich die Revision für das Zeitalter der künstlichen Intelligenz rüstet – transparent, prüfungssicher und zukunftsweisend.
Weitere Informationen und Anmeldung unter:
https://www.akademie-heidelberg.de/seminar/kuenstliche-intelligenz-der-internen-revision-einsatz-pruefung











