(openPR) Warum Deutschlands neue Recruiting-Tools zu gut für die Wirklichkeit sind
Deutschland sucht Fachkräfte – und baut ihnen gleichzeitig neue Hürden. Während Politik und Wirtschaft um Talente aus aller Welt werben, entscheidet im Hintergrund immer häufiger ein Algorithmus darüber, wer überhaupt noch eine Chance bekommt. Künstliche Intelligenz im Bewerbungsprozess soll effizient, objektiv und gerecht sein. Doch sie überfordert nicht nur internationale Bewerber – sondern zunehmend auch die Personalabteilungen selbst.
„Was wir gerade erleben, ist ein Techniksprung ohne Übersetzung“, sagt Jessica Wahl, Berliner Bewerbungscoachin mit über zehn Jahren Erfahrung in der Begleitung internationaler Fachkräfte. „Die Systeme sind hochentwickelt – aber der Bewerbungsalltag ist es nicht.“
Die Bewerber – geprüft auf Perfektion
Für internationale Bewerber wird der Einstieg in den deutschen Arbeitsmarkt zunehmend zur Prüfung auf algorithmische Perfektion. Wer Deutsch oder Englisch nicht als Muttersprache spricht, wird in KI-gestützten Video-Interviews nicht nur fachlich bewertet. Auch Sprechtempo, Wortwahl, Pausen, Blickkontakt und Mimik fließen in die Analyse ein – oft ohne zu wissen, wie stark diese Faktoren gewichtet werden.
Die 29-jährige Aaliya Ahmed bewirbt sich aus Kenia auf Stellen im Berliner Start-up-Umfeld. Mehrere Interviews liefen vollständig automatisiert ab.
„Ich sollte spontane Rollenspiele machen, auf Englisch, vor einer Kamera“, sagt sie. „Ich wusste nie, was eigentlich zählt. Nicht meine Qualifikation war das Problem, sondern wie ich wirke.“
Studien zeigen, dass dieses Gefühl weit verbreitet ist. Laut einer Erhebung der IU Internationalen Hochschule verbinden über 65 Prozent der Bewerber KI im Recruiting mit Unpersönlichkeit, ebenso viele misstrauen den Entscheidungen der Systeme. Besonders Frauen und internationale Kandidaten empfinden die Verfahren als unfair.
Die HR-Abteilungen – überfordert von der eigenen Technik
Doch die andere Seite des Prozesses ist kaum weniger angespannt. Auch Personalabteilungen geraten zunehmend unter Druck. In kurzer Zeit haben viele Unternehmen leistungsstarke KI-Tools eingeführt – oft schneller, als Prozesse, Schulungen oder klare Leitlinien mitgewachsen sind.
Ein HR-Manager eines mittelständischen Unternehmens in Brandenburg beschreibt das Dilemma so:
„Die Tools sind extrem anspruchsvoll. Sie liefern sehr präzise Bewertungen, aber niemand sagt uns, wie relevant diese Abweichungen im Arbeitsalltag wirklich sind.“
Was als Unterstützung gedacht war, wird zur stillen Autorität. Personalverantwortliche berichten, dass sie sich rechtfertigen müssen, wenn sie Kandidaten einstellen wollen, die von der KI schlechter bewertet wurden. Entscheidungen gegen den Algorithmus gelten als Risiko – Entscheidungen mit ihm als Absicherung.
„Viele HR-Teams trauen sich kaum noch, ihrem Bauchgefühl zu folgen“, sagt Jessica Wahl. „Die KI wirkt objektiv, also fühlt sich jede Abweichung wie ein Fehler an.“
Zu scharf für die Realität
Das Grundproblem liegt in der Diskrepanz zwischen Technik und Alltag. Die Systeme sind präziser, als der Bewerbungsprozess es erlaubt. Sie erkennen Muster und Abweichungen, können aber nicht einordnen, welche davon im Job tatsächlich relevant sind – und welche lediglich Ausdruck kultureller Unterschiede oder sprachlicher Unsicherheit.
Wissenschaftliche Studien stützen diese Kritik. Eine Untersuchung in der Fachzeitschrift Humanities and Social Sciences Communications zeigt, dass KI-gestützte Interviews die wahrgenommene Fairness senken und die Bewerbungsbereitschaft verringern, wenn Kriterien nicht transparent kommuniziert werden.
Ein Risiko für den Arbeitsmarkt
Für Deutschland ist das mehr als ein technisches Detail. Der Arbeitsmarkt ist dringend auf Zuwanderung angewiesen – gleichzeitig drohen automatisierte Verfahren genau jene Fachkräfte auszusortieren, die nicht perfekt ins algorithmische Raster passen.
Der Konflikt verläuft damit auf zwei Ebenen: Bewerber fühlen sich aussortiert, HR-Abteilungen fühlen sich entmachtet.
„KI kann helfen“, sagt Jessica Wahl. „Aber nur, wenn Menschen den Mut haben, sie als Werkzeug zu behandeln – nicht als Urteil.“
Solange Algorithmen als neutrale Instanz gelten, statt als fehleranfällige Systeme, wird der deutsche Arbeitsmarkt nicht offener, sondern enger – für internationale Fachkräfte ebenso wie für diejenigen, die sie einstellen sollen.









