Mögliche Diskriminierung durch KI im Hiring: Was ist rechtlich zu beachten?

von Maximilian Wüstenkamp

Januar 27, 2026

Ein Algorithmus liest deine Bewerbung, bewertet deinen Lebenslauf und entscheidet, ob du zum Vorstellungsgespräch eingeladen wirst oder nicht. Kein Mensch hat deinen Text zu diesem Zeitpunkt gesehen. Was nach Science-Fiction klingt, ist in vielen großen Unternehmen längst Alltag. Und es wirft eine Frage auf, mit der sich Arbeitsrechtler, Datenschützer und Personalverantwortliche gerade intensiv beschäftigen: Was passiert, wenn dieser Algorithmus systematisch die falschen Menschen aussortiert?

Wie KI im Recruiting heute eingesetzt wird

Bevor man über Diskriminierung spricht, lohnt es sich zu verstehen, wo KI im Hiring-Prozess überhaupt zum Einsatz kommt. Der bekannteste Anwendungsfall ist das automatische Screening von Bewerbungen, bei dem ein System Lebensläufe nach bestimmten Keywords, Abschlüssen oder Erfahrungsmustern durchsucht und eine Vorauswahl trifft. Dahinter steckt meistens kein einzelner Algorithmus sondern ein komplexes System das auf historischen Einstellungsdaten trainiert wurde.

Darüber hinaus nutzen manche Unternehmen KI-gestützte Videointerviews, bei denen Sprache, Mimik und Wortwahl analysiert werden, um Rückschlüsse auf Persönlichkeit und Eignung zu ziehen. Andere setzen auf automatisierte Persönlichkeitstests oder Matching-Algorithmen, die Kandidatenprofile mit erfolgreichen Mitarbeiterprofilen vergleichen. Die Technologie ist vielfältig und entwickelt sich schnell, die rechtlichen Rahmenbedingungen hinken jedoch hinterher.

Warum KI im Hiring diskriminieren kann

Das grundlegende Problem ist, dass KI-Systeme aus historischen Daten lernen und historische Daten historische Ungleichheiten widerspiegeln. Wenn ein Unternehmen in der Vergangenheit überwiegend Männer eingestellt hat und ein Algorithmus auf diesen Daten trainiert wird, lernt er, männliche Kandidaten zu bevorzugen, ohne dass das irgendjemand so programmiert hat. Amazon hat dieses Problem bereits 2018 öffentlich eingeräumt und ein intern entwickeltes KI-Recruiting-Tool abgeschaltet, das Frauen systematisch schlechter bewertet hatte.

Das Tückische daran ist die Unsichtbarkeit des Mechanismus. Bei einem menschlichen Recruiter kann man nachfragen warum eine Entscheidung so getroffen wurde. Bei einem Algorithmus ist das oft nicht möglich, weil die Entscheidung das Ergebnis tausender gewichteter Parameter ist, die niemand mehr vollständig nachvollziehen kann. Dieses Problem hat in der Informatik einen eigenen Namen: den sogenannten Black-Box-Effekt.

Hinzu kommt, dass manche Merkmale die auf den ersten Blick neutral wirken, in der Praxis als Proxy für geschützte Eigenschaften funktionieren. Die Postleitzahl eines Bewerbers kann mit ethnischer Herkunft korrelieren. Die Wahl bestimmter Formulierungen im Anschreiben korreliert mit Bildungsstand. Das Datum eines Studienabschlusses verrät ungefähr das Alter. KI-Systeme können all diese Signale aufgreifen und verwerten, ohne dass es jemand explizit so vorgesehen hat.

Was das Allgemeine Gleichbehandlungsgesetz (AGG) dazu sagt

In Deutschland schützt das Allgemeine Gleichbehandlungsgesetz, kurz AGG, Bewerberinnen und Bewerber vor Diskriminierung aufgrund von Rasse, ethnischer Herkunft, Geschlecht, Religion, Weltanschauung, Behinderung, Alter und sexueller Identität. Das Gesetz gilt auch für den Bewerbungsprozess und damit grundsätzlich auch für KI-gestützte Entscheidungen darin.

Die entscheidende Frage ist, wer haftet wenn ein Algorithmus diskriminiert. Nach aktuellem Rechtsstand liegt die Verantwortung beim Unternehmen, nicht beim Anbieter der KI-Software. Wer ein KI-System im Recruiting einsetzt, ist dafür verantwortlich, dass es keine unzulässigen Unterscheidungen trifft, auch wenn die Diskriminierung nicht beabsichtigt war. Unternehmen können sich also nicht damit herausreden, dass sie „nur ein Softwareprodukt genutzt haben“.

Der EU AI Act könnte für Verbesserungen sorgen

Der EU AI Act, der seit 2024 schrittweise in Kraft tritt, stuft KI-Systeme die für Einstellungsentscheidungen genutzt werden als Hochrisiko-Anwendungen ein. Das hat konkrete Konsequenzen für Unternehmen, die solche Systeme einsetzen oder entwickeln. Sie sind unter anderem verpflichtet, Risikoanalysen durchzuführen, die Systeme auf Diskriminierungspotenzial zu prüfen und eine menschliche Aufsicht sicherzustellen.

Besonders relevant ist die Anforderung an Transparenz und Erklärbarkeit. Bewerberinnen und Bewerber haben das Recht zu verstehen, auf welcher Grundlage eine automatisierte Entscheidung getroffen wurde. Das stellt viele Unternehmen vor ein praktisches Problem, weil die eingesetzten Systeme oft gar nicht so gebaut sind, dass sie ihre Entscheidungen verständlich erklären können. Wer jetzt KI im Hiring einsetzt ohne sich mit diesen Anforderungen auseinanderzusetzen, riskiert nicht nur rechtliche Probleme sondern auch erheblichen Reputationsschaden.

Für kleinere Unternehmen die fertige HR-Software mit KI-Funktionen nutzen, gilt das Gleiche. Der Umstand, dass ein externer Anbieter das System entwickelt hat, entbindet nicht von der Verantwortung für die Ergebnisse.

Unternehmen können und sollten handeln

Der wichtigste erste Schritt ist ein ehrlicher Blick auf die eigenen Prozesse. Welche KI-Systeme werden im Recruiting eingesetzt? Was genau entscheiden diese Systeme? Auf welchen Daten wurden sie trainiert? Viele Unternehmen wissen das selbst nicht genau, weil die Einführung solcher Tools oft ohne tiefes Verständnis der zugrundeliegenden Mechanismen stattgefunden hat.

Danach braucht es eine regelmäßige Überprüfung der Ergebnisse. Werden bestimmte Gruppen systematisch aussortiert? Gibt es auffällige Muster bei den Kandidaten die es durch das Screening schaffen? Diese Analyse muss aktiv angestoßen werden, sie passiert nicht von selbst. Externe Audits durch unabhängige Stellen sind dabei hilfreicher als interne Selbstbewertungen.

Am Ende steht die Frage nach der menschlichen Kontrolle. KI kann im Recruiting unterstützen und Effizienz schaffen, aber die finale Entscheidung über Menschen sollte bei Menschen liegen. Das ist nicht nur rechtlich geboten sondern auch aus Unternehmensperspektive sinnvoll: Ein Algorithmus kann keine Leidenschaft erkennen, keine unkonventionellen Werdegänge einordnen und keinen kulturellen Fit beurteilen.

Fazit: Die Verantwortung liegt klar beim Arbeitgeber!

KI im Hiring ist kein rechtliches Neuland mehr. Die Gesetze existieren, die Anforderungen sind klar und die ersten Fälle in denen Unternehmen für diskriminierende Algorithmen zur Verantwortung gezogen wurden, gibt es bereits. Wer glaubt, dass die Nutzung eines Softwareprodukts die eigene Verantwortung überträgt, irrt sich.

Das bedeutet nicht, dass KI im Recruiting verboten oder grundsätzlich problematisch ist. Es bedeutet, dass Unternehmen diese Systeme mit denselben ethischen und rechtlichen Maßstäben behandeln müssen wie jede andere Personalentscheidung auch. Wer das tut, kann KI als echten Vorteil im Recruiting nutzen. Wer es nicht tut, sitzt auf einem rechtlichen Risiko das mit der Zeit nicht kleiner wird.

Maximilian Wüstenkamp

Maximilian beschäftigt sich seit dem Launch von ChatGPT im Jahr 2022 intensiv mit KI und weiß seitdem, dass es noch weitaus mehr gibt als nur generative LLMs.