
Foto: Photo by Markus Spiske on Unsplash
KI im Recruiting: Wer haftet bei Diskriminierung?
Die Sammelklage Mobley v. Workday stellt erstmals KI-gestützte Recruiting-Tools auf den Prüfstand – mit Folgen für den DACH-Raum. Unternehmen und Anbieter stehen vor der Frage, wie sie Compliance mit Antidiskriminierungsgesetzen sicherstellen und gleichzeitig die Vorteile automatisierter Auswahlprozesse nutzen können.
Lena Bachmann
22. April 2026
Der Fall Mobley v. Workday markiert einen Präzedenzfall für die Haftung von KI-Anbietern im Recruiting. Der Kläger wirft dem US-Softwareunternehmen vor, seine Bewerbungen durch algorithmische Screening-Tools systematisch abgelehnt zu haben – trotz qualifizierter Profile. Die Vorwürfe zielen auf Diskriminierung aufgrund von Alter, Rasse und Behinderung ab, da die KI historische Daten reproduziere und so strukturelle Benachteiligungen verstärke. Workday, ein zentraler Akteur im DACH-Markt mit tausenden Kunden, nutzt solche Tools für Active Sourcing und Talent-Pipelining. Der Fall zeigt, dass selbst etablierte Anbieter die Risiken von Blackbox-Algorithmen unterschätzen. [2][3]
Die rechtlichen Grundlagen im DACH-Raum sind klar: Das Allgemeine Gleichbehandlungsgesetz (AGG) in Deutschland, das Gleichbehandlungsgesetz (GlBG) in Österreich und das Diskriminierungsverbot in der Schweizer Bundesverfassung verbieten Benachteiligungen im Bewerbungsprozess. Die Klage gegen Workday könnte diese Regelungen nun auf KI-Systeme ausweiten. Besonders brisant ist, dass die Algorithmen oft ohne menschliche Kontrolle entscheiden – ein Verstoß gegen die Transparenzpflichten, die etwa der EU AI Act ab 2026 vorschreibt. Unternehmen im DACH-Raum müssen prüfen, ob ihre Tools diese Vorgaben erfüllen, um rechtliche Risiken zu vermeiden. [1][5]
Die Klage betrifft nicht nur Workday, sondern wirft grundsätzliche Fragen zur Verantwortung im KI-gestützten Recruiting auf. Wer haftet, wenn ein Algorithmus diskriminierende Entscheidungen trifft – der Anbieter der Software oder das nutzende Unternehmen? Im DACH-Raum fehlen bisher klare Leitlinien, doch der Fall könnte die Debatte beschleunigen. Besonders betroffen sind Großunternehmen, die KI-Tools für Active Sourcing einsetzen, um dem Fachkräftemangel zu begegnen. Die Unsicherheit könnte dazu führen, dass Unternehmen auf manuelle Prozesse zurückgreifen – mit negativen Folgen für Effizienz und Candidate Experience. [3][6]
Ein zentrales Problem ist die Intransparenz der Algorithmen. Viele KI-Tools im Recruiting arbeiten als „Blackbox“: Sie liefern Ergebnisse, ohne offenlegen zu können, wie diese zustande kommen. Dies erschwert nicht nur die Überprüfung auf Diskriminierung, sondern widerspricht auch den Anforderungen des EU AI Act. Der Act stuft KI im Recruiting als Hochrisiko-Anwendung ein und verlangt umfassende Dokumentation sowie regelmäßige Audits. Unternehmen im DACH-Raum müssen sich fragen, ob ihre Tools diese Standards erfüllen – oder ob sie auf alternative Lösungen setzen, die nachvollziehbare Entscheidungen ermöglichen. [5][7]
Die Klage gegen Workday zeigt, dass KI im Recruiting nicht nur Effizienzgewinne bringt, sondern auch erhebliche Compliance-Risiken. Besonders problematisch ist, dass Algorithmen oft unbewusste Vorurteile aus historischen Daten übernehmen. Ein Beispiel: Wenn ein Unternehmen in der Vergangenheit bevorzugt jüngere Bewerber eingestellt hat, könnte die KI diese Praxis fortschreiben – selbst wenn dies nicht beabsichtigt ist. Im DACH-Raum müssen Unternehmen daher sicherstellen, dass ihre Tools regelmäßig auf Bias überprüft werden, um Diskriminierung zu vermeiden und rechtliche Konsequenzen abzuwenden. [2][6]
Die regulatorischen Entwicklungen in den USA könnten auch den DACH-Raum beeinflussen. New York City hat mit Local Law 144 bereits eine Pflicht zu Bias-Audits für KI-Recruiting-Tools eingeführt. Ähnliche Regelungen sind in der EU denkbar, insbesondere im Rahmen des AI Act. Unternehmen sollten sich frühzeitig auf diese Anforderungen einstellen, indem sie transparente Prozesse etablieren und ihre KI-Tools regelmäßig überprüfen lassen. Der Fall Workday zeigt, dass Compliance nicht nur eine rechtliche, sondern auch eine strategische Frage ist – mit Auswirkungen auf Employer Branding und Talent Acquisition. [4][5]
Der Fall Mobley v. Workday unterstreicht die Notwendigkeit, KI im Recruiting verantwortungsvoll einzusetzen. Unternehmen im DACH-Raum müssen sicherstellen, dass ihre Tools nicht nur effizient, sondern auch fair und transparent arbeiten. Dies erfordert eine enge Zusammenarbeit zwischen HR, IT und Compliance-Teams sowie regelmäßige Audits der eingesetzten Algorithmen. Nur so lassen sich rechtliche Risiken minimieren und die Vorteile von KI im Recruiting nachhaltig nutzen. Die Praxis zeigt: Wer hier frühzeitig handelt, sichert sich nicht nur Compliance, sondern auch einen Wettbewerbsvorteil im War for Talent. [3][7]
Hintergrund
Der DACH-Raum steht vor einer regulatorischen Zäsur: Während KI-Tools im Recruiting bisher vor allem als Effizienztreiber wahrgenommen wurden, rücken nun Compliance und Haftungsfragen in den Fokus. Die Klage gegen Workday zeigt, dass selbst etablierte Anbieter die Risiken von Algorithmen-Diskriminierung unterschätzen. Besonders in Deutschland, Österreich und der Schweiz, wo Antidiskriminierungsgesetze streng ausgelegt werden, müssen Unternehmen ihre Prozesse anpassen – oder riskieren rechtliche Konsequenzen und Reputationsschäden.
Quellen
- [1]KI im Personalwesen | Die Klagen gegen Workday
- [2]Bad KI Bunny: Die Klagen gegen Workday und Eightfold und ihre Wirkung für Recruiting-Teams
- [3]Der Fall Mobley v. Workday steht exemplarisch für die Herausforderungen und Risiken beim Einsatz von KI im Personalwesen | Marcus K. Reif
- [4]Workday AI Lawsuit Explained: Implications for HR
- [5]Workday Lawsuit Over AI Hiring Bias (As of July 29, 2025) - FairNow
- [6]Workday’s Hiring AI Faces Lawsuit Over Age Discrimination
- [7]KI im Recruiting: Diskriminierung erkennen und Fairness gestalten
- [8]KI im Recruiting: Effizienz-Turbo oder Diskriminierungsrisiko? Warum Künstliche Intelligenz zur neuen Allgemeinbildung werden muss - Genspark
Weitere Beiträge

KI-Recruiting unter Druck: Was die Eightfold-Klage für DACH-Arbeitgeber bedeutet
Lena Bachmann·22. April 2026
Eine aktuelle Klage gegen den KI-Recruiting-Anbieter Eightfold AI wirft grundsätzliche Fragen zur Transparenz automatisierter Einstellungsverfahren auf. Für Unternehmen im DACH-Raum wird die Compliance von KI-Tools zum kritischen Faktor – besonders bei Active Sourcing und Employer Branding.

Active Sourcing als Schlüssel im DACH-Recruiting
Lena Bachmann·21. April 2026
Der Fachkräftemangel im DACH-Raum zwingt Unternehmen, ihre Talent Acquisition neu auszurichten. Active Sourcing entwickelt sich dabei zum zentralen Instrument, um passive Kandidaten gezielt anzusprechen. Doch welche Methoden und rechtlichen Rahmenbedingungen sind entscheidend?

Skills-Based Recruiting im DACH-Raum
Lena Bachmann·21. April 2026
Der Arbeitsmarkt im DACH-Raum vollzieht einen Paradigmenwechsel: Immer mehr Unternehmen ersetzen klassische Qualifikationsnachweise durch kompetenzbasierte Einstellungsverfahren. Dieser Trend reagiert auf Fachkräftemangel und digitale Transformation – und verändert die Talentakquise von Grund auf.