top of page

TIME4HIRES

BLOG

Bad KI Bunny: Die Klagen gegen Workday und Eightfold und ihre Wirkung für Recruiting-Teams

  • Autorenbild: Marcus
    Marcus
  • vor 6 Tagen
  • 5 Min. Lesezeit


Die aktuellen Klagen gegen Workday und Eightfold markieren eine heftige Eskalationsstufe in der Debatte um KI im HR-Umfeld. Zurecht, wie ich finde. Auch wenn hier nur zwei namhafte Anbieter von innovativen Recruiting-Lösungen verklagt werden, treffen die Konsequenzen daraus alle Unternehmen, die algorithmische Systeme im Recruiting einsetzen – und sich dabei zu stark auf Technologie verlassen haben.


Alleine die Zulassung der Klage sendet eine klare und richtige Botschaft: Automatisierte Auswahl entbindet nicht von Verantwortung. Auch dann, wenn ein Algorithmus vorbereitet, vorsortiert oder bewertet wird. Genau das macht diese Verfahren für Arbeitgeber im DACH-Raum relevant – nicht als US-Spezialfall, sondern als Vorbote einer Entwicklung, die durch EU AI Act, Datenschutz-Grundverordnung und Antidiskriminierungsrecht bereits klar vorgezeichnet ist.



Was den Klagen gemeinsam ist – und warum das kein Anbieterproblem ist


Im Fall Workday geht es um KI-gestütztes Screening. Ein Bewerber wirft dem System vor, ihn systematisch benachteiligt zu haben. Nicht, weil Alter oder Herkunft explizit abgefragt wurden, sondern weil sogenannte Proxy-Kriterien herangezogen werden: Ausbildungswege, bestimmte Hochschulen, Karriereverläufe oder technologische Schwerpunkte. Diese Merkmale korrelieren statistisch stark mit geschützten Eigenschaften und können dadurch zu indirekter Diskriminierung führen.


Entscheidend ist die rechtliche Einordnung: Ein US-Bundesgericht hat die Klage zugelassen und Workday als „Agent“ des Arbeitgebers betrachtet. Damit wird der Anbieter nicht aus der Verantwortung entlassen – aber der Arbeitgeber eben auch nicht. Die Haftung wird geteilt, nicht verschoben.


Bei Eightfold liegt der Schwerpunkt woanders, aber die Logik ist ähnlich. Hier geht es um Transparenz und Datenschutz. Die Sammelklage wirft dem Anbieter vor, Daten aus Drittquellen wie LinkedIn oder GitHub zusammenzuführen, Profile zu bilden und Scorings zur Job-Eignung zu erstellen, ohne Bewerbende ausreichend zu informieren oder ihnen Korrekturmöglichkeiten zu geben. Der Kernvorwurf lautet: intransparentes Profiling ohne wirksame Einwilligung.


Für europäische Arbeitgeber ist das kein exotisches Szenario. Genau diese Fragen sind zentrale Bestandteile der Datenschutz-Grundverordnung und der Diskussion um automatisierte Entscheidungen im Arbeitskontext.



Warum das auch für Arbeitgeber im DACH-Raum besonders heikel ist


In Europa gelten KI-Systeme im Recruiting als Hochrisiko-Anwendungen. Der EU AI Act verlangt Risikomanagement, transparente Information, menschliche Aufsicht sowie den Nachweis, dass Systeme nicht diskriminierend wirken – eine durchaus anspruchsvolle Aufgabe für Unternehmen und Systemanbieter. Parallel greifen nationale Gleichbehandlungsgesetze und arbeitsrechtliche Schutzmechanismen.


Der entscheidende Punkt: Arbeitgeber können sich nicht hinter ihren Tools verstecken.

Wer eine Software einkauft und in den Auswahlprozess integriert, verantwortet deren Wirkung. Juristisch wie reputativ. Die Klagen in den USA machen das nur sichtbarer, nicht grundsätzlicher.



Was jetzt zählt: wenige, aber wirksame Schritte


Kurzfristig geht es nicht darum, KI aus dem Recruiting zu verbannen. Es geht darum, die Kontrolle zurückzuholen und Risiken zu reduzieren.


  • Transparenz schaffen: Bewerbende müssen nachvollziehen können, ob und wo algorithmische Systeme eingesetzt werden. Das betrifft Datenschutzhinweise ebenso wie die Tonalität in der Candidate Journey.

  • Menschliche Entscheidungen absichern: Vollautomatisierte Ablehnungen ohne echte Prüfung sind ein unnötiges Risiko. Scores sind Arbeitshypothesen, keine Urteile.

  • Anbieter aktiv in die Pflicht nehmen: Aussagen zu Trainingsdaten, Bias-Tests und Audit-Mechanismen gehören heute zur Sorgfaltspflicht – nicht zur Kür.


Diese Punkte lassen sich kurzfristig umsetzen, ohne dabei Prozesse lahmzulegen. Es wird Zeit kosten und eventuell den Workload noch oben drücken. Das sollte man einkalkulieren. Konkret:

1. KI-Bestandsaufnahme

Erstelle ein Verzeichnis aller Recruiting-Systeme und Funktionen, inkl. „versteckter KI“ (oft als „Recommendations“, „Ranking“ oder „Smart Filtering“ verpackt). Dokumentiere:


  • wo automatisierte Rankings / Scores / Filter wirken

  • welche Daten einfliessen: CV, Bewerbungsformulare, Assessments, Interview-Scores, Drittquellen

  • ob sensible Merkmale direkt oder indirekt (Proxy-Risiko) betroffen sein können


2. Kandidatenkommunikation aktualisieren

Wenn ein System vorsortiert oder scored, musst du das in der Candidate Journey abbilden: transparent, verständlich, mit echten Rechten. Der EU-Kontext betont genau diese Informationspflichten. 


3. „Human in the Loop“ als echte Kontrolle, nicht als Alibi

Vermeide vollautomatisierte Ablehnungen ohne Review. Definiere Stellen im Prozess, an denen Recruiter/Hiring-Manager-Scores plausibilisieren und überstimmen können. (Wenn das niemand kann, ist es faktisch automatisiert, egal, was im Marketing-PDF steht.)


4. Anbieter in die Pflicht nehmen

Fordere und dokumentiere: Testlogik, Bias-Checks, Audit-Ansätze, Datenherkunft, Erklärbarkeit, Support bei Betroffenenanfragen. Der Workday-Fall zeigt, dass Vendor-Liability realistisch ist – aber das schützt dich nicht, wenn du blind deployest. 



Mittelfristig: Recruiting governance-fähig machen


Auf Sicht von 12 bis 24 Monaten reicht die operative Schadensbegrenzung nicht aus. Unternehmen brauchen eine belastbare Struktur für den Umgang mit KI im Recruiting.


  • Klare Leitplanken, welche Einsatzszenarien erlaubt sind – und welche bewusst ausgeschlossen werden.

  • Interdisziplinäre Steuerung, in der HR, Recht, Datenschutz und Mitbestimmung gemeinsam bewertet werden, nicht nacheinander repariert.

  • Systematisches Monitoring, um frühzeitig zu erkennen, ob bestimmte Gruppen im Funnel systematisch benachteiligt werden.


Das ist kein Innovationshemmnis. Im Gegenteil. Ohne Governance wird jede neue KI-Funktion zum potenziellen Haftungsfall.


Konkret:

5. KI-Governance im Recruiting etablieren

Du brauchst klare Leitplanken: erlaubte Use-Cases (z.B. Terminierung, Assistenz bei Texten) vs. rote Linien (z.B. intransparente Scores ohne Review). Der EU AI Act setzt genau auf solche kontrollierten Deployments. 


6. Bias-Management & Monitoring

Prüfe regelmässig, ob Gruppen systematisch schlechter durch den Funnel kommen. Wo du keine Merkmale erheben darfst, brauchst du alternative Verfahren (z.B. Stichprobenprüfungen, Prozessindikatoren, Qualitätsreviews).


7. Kompetenzaufbau im Hiring Team

Recruiter und Hiring Manager müssen verstehen, was ein Score ist: ein statistischer Hinweis, kein Urteil. Wenn du das nicht trainierst, hast du „automation bias“ im Haus – und damit ein Risiko, das sich im Streitfall sehr schlecht verteidigen lässt.


8. Anforderungen schärfen

Je mehr du „klassische“ Karrierepfade als implizite Mindestanforderung anwendest, desto höher ist die Proxy-Wahrscheinlichkeit. Prüfe, welche Kriterien wirklich jobrelevant sind und welche nur Tradition sind.


9. Transparente Candidate Journey

Biete Kontaktmöglichkeiten, benenne Ansprechpersonen und gib Absagen zumindest auf Kriterien-Ebene nachvollziehbar. Reuters beschreibt bei Eightfold u.a. das Thema fehlender Möglichkeiten zur Korrektur/Dispute – genau solche Punkte eskalieren Konflikte. 


10. Vorsicht bei externem Data Sourcing & Profiling

Wenn Systeme Daten aus Drittquellen zusammenführen und daraus Scores ableiten, bist du sofort in einer Zone, die in Europa sehr erklärungs- und rechtfertigungsintensiv ist. Die Eightfold-Klage macht genau das zum Kern: Drittquellen + intransparente Bewertung + fehlende Korrekturoption. 


Konsequenzen für die Recruiting-Praxis


Viele Risiken entstehen nicht durch komplexe Modelle, sondern durch mangelhafte Grundlagen. Überladene Anforderungsprofile, historisch gewachsene „Nice-to-haves“ und unreflektiertes externes Datensourcing erhöhen die Wahrscheinlichkeit indirekter Diskriminierung massiv.


Gleichzeitig sinkt die Eskalationsbereitschaft von Bewerbenden spürbar, wenn Prozesse verständlich bleiben. Wer weiss, nach welchen Kriterien grundsätzlich entschieden wurde und einen Ansprechpartner hat, klagt seltener – selbst bei einer Absage. Transparenz ist damit nicht nur eine rechtliche, sondern auch eine ökonomische Strategie.



Fazit

Die Verfahren gegen Workday und Eightfold sind kein Angriff auf Technologie. Sie sind ein Hinweis darauf, dass Verantwortung im Recruiting nicht automatisierbar ist. Unternehmen, die KI einsetzen, müssen erklären können, was ihre Systeme tun, warum sie das tun – und wo der Mensch eingreift.


Wer jetzt Transparenz schafft, Entscheidungslogiken überprüft und Anbieter kritisch steuert, reduziert nicht nur rechtliche Risiken. Er stärkt das Vertrauen. Und das ist im Recruiting derzeit die knappste Ressource.



Quellen



bottom of page