Meinung: Wenn Algorithmen Vorurteile automatisieren

1107
Bild: Langenberg
Bild: Langenberg

Die Hoffnung ist groß: Wenn Menschen in Bewerbungsgesprächen unbewusst diskriminieren, sollen es künftig Maschinen besser machen. Objektiver. Fairer. Neutral. Die Realität ist eine andere. Wer sich heute auf algorithmische Systeme verlässt, um eine diskriminierungsfreie Vorauswahl zu treffen, läuft Gefahr, das Problem zu verschärfen, statt es zu lösen.

Eine aktuelle Studie der RWTH Aachen zeigt, wie subtil sich Vorurteile in technische Systeme einschreiben. In einem Experiment sollten Teilnehmende mithilfe eines simulierten Algorithmus Bewerberprofile bewerten. Einige trugen typisch deutsche Namen wie „Michael“, andere Namen mit türkischem Klang wie „Mehmet“. Das Ergebnis: In der Variante mit eingebautem Bias schnitt „Michael“ trotz gleicher Qualifikation deutlich besser ab. Bei vielen blieb dieser Unterschied unbemerkt.

Doch das Problem liegt tiefer, denn Algorithmen lernen aus Daten, welche unsere gesellschaftlichen Realitäten widerspiegeln. Auch Entscheidungen in der Personalauswahl, die ohne KI getroffen werden, sind anfällig für Bias, etwa durch Stereotypes, den Primacy Effect oder Affinity Bias: Bewerbende mit Migrationsgeschichte, Frauen, ältere Menschen oder Menschen mit Lücken im Lebenslauf werden trotz gleicher Qualifikation oft benachteiligt. Ein identischer Lebenslauf wird unterschiedlich bewertet abhängig von Name, Alter, Geschlecht und davon, ob jemand einem selbst ähnelt oder der erste Eindruck (Halo- oder Horn-Effekt) positiv oder negativ ausfällt. Und wenn der Mensch in der Vergangenheit diskriminiert hat, tut es die KI in der Zukunft auch. Nur eben schneller und mit dem Anschein von Objektivität. Das nennt sich algorithmische Diskriminierung. Besonders problematisch wird es, wenn Personaler den Vorschlägen der KI dann auch selektiv, entsprechend ihrem eigenen Weltbild, folgen. Wer Mehmet für weniger geeignet hält, fühlt sich durch die Empfehlung des Algorithmus bestätigt und hinterfragt sie seltener. Dieses Phänomen nennen Forscher „selective adherence“, also selektives Befolgen algorithmischer Empfehlungen. Und genau hier liegt der Knackpunkt: Wer blind auf Maschinen vertraut, entmündigt sich selbst. Wer auf Diversität setzen will, muss Verantwortung für jede Entscheidung übernehmen.

Ein Überblick über die drei Teilbereiche des „Kollektiven Arbeitsrechts“: Betriebsverfassungsrecht (BetrVG, SprAuG, EBRG), Unternehmensmitbestimmungsrecht (DrittelbG, MitbestG, Montan-MitbestG), Tarifvertrags- und Arbeitskampfrecht (TVG, Artikel 9 III GG)

Eine weitere Erkenntnis der Studie: Nur 41 % der Teilnehmenden im Experiment bemerkten, dass die vermeintlich objektiven Bewertungen verzerrt waren. Das sollte zum kritischen Hinterfragen anregen. Denn von der Bewerbervorauswahl über Videointerviews bis hin zur finalen Entscheidung setzen Unternehmen zunehmend auf automatisierte Tools. Wenn Bias in einem der Schritte unbemerkt bleibt, etabliert sich strukturelle Benachteiligung unter dem Deckmantel technologischer Effizienz. Es braucht mehr Bildung, Transparenz und Kontrolle. Wer digitale Systeme einsetzt, sollte wissen, wie sie funktionieren und wo blinde Flecken liegen. Verantwortliche müssen verstehen, dass Fairness nicht automatisch durch Technologie entsteht, sondern durch Aufmerksamkeit, Reflexion und bewusste Gestaltung. Schulungen zur Wirkung von Vorannahmen, etwa zu impliziten Vorurteilen, sollten Standard in der Personalarbeit sein, unabhängig davon, ob Algorithmen eingesetzt werden oder nicht.

Am Ende des Tages bleibt die Verantwortung immer beim Menschen. Algorithmen können unterstützend fungieren, aber nicht denken. Noch weniger können sie Gerechtigkeit und Diversität fördern, wenn ihnen niemand die Richtung vorgibt. Bias in der Personalauswahl ist kein technisches, sondern ein kulturelles Problem, welches auch ohne den Einsatz von KI kritisch beleuchtet werden muss. Entscheidend ist nicht, ob wir Maschinen nutzen, sondern wie. Und mit welchem Menschenbild im Hintergrund. Wer Vielfalt will, muss bereit sein, auch dann hinzusehen, wenn es unbequem ist. Denn häufig sind die ersten Schritte zu weniger Bias weder komplex noch teuer, sondern nur das bewusste Innehalten und mutige Hinterfragen der eigenen Ansichten.

Malte Weiss

Malte Weiss

Alina Langenberg

Alina Langenberg
AttachmentSize
Beitrag als PDF herunterladen44.86 KB

· Artikel im Heft ·

Meinung: Wenn Algorithmen Vorurteile automatisieren
Seite 7
Premium
Bild Teaser
Body Teil 1

Ausgangslage

Etwa jedes achte Unternehmen in Deutschland nutzt KI (Statistisches Bundesamt, Pressemitteilung Nr. 453 v. 27.11.2023

Premium
Bild Teaser
Body Teil 1

Willkommen in der Welt der sozialen Medien. Hier entscheiden keine Buchhändler, keine Experten oder Journalisten mehr, was wir lesen oder

Frei
Bild Teaser
Body Teil 1

Frau Noack, die Geschwindigkeit in Sachen Digitalisierung ist ja atemberaubend. Vor welchen Veränderungen

Frei
Bild Teaser
Body Teil 1

Welche Chancen und Risiken sehen Sie in der Nutzung von KI-Systemen im Einstellungsprozess aus

Frei
Bild Teaser
Body Teil 1

Künstliche Intelligenz (KI) ist in aller Munde und macht auch vor dem Arbeitsrecht nicht halt. Von Recruiting-Algorithmen, die Lebensläufe

Premium
Bild Teaser
Body Teil 1

Was ist KI?

Obwohl KI mittlerweile in aller Munde ist, gibt es bislang keine anerkannte Definition. Nach allgemeiner Auffassung