Ethik und künstliche Intelligenz
Neue Normalität hinterfragen?
Längst findet sich auch im Alltag des OttoNormalverbrauchers eine Vielzahl von KI-Anwendungen: Zu Hause oder im Auto werden digitale Sprachassistenten genutzt, Streamingdienste machen Empfehlungen auf Basis einer KI und selbst die meisten Smartphone-Fotos werden von der KI optimiert. Lösungen, die das Leben eines jeden einfacher gestalten.
Eine Entwicklung, die auch vor HR-Abteilungen keinen Halt macht. Schon heute können Lernplattformen auf Basis der Nutzung den Usern Vorschläge zu weiteren Lernangeboten machen. KI kann aber auch in Form einer Entscheidungshilfe für Personalverantwortliche eingesetzt werden: So kann KI dabei helfen, das Skillset eines Unternehmens zu analysieren und so Empfehlungen ableiten. Außerdem können KI-Anwendungen Bewerbungen analysieren und so die Basis für Personalentscheidungen bieten. KI kann hier Arbeitsschritte erleichtern, aber auch die Lernerfahrung der Mitarbeiter verbessern.
Hierbei stellt sich allerdings auch ein Problem: Wenn wir immer mehr Aufgaben der KI anvertrauen, müssen wir auch davon ausgehen können, dass diese keine falschen Entscheidungen trifft. Gerade hier lassen Berichte von Anwendungen der KI, die mit diskriminierenden Äußerungen Rede von sich machen, allerdings keine positiven Assoziationen zu. Diese Betrachtungsweise wird der KI allerdings nicht gerecht. Sie untergräbt den Nutzen, den KI für Unternehmen und Menschen haben kann.
Wie KI funktioniert und wie sie zu ihrem Bias kommt
Die Schuld hierfür allein der Technologie zu geben, kann allerdings nicht der richtige Weg sein. Vielmehr muss schon bei der Entwicklung der KI und schlussendlich sogar bei den Anwendern angesetzt werden. Doch dazu müssen zunächst die Grundlagen einer KI verstanden werden, um so nachvollziehen zu können, wie sie ihren Bias entwickeln kann. Jede KI simuliert menschliche Intelligenz. Mit dieser können Computersysteme Aufgaben erfüllen, die zuvor noch von Menschen durchgeführt werden mussten. Dabei ist der Aufbau von KI-Systemen im Grundsatz immer sehr ähnlich. Jede künstliche Intelligenz, egal ob einfacher Chatbot oder komplexes System zur Steuerung eines Autos, benötigt einen riesigen Datensatz zum Training – dieser wird auch Bibliothek genannt. Innerhalb dieses Datensatzes sucht die KI dann mithilfe von Algorithmen und statistischen Methoden nach Zusammenhängen. Anhand dieser kann die KI Muster erkennen, aufgrund derer sie Entscheidungen fällen kann. Hierbei werden sog. neuronale Netze aufgebaut. Diese kann man sich als eine Art Nachbildung der Verbindungen zwischen den Neuronen im menschlichen Gehirn vorstellen. Neuronale Netze bilden die Basis einer KI. Sie können durch die Verknüpfung der Neuronen eine parallele Informationsverarbeitung ermöglichen und nichtlineare Abhängigkeiten der Ursprungsinformationen durch selbst erlernte Erfahrungsdaten ableiten.
KI-Learning
Um eben diese neuronalen Netze aufbauen zu können, gibt es verschiedene Arten des Lernens einer KI.
- Dabei versteht man unter dem Oberbegriff Machine Learning alle Lernprozesse, die mithilfe von selbst-adaptiven Algorithmen vollzogen werden. Diese Algorithmen haben unter Zuhilfenahme besonders großer Bibliotheken die Möglichkeit, eigenständig zu lernen und sich auch ohne äußere Eingriffe verbessern zu können.
- Währenddessen das Deep Learning als ein Teil des Machine Learning verstanden werden muss. Deep-Learning-Systeme verfügen über eine besonders hohe Anzahl an Schichten im neuronalen Netz, dadurch können diese Netze trotz geringer menschlicher Vorarbeit hohe Datenmengen verarbeiten und so genauere Ergebnisse ableiten.
Darüber hinaus unterscheidet man noch zwischen den verschiedenen Arten, wie eine KI ihre neuronalen Netze aufbaut. Dabei wird unterschieden zwischen
- Supervised Learning,
- Unsupervised Learning und
- Reinforcement Learning.
Je nach Anwendungsfall bieten die einzelnen Lernmethoden unterschiedliche Vor- und Nachteile. Machine-Learning-Algorithmen im Supervised Learning lernen mithilfe von Daten, die mit einem Label versehen sind. Ein Label ist gleichzusetzen mit der Lösung der Aufgabe. Anhand dieser Datensätze und zugehörigen Label versucht die KI mithilfe von statistischen Berechnungen, Zusammenhänge und Muster zu erkennen, um diese später anwenden zu können. Supervised Learning ist besonders für die Text- oder Objekterkennung, aber auch für die Erstellung von Prognosen anwendbar.
Anders dagegen das Unsupervised Learning, hierbei benötigt der Algorithmus keine Label. Die KI ist quasi auf sich allein gestellt und soll anhand einer Bibliothek eigenständig eine Clusterung der Daten vornehmen. Anders als beim Supervised Learning sind beim Unsupervised Learning die Ergebnisse nicht von Anfang an klar. Das Ziel ist es, in den zur Verfügung stehenden Daten bisher unbekannte Muster zu erkennen und daraus Regeln abzuleiten. Diese Methode eignet sich vor allem zur Visualisierung großer Datenmengen (Big Data), aber auch zur Segmentierung von bspw. Kunden oder Märkten.
Dagegen steht das Reinforcement Learning, welches deutlich komplexer als die eben angeführten Arten ist. Diese Art des Lernens könnte man mit dem Prinzip „Zuckerbrot und Peitsche“ beschreiben: Die KI bewegt sich als „Agent“ in einer „Umwelt“, in dieser muss die KI die richtigen Schlüsse ziehen, da sie sonst nicht weiterkommt. Durch die Konsequenzen ihrer Entscheidungen lernt sie, welcher Weg der Richtige ist und kann so Zusammenhänge erkennen. Reinforcement Learning ist vor allem für personalisierte Empfehlungen und komplexere KI-Anwendungen wie fahrerlose Autos anwendbar.
Dabei lässt sich allgemein ableiten, was eine KI schon heute gut kann: darunter u. a. das Lösen von spezifischen, klar definierten Problemstellungen. Aber auch die Clusterung großer Mengen unstrukturierter Daten. Auch Prognosen kann eine KI treffen, solange sie auf analysierten Daten basieren. Darüber hinaus kann KI relativ problemlos Prozesse reproduzieren und sie so anhand erkannter Muster optimieren. Schwer hingegen fällt es KI, über eine klar definierte Aufgabe hinaus zu agieren oder Aufgaben ohne Kontextwissen zu lösen. Ein weiteres Problem der KI ergibt sich daraus, dass wir die Entscheidungsfindung einer KI nicht einfach nachvollziehen können. Was auch damit zusammenhängt, dass eine KI auch heute noch Probleme damit hat, logische und komplexe Argumentationen zu verfassen. Sie kann so zwar eine „Meinung“ annehmen, diese allerdings nicht erklären,da diese „Meinung“ lediglich auf den Mustern basiert, die die KI in den zur Verfügung gestellten Daten gefunden hat.
Kurz gesagt: Das Ziel des maschinellen Lernens besteht (aktuell noch) darin, Daten auf ihre Muster zu analysieren und auf Basis dieser Muster die wahrscheinlichste Antwort zu verfassen. Doch genau hieraus ergibt sich auch eines der großen Probleme beim Einsatz von KI: Anders als Menschen verfügt eine KI (noch) nicht über ein Gewissen oder Ethik. Sie kann nicht antizipieren, welche Folgen eine Handlung hat. Sie fällt ihre Entscheidungen einzig und allein auf Basis der Muster, die sie in den Daten ausmachen konnte. Erlernt eine KI jetzt durch Unstimmigkeiten in den ihr zur Verfügung stehenden Daten ein diskriminierendes Muster, so wird sie dieses auch immer wieder anwenden. Aber falsche Entscheidungen können von einer KI auch getroffen werden, wenn ihr nur unzureichende Datensätze zur Verfügung gestellt werden. So nahm die Polizei in den USA schon mehrmals Personen fest, die aufgrund einer fehlerhaften Gesichtserkennungs-KI falsch erkannt wurden. Wie sich im Nachhinein herausstellte, bot der Trainingsdatensatz, der von den amerikanischen Behörden genutzt wurde, zwar genügend Datensätze zu weißen Gesichtern, jedoch nicht von People of Color. So konnte die KI nicht genügend Muster und Regeln erstellen und fällte falsche Entscheidungen mit weitreichenden Problemen für die Betroffenen. Dieses Beispiel zeigt, wie wichtig die Zusammenstellung der Datensätze im Training einer KI ist.
Diese Beobachtung wird vor allem dann deutlich, wenn es um Anwendungen in der HR geht. Von personalisierten Empfehlungen in Learning-Anwendungen bis hin zur Clusterung und Vorauswahl von Bewerbern leistet KI schon heute einiges in der HR. Doch gerade dann, wenn sie für Personalentscheidungen eingesetzt wird, muss Personalverantwortlichen klar sein, dass auch eine KI nicht frei von einem Bias ist. Aufgrund schlechter Datensätze fällt eine KI nun einmal schlechte Entscheidungen.
Anerkennung der Ursachen und Bekämpfung der Risiken
Klar ist: Die Zusammenstellung der Trainingsdatensätze nimmt einen immens wichtigen Teil bei der Erstellung ethischer KI ein. Doch trotzdem wirkt es eher wie eine Behandlung der Symptome und nicht wie eine Bekämpfung der Ursachen. Für eine wirksame Ursachenbekämpfung muss viel holistischer gedacht und schon in der Bildung angesetzt werden. Bildung, die bisher noch fehlt. Erst im letzten Jahr kündigte die Cambridge University an, als erste Universität weltweit einen Post-Graduate-Kurs über das Thema KI-Ethik anzubieten. Anstrengungen einzelner Universitäten – so wie diese – sind zwar löblich, müssen allerdings deutlich weiter gehen. Bis jetzt ist die KI-Ethik noch kein essenzieller Teil eines Informatik- oder Programmierstudiums. Dieser Schritt ist absolut notwendig, damit junge Entwickler die Problemstellung schon beim Coden der KI mitberücksichtigen können.
Doch natürlich enden die Grundlagen der KI-Ethik nicht hier. Teams müssen mit internen Weiterbildungen dazu beitragen, dass Diversity – gerade für Teams, die an der Entwicklung von KI arbeiten – einen wichtigen Stellenwert einnimmt. Die diverse Zusammenstellung einer Arbeitsgemeinschaft kann dabei helfen, die Entwicklung von leistungsfähigeren und weniger diskriminierenden KI-Anwendungen zu unterstützen. Wenn Menschen mit unterschiedlichen sozialen Hintergründen und Erfahrungen zusammenarbeiten, fließen mehr Impulse in das Design neuer Produkte mit ein, wovon die Qualität und Barrierefreiheit profitieren können. Heterogene Teams zeigen in Studien deutlich bessere Ergebnisse als weniger diverse Teams. Diversity-Schulungen können hier der erste Weg sein, um die Problemstellungen in den „TopofMind“ zu bringen. Andernfalls könnte schon bei den ersten Schritten der KI-Entwicklung unbeabsichtigt riskiert werden, dass eine KI bspw. mit Daten gefüttert wird, die voreingenommene Muster widerspiegeln. Das wiederum würde dazu führen, dass sich die KI diskriminierende Denkweisen und Pattern aneignet. Gerade dann, wenn sie im großen Maße eingesetzt wird, muss ausgeschlossen werden, dass sie diskriminierende Muster der Vergangenheit wiederholt.
Fazit
Technologisch sind der KI wenig bis keine Grenzen gesetzt. Gerade deshalb sollte sich ganz genau mit den Fragestellungen ethischen KI-Designs auseinandergesetzt werden. KI-Ethik ist absolut notwendig, wenn die Technologie an weiterer Relevanz gewinnt. Dabei nehmen die Einbindung von Diversity-Weiterbildungen in die Berufspraxis und Ethikkursen in das Studium einen wichtigen Stellenwert ein.
Schlussendlich sollte es natürlich aber auch das Ziel jeder Organisation sein, diverse Teams aufzustellen, um effizienter und inklusiver arbeiten zu können. Denn was nutzt eine inklusiv handelnde KI, wenn der Rest des Unternehmens das Gegenteil anstrebt.
Profitieren Sie vom Expertenwissen renommierter Fachanwält:innen, die Sie über aktuelle Entscheidungen des Arbeitsrechts informieren. Es werden Konsequenzen für die Praxis benannt und Handlungsempfehlungen ausgesprochen.
Ethik und künstliche Intelligenz
Ethik und künstliche Intelligenz
