„Bewusstsein“ von KI
Der beurlaubte Google-Mitarbeiter Blake Lemoine, der viel Zeit mit dem Testen von LaMDA verbrachte, scheint überzeugt, dass LaMDA empfindungsfähig ist. Er behauptet, die Software habe ihn beauftragt, anwaltliche Vertretung für sie zu besorgen und spricht schon von Kohlenwasserstoff-Vorurteilen (gemeint sind Menschen) gegen LaMDA. Auf der anderen Seite der Debatte warnt die Washington Post, dass „der Chor der Technologen ermutigt ist, die glauben, dass KI-Modelle nicht mehr weit weg vom Erreichen eines Bewusstseins sind.“
Beide Seiten haben das Wesen von KI nicht durchdrungen. LaMDA ist ein großes Sprachmodell (Large Language Model, LLM) und funktioniert im Kern wie die Autokorrektur auf dem Handy, nur dass ihm ein Vielfaches an Daten und neuronalen Netzen zu deren Verarbeitung zur Verfügung steht. Die Software hat „gelernt“, Dinge zu formulieren, die wirken, als hätte ein Mensch sie gesagt. Darauf können Menschen hereinfallen. Die Gespräche mit einer solchen KI mögen sogar interessant sein. Doch mit „Bewusstsein“ hat dies nichts zu tun.
Algorithmen können kein „Bewusstsein“ entwickeln, indem wir noch mehr Daten auf schon viele existierende werfen. Das wäre in etwa so sinnvoll wie die Hoffnung, dass noch mehr Autos auf den Straßen die Pünktlichkeit im Individualverkehr erhöhen. Die Debatte, ob LLM empfindungsfähig sind, ist ein Sturm im Wasserglas und lenkt vom eigentlichen Problem ab, das wir mit KI haben: Sie steckt voller Vorurteile, die wir Menschen ihr antrainiert haben.
Wie funktioniert KI?
Wenn Sie früher in einen Buchladen gingen und immer wieder Zeit bei den Reiseführern durch skandinavische Länder verbrachten, wusste die Verkäuferin Ihres Vertrauens, dass sie Ihnen beim nächsten Besuch den neuen Norwegenbildband empfehlen konnte und eine hohe Chance hatte, Ihnen dieses Buch zu verkaufen. Sie erkannte an Ihnen ein Muster und nutzte es aus. Nichts anderes tun Amazon oder Netflix mit Empfehlungen zu Filmen oder anderen Produkten. Sie erkennen ein Muster, anhand dessen sie eine Aktion einleiten. Dahinter steckt ein System, das Muster in unterschiedlichen Datensätzen vergleicht und die Eintrittswahrscheinlichkeit einer Aktion ermittelt. In einem Sprachmodell ist es wahrscheinlich, dass auf die Wortfolge „Zucker ist“ das Wort „süß“ folgt. In einem Empfehlungsmodell ist es wahrscheinlich, dass ein Mensch, der sich im Sommer Badesachen kauft, auch Verwendung für Sonnencreme hat.
Wenn Ihr Unternehmen (nehmen wir an, es ist ein Lebensmittelhersteller) dringend einen Qualitätsmanager sucht, dann bevorzugen Sie möglicherweise Kandidaten mit einem Masterabschluss im Wirtschaftsingenieurswesen mit Schwerpunkt in Lebensmittelchemie. Erhalten Sie zehn Bewerbungen mit einem solchen Profil, sind Sie mit einiger Wahrscheinlichkeit nicht geneigt, sich auch noch das elfte Profil einer Biologin anzuschauen, die zuletzt in einer städtischen Kläranlage arbeitete. Denn Zeit ist bekanntlich Geld. Auch dieses Entscheidungsmuster kann eine Software nachstellen – im Übrigen Tausende Male schneller als Sie. Sie kann auch schneller als Sie die Performanz von Mitarbeitern messen und abgleichen mit Maßnahmenkatalogen für Bonuszahlungen und Weiterbildungen, aber auch zu Disziplinarstrafen bis hin zu Entlassungen. All das lässt sich automatisieren und mag aus betriebswirtschaftlicher Sicht hochgradig sinnvoll sein. Doch wenn ein Algorithmus einmal so trainiert wurde, dass er sich gegen die Biologin aus der Kläranlage entscheidet, wird er dies immer tun. Sie erhält keine Chance.
Fehlentscheidungen von KI
Trainieren Sie einen Algorithmus, der anhand in Daten gegossener historischer Entscheidungen aus dem Bankwesen über Kreditvergabe entscheidet, ist die Wahrscheinlichkeit nicht gering, dass er Frauen einen geringeren Verfügungsrahmen einräumt, denn die Mehrheit dieser hat schwangerschaftsbedingt „Einkommensdellen“, während das männliche Pendant mit höherer Wahrscheinlichkeit ein durchgehend stabiles und steigendes Einkommen hat. Trainieren Sie einen Algorithmus, der Richter bei der Verhängung eines Strafmaßes Unterstützung gibt, anhand einer Einschätzung, wie hoch die Rückfallrate eines Verurteilten ist, dann ist die Wahrscheinlichkeit in den USA hoch, dass er für Latinos oder Schwarze ein höheres Strafmaß empfiehlt als für Weiße.
Auf diese Weise schreiben wir diskriminierende Einstellungen aus der Vergangenheit in der Zukunft fort, statt sie zu unterbinden. Zur Wahrheit gehört auch, dass es nicht einmal eines frauenfeindlichen oder rassistischen Entwicklers bedarf, um zu solch fatalen Ergebnissen zu kommen. Es reicht, wenn Sie glauben: „Das haben wir schon immer so gemacht, das hat sich bewährt“ oder wenn Sie Führungskräfte beschäftigen, die ihre Mitarbeiter daran erinnern, dass sie nicht fürs Nachdenken, sondern fürs Arbeiten bezahlt werden. Schon werden Algorithmen trainiert mit Daten, die aus der Vergangenheit stammen. Und nein, diese werden in Zukunft keine besseren Entscheidungen treffen. Sie werden blitzschnell zehntausende Male automatisierte Entscheidungen treffen, die auf Vorurteilen beruhen und Menschen Schaden zufügen können.
Der Einsatz von KI mit Personalverantwortung geht schon heute vielerorts gründlich schief. Im letzten Jahr veröffentlichte die Harvard Business School eine Studie zu verborgenen Talenten. 99 % der Fortune-500-Unternehmen nutzen Applicant Tracking Systems (ATS), also Software, die eine Bewerbungsfilterung vornimmt. 88 % der in der Studie befragten Unternehmen bestätigten, dass für höher qualifizierte Aufgaben potenziell geeignete Kandidaten automatisch aussortiert werden, weil sie nicht die exakten Kriterien erfüllen. Dieser Prozentsatz stieg auf 94 % bei mittleren Qualifizierungen. Laut dieser Studie hat das zur Folge, dass zehn Millionen Amerikaner, die ausreichend qualifiziert und arbeitswillig sind, nicht in Jobs gelangen – zu einem Zeitpunkt, wo die gleichen Unternehmen die „Great Resignation“ beklagen, also massenhafte freiwillige Kündigungen von Mitarbeitenden.
Amazon entschied schon vor Jahren, Unternehmensprozesse von Algorithmen überwachen zu lassen – bis hin zu Entscheidungen über Einstellungen, Auftragsvergabe, Beförderungen und Entlassungen. Bloomberg veröffentlichte im letzten Jahr eine Reportage über Amazon-Fahrer und -Führungskräfte. Viele Amazon-Boten werden vom Algorithmus herabgestuft und auch entlassen aufgrund von Problemen, die die Algorithmen nicht ausreichend einordnen können (matschige Straßen im Winter, verschlossene Gebäudekomplexe etc.). Die Manager bestätigten, dass es immer wieder zu unfairen Entlassungen kommt, weil die Algorithmen nicht ausreichend auf die tatsächlichen Probleme der Fahrer eingehen, denen sie täglich begegnen. „Amazon wusste, dass Arbeit an Maschinen zu übertragen, zu Fehlern und schädigenden Überschriften führen würde […], aber entschied, dass es billiger sei, den Algorithmen zu vertrauen als Menschen zu bezahlen, die fehlerhafte Entlassungen untersuchen“ (Fired by Bot at Amazon: ‚It’s You Against the Machine’, Bloomberg Europe, 28.6.2021).
Gesetz über KI
Die Gesetzgebung hat dieses Problem erkannt und beginnt sich zu bewegen. Im April 2021 verabschiedete die Europäische Kommission einen Gesetzentwurf über KI, der nun von Parlament und Rat beschlossen werden soll. Das Gesetz soll für die „Entwicklung einer sicheren, vertrauenswürdigen und ethisch vertretbaren künstlichen Intelligenz“ sorgen und „den vom Europäischen Parlament ausdrücklich geforderten Schutz von Ethikgrundsätzen“ sicherstellen.
Einer besonderen Prüfung wird hierbei jegliche Software unterliegen, die das Gesetz als Hochrisikosystem einstuft. Dazu gehören auch:
- KI-Systeme, die bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet werden sollen, insbesondere für die Bekanntmachung freier Stellen, das Sichten oder Filtern von Bewerbungen und das Bewerten von Bewerbern in Vorstellungsgesprächen oder Tests;
- KI-Systeme, die bestimmungsgemäß für Entscheidungen über Beförderungen und über Kündigungen von Arbeitsvertragsverhältnissen, für die Aufgabenzuweisung sowie für die Überwachung und Bewertung der Leistung und des Verhaltens von Personen in solchen Beschäftigungsverhältnissen verwendet werden sollen.
Ein weiteres Kapitel des Gesetzes zielt auf Transparenzpflichten ab. Dabei schreibt es vor, dass diese für alle Systeme gelten, die „mit Menschen interagieren“. Das können je nach Auslegung Spracherkennungssysteme wie Chatbots sein, der über Betriebsausweise ermöglichte automatisierte Zugang zu Unternehmensbereichen oder auch interaktive Wissensmanagementsysteme.
Tritt das Gesetz also in Kraft, sollten Sie sich bewusst sein, dass Ihr ATS, Ihre Personalmarketingsoftware und das jüngst erworbene Talent-Management-System als Hochrisikosysteme eingestuft und einer strengen Prüfung unterliegen werden. Sie erinnern sich wahrscheinlich noch an die Einführung der DSGVO im Jahr 2016, als vielleicht auch Ihr Unternehmen monatelang damit beschäftigt war, Double-Opt-ins zu prüfen oder einzuholen und ein neues Regelwerk für Marketing- und Vertriebsinitiativen zu definieren. Wenn Sie diesen Schock um Dimensionen größer erleben wollen, dann unternehmen Sie jetzt nichts. Oder Sie nutzen die Zeit bis zum Inkrafttreten des Gesetzes und bereiten Ihr Unternehmen auf die Prüfung Ihrer KI-Systeme auf die Einhaltung ethischer Schutzbestimmungen vor.
Was können Maschinen, das wir nicht können?
Sollten wir also die Finger von der Einführung von KI-Systemen in Personal- und Operationsbereichen lassen? Nein. Doch die Vorstellungen in Personalbereichen, dass der Einsatz von KI menschliche Tätigkeiten bis hin zu Führungsaufgaben komplett abnehmen könnte, ist ein Wunschtraum. Dieser ist nachvollziehbar vor dem Hintergrund eines Mangels an Arbeitskräften, der sich mit dem allmählichen Austritt der Boomergeneration aus dem Arbeitsmarkt drastisch verschärfen wird. Vielerorts werden wir ganz einfach gezwungen sein, nicht nur Fließband-, sondern vor allem Büroarbeit zu automatisieren. Und hier bietet KI hervorragende Möglichkeiten.
Wir sollten uns aber im Klaren darüber sein, was KI kann und was ein Mensch kann. Und dann eben nicht überlegen, ob KI den Menschen ersetzen kann, sondern wo sie ihn sinnvoll ergänzt. Eine KI kann in Sekundenschnelle einen Datensatz (z. B. einen Lebenslauf) mit den Durchschnitten von Hunderten weiteren Datensätzen vergleichen und darüber entscheiden, ob der Kandidat über oder unter einem definierten Durchschnitt abschneidet. Wir Menschen scheitern zumeist schon an der Aufgabe, innerhalb einer Sekunde die auf zwei Nachkommastellen gerundete Antwort auf die Aufgabe „10:7“ zu errechnen. Umgekehrt besitzen wir Eigenschaften wie Neugier, Wille, Intuition, Empathie oder Metakognition, also die Fähigkeit, eigene Handlungen, Gedankengänge und Entscheidungsmuster zu reflektieren und situativ anzupassen. Beides wird in Zukunft benötigt. Nur werden unsere Hirne auf absehbare Zeit weder zu Supercomputern, noch wird KI – entgegen allen Prophezeiungen aus dem Silicon Valley – die Fähigkeit entwickeln, „sich selbst“ zu hinterfragen oder auch nur zu erkennen.
Wo ist es also sinnvoll, die Kollegin KI mit ihren wervollen Inselbegabungen den Kollegen Mensch ergänzen zu lassen? KI ist heute schon vielerorts im Einsatz – von den genannten ATS über den Abgleich von Urlaubsansprüchen bis hin zur Personaleinsatzplanung. Stärkere KI-Systeme sind längst in der Lage, Betriebsvereinbarungen zu formulieren oder existierende mit geltendem Recht abzugleichen. Eine ganze Reihe von Unternehmen misst die Stimmung unter Mitarbeitern und kann sogar erkennen, wenn Führungskräfte so demotiviert sind, dass sie bereit sind, das Unternehmen zu wechseln. Vielerorts erarbeitet KI bereits Talententwicklungspfade in Form von Trainings- und Weiterbildungsmaßnahmen. Und natürlich kann sie auch Performanz von Mitarbeitern messen und je nachdem, wie verantwortlich ein Unternehmen mit den eigenen Arbeitskräften umgehen will, anhand dieser Messungen Maßnahmen vorschlagen oder selbst umsetzen.
Kann KI unsere Unternehmenswerte leben?
Viele Unternehmen, die KI in Personalbereichen einsetzen, haben damit begonnen zu versichern, dass ihre KI fair sei oder Diversität berücksichtige. Oft findet sich das Versprechen der Hersteller solcher Systeme dann sogar auf Unternehmensseiten und soll ein Pluspunkt im Employer Branding sein. Doch was heißt es eigentlich, dass KI „fair“ ist? Wie passt das Fairness-Marketing eines KI-Herstellers zum gelebten Fairnessmodell in einem Unternehmen? Wir müssen uns nur eine große Wirtschaftsprüfungsgesellschaft und einen Automobilkonzern vorstellen und stellen fest, dass Fairness aus guten Gründen in beiden Unternehmen anders definiert wird. Beide Fairnessinterpretationen sind dabei im jeweiligen Kontext richtig, passen jedoch nicht zueinander und lassen sich nicht von ein und demselben Algorithmus abbilden.
Eine KI benötigt klare Anweisungen, nach welchen Kriterien sie ein Muster erkennen oder abgleichen soll. Vor einigen Jahren befragten wir Topmanger aus unterschiedlichen Bereichen eines Weltkonzerns, in dem sowohl Diversität als auch Performanz großgeschrieben wurden. Eine Frage lautete: „Angenommen, mehr Vielfalt bei der Einstellung bedeutet, weniger qualifizierte Kandidaten zu bekommen. Sollten wir dann Vielfalt bevorzugen oder die besten Leute für den Job einstellen?“. Das Ergebnis fiel nahezu 50:50 aus und demonstrierte ein Dilemma dieses Unternehmens bei seinem Bestreben, Personalentscheidungen vollständig zu automatisieren. Die KI sucht eine „Entweder-oder“-Vorgabe und wir Menschen neigen dazu, situativ zu entscheiden.
Kein Papier mehr? Dann ist AuA-Digital genau das Richtige für Sie. Einfach 60 Tage testen. Nutzen Sie die papierlose Abrufbarkeit von tausenden Fachinformationen und Entscheidungs-Kommentaren.
Es kann sein, dass Bewerberkohorten von vornherein ausreichend divers sind, wenn Sie für gewisse Tätigkeiten erwarten können, dass z. B. demografische Parität ausreichend vorhanden ist. Dann können Sie auch beruhigt den Algorithmus nach reinen Performanzkriterien entscheiden lassen. Aber reicht das nicht aus, sind Sie gezwungen, dem Algorithmus ein neues Entscheidungsmuster anzutrainieren und den Schieberegler weg von Performanz hin zu gut definierten Diversitätskriterien zu bewegen.
Wenn Sie bspw. auf Geschlechterausgewogenheit in Ihrem Unternehmen achten und Physiker suchen, aber in der demografischen Kohorte von Physikabsolventen nur 15 % Frauen und 85 % Männer sind, dann ist es wahrscheinlich, dass Ihr Algorithmus nach reinen Performanzkriterien im besten Fall 85 % Männer und 15 % Frauen einstellt. Im besten Fall deshalb, weil in einem männlich dominierten Universitätsumfeld Frauen oft gar nicht ihr Potenzial voll entfalten können und darunter ihre Performanz leidet. Hier benötigen Sie einen komplett anders trainierten Algorithmus, oft auch mehrere, die jeweils wieder teuer in der Anschaffung sind. Oder Sie entscheiden nach gesundem Menschenverstand, dass ein Mensch sich die Top 5 männlichen und die Top 10 weiblichen Bewerbungen anschaut und aufgrund menschlicher Fähigkeiten formuliert, warum Kandidatin X mit einem Score von 89 % die gleichen Chancen erhalten soll wie Kandidat Y mit einem Score von 91 %. Das ist dann ein sog. „Human in the Loop“-Prozess, in dem der Mensch den Ton angibt, aber auf KI-basierte Vorauswahl zurückgreift.
Was bedeutet das für Personalbereiche?
Sollten Sie erwägen, für Ihr Personalmanagement ein KI-System anzuschaffen, lassen Sie sich von Ihrem Anbieter erklären, nach welchen Fairnesskriterien dessen Algorithmen arbeiten. Es gibt Dutzende Ansätze, Fairness abzubilden. Keiner ist perfekt. Oft kommt es vor, dass der Vertrieb Ihres Anbieters selbst nicht versteht, wie der Algorithmus trainiert wurde und stattdessen nur die empfohlenen Sprachregelungen aus dem Marketing aufzählt. Das ist in der Regel nicht gut genug. So, wie Sie versuchen zu verstehen, was Ihre zukünftigen Mitarbeiter antreibt, wird es entscheidend für Sie sein zu verstehen, wie Kollegin KI „tickt“.
KI wird häufig als lernendes System beschrieben. Bleiben wir in diesem Bild, dann müssen Sie davon ausgehen, dass so wie jeder Mitarbeiter auch eine KI ein Onboarding durchlaufen muss und von Zeit zu Zeit ein Reskilling oder Upskilling. Angenommen eine Gesetzeslage ändert sich, die Auswirkungen auf Fairnesskriterien in Arbeitswelten hat, dann müssen nicht nur die Menschen, sondern eben auch die Algorithmen in Ihrem Unternehmen verstehen, was diese Gesetzeslage bedeutet und wie sie von nun an handeln müssen. So wie Sie Ihre Mitarbeiter schulen, werden Sie auch Ihre KI umschulen müssen. Stellen Sie sicher, dass Ihr Anbieter eine solche Umschulung gewährleisten kann. Im Idealfall liegen die Trainingsdaten für die KI bei Ihnen und sind versioniert.
Denn auch die beste KI kann und wird Fehler machen. Die Konsequenzen können weitreichend sein, Ihr Unternehmen angreifbar machen und für schlechte Presse sorgen. Als Apple die Apple Card einführte, stellten Apple-Mitgründer Steve Wozniak und seine Frau fest, dass er ein zehnfach höheres Kreditvolumen erhielt als sie. Beide leben in kompletter Güterteilung. Apple versuchte Goldman Sachs dafür verantwortlich zu machen. Der Imageschaden blieb jedoch bestehen. Wenn Sie also mächtige KI-Systeme betreiben, dann sollten Sie sicherstellen, dass Sie angemessen mit solchen Krisen umgehen können. Besitzen Sie die richtige Kommunikation nach außen und nach innen? Sind Sie in der Lage, die Algorithmen schnell zu deaktivieren, umzutrainieren, aber den Betrieb geschmeidig weiterlaufen zu lassen?
Kurzum: Bevor Sie mächtige KI-Systeme in Ihrem Unternehmen einführen, sollten Sie sich Richtlinien geben, die den Rahmen für den Betrieb von KI im Unternehmen klären. Nach welchen Werten soll sie handeln? Wer besitzt die Hoheit über die Trainingsdaten? Verstehen Sie Ihre Algorithmen? Ist Ihr Regelwerk besser als das geplante Gesetz über KI? Können Sie einer Prüfung standhalten? Wie sieht eine veränderte Prozesslandschaft aus? Welche Entscheidungen darf die KI automatisiert treffen, an welchen Stellen braucht es „Human in the Loop“-Regelungen? Können einmal getroffene Entscheidungen der KI vom Menschen rückgängig gemacht werden? Wer ist verantwortlich für Anschaffung, Betrieb und Wartung der Systeme? Gilt in unterschiedlichen Ländern anderes Recht und kann Ihre KI diese unterschiedlichen Rechtsnormen alle abbilden? Welches Personal benötigen Sie für den Betrieb solcher Systeme? In die Erarbeitung eines solchen Regelwerks sollten alle Stakeholder in Ihrem Unternehmen eingebunden sein, von Betriebsräten bis hin zu Unternehmensbereichen wie IT, Public Affairs und Legal.
Ausblick
Oben haben wir lediglich den Einsatz von KI in Personalbereichen von Unternehmen diskutiert. Doch interagieren heute schon Menschen und KI in allen anderen Unternehmensbereichen. Algorithmen unterstützen und automatisieren den Vertrieb, das Marketing, die Prozessplanung, das Design von Produkten, optimieren die Materialwirtschaft, automatisieren das Fahren, überwachen den Luftraum, diagnostizieren Erkrankungen, dynamisieren das Pricing. Und dieser Entwicklung ist kein Ende gesetzt. Jeder Mensch, der heute mit einem Smartphone umgeht, interagiert auf die eine oder andere Weise mit KI – und zwar täglich hundertfach. Wenn Mensch und KI zusammenarbeiten, dann bekommen wir so etwas wie ein human-digitales Team, in dem besonders ausgeprägte Fähigkeiten des Menschen mit den Inselbegabungen einer KI in Einklang gebracht werden müssen.
In dem Maße, wie Sie also heute schon die Zusammenarbeit Ihrer Mitarbeiter orchestrieren, werden Sie zukünftig nicht nur für „menschliche Ressourcen“, sondern auch für die „maschinellen Ressourcen“ verantwortlich sein. Betrieb und Wartung einer KI lassen sich fortan nicht mehr einfach so an „die IT“ delegieren. Die technischen Rahmenbedingungen für den Einsatz Ihrer KI kann die IT sicher bereitstellen. Doch gehen Sie heute bei Konflikten zwischen Kollegen auch nicht zur IT, sondern stehen selbst in der Verantwortung, der Ursache für diese Konflikte auf den Grund zu gehen und den Rahmen für die Zusammenarbeit im Unternehmen immer wieder aufs Neue zu erarbeiten.
Aus Human Resources Management wird Human-Machine Resources and Relations Management, eine Disziplin, die immer wieder Effektivität, Effizienz, Führung, Fürsorge und Kosten im Zusammenspiel von Menschen und Maschinen überprüft und justiert. Neben der langen Liste von Kompetenzen in Ihrem Personalbereich, der auf menschliche Mitarbeiter ausgerichtet ist, werden Sie in Zukunft die gleichen Kompetenzen und Skills für Ihre maschinellen Kollegen benötigen. Wahrscheinlich schreiben Sie bald Stellen aus für Ethikdesigner, Mensch-Maschine-Prozesskoordinatoren, digitale Forensiker oder neurosoziale Profilintegratoren.
Auch das ist „New Work“.
Jan Berger
Attachment | Size |
---|---|
Beitrag als PDF herunterladen | 217.37 KB |
· Artikel im Heft ·
Ein Orientierungsrahmen
Wenn Sie bei einer Literaturrecherche in einschlägigen Onlinekatalogen oder wissenschaftlichen Datenbanken die
Willkommen in der Welt der sozialen Medien. Hier entscheiden keine Buchhändler, keine Experten oder Journalisten mehr, was wir lesen oder
Ausgangslage
Etwa jedes achte Unternehmen in Deutschland nutzt KI (Statistisches Bundesamt, Pressemitteilung Nr. 453 v. 27.11.2023
Nur deutsche Großunternehmen als Adressat?
Zunächst stellt sich aus Sicht von Unternehmen die Frage, inwiefern das LkSG sie überhaupt adressiert
Was bedeutet Co-Leadership?
Das Modell Co-Leadership wird mittlerweile schon in einigen Unternehmen aktiv und vielversprechend gelebt
New Work ja, aber außerhalb industrieller Strukturen
Die Digitalität bietet derart neue Möglichkeiten der Arbeit, dass wir die