ChatGPT & Co sind auf dem Weg, zu stĂ€ndig verfĂŒgbaren persönlichen Assistenzsystemen zu werden – sowohl im Arbeitsleben als auch darĂŒber hinaus. Eine erfolgreiche Zusammenarbeit mit diesen Assistenzsystemen ist an Voraussetzungen gebunden. So mĂŒssen wir wissen, wie diese Systeme funktionieren, damit wir einschĂ€tzen können, wie wir sie fĂŒr welche Aufgaben einsetzen können.
FĂŒr meine eigenen BemĂŒhungen, diese Entwicklungen zu verstehen und die Folgen einschĂ€tzen zu können, habe ich in den letzten Monaten viele Ressourcen angeschaut – Blogposts, Kurzvideos, Studienberichte, etc. Drei Quellen, die ich besonders hilfreich finde, sind die folgenden:
- Stephen Wolframs Blogpost “What is ChatGPT Doing … and Why Does it Work?”
Stephen Wolfram ist Physiker, Informatiker und Mathematiker und hat unter anderem die Software Mathematica sowie die Suchmaschine Wolfram Alpha entwickelt. Sein ausfĂŒhrlicher Blogpost ist mittlerweile auch als Buch verfĂŒgbar. Sein Zugang ist sehr technisch und er erlĂ€utert sehr detailliert die Funktionsweisen von LLMs bzw. GPTs wie ChatGPT. Vieles davon verstehe ich nicht, manches, insbesondere manche Abbildungen, finde ich fĂŒr mich hilfreich. - Die Unternehmensberatung McKinsey hat das Thema Generative KI im letzten Jahr in verschiedenen eigenen Untersuchungen und Berichten aufgegriffen. Dabei sind immer auch die Folgen fĂŒr die Arbeits- und GeschĂ€ftswelt im Blick. Ein Jahr nach der Veröffentlichung von ChatGPT hat McKinsey Mitte November 2023 eine Sammlung von Artikeln zu generativer KI zusammengestellt: “12 must-reads for 12 months of gen AI breakthroughs”. Dabei sind sowohl Artikel, die die Technologie erlĂ€utern, als auch Artikel mit Ergebnissen aus Befragungen und Visualisierungen dazu. FĂŒr mich eine wichtige Quelle.
- FĂŒr die Forschungsförderung der gewerkschaftsnahen Hans Böckler-Stifung hat der Kulturwissenschaftler Michael Seemann eine Literaturstudie zu KI und LLMs erstellt, in der er ChatGPT erlĂ€utert und Folgen fĂŒr die Arbeitswelt skizziert: “KĂŒnstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft”. Diese Studie ist sehr gut lesbar und bietet aus meiner Sicht eine gute EinfĂŒhrung in das Thema.
In diesem Post stelle ich fĂŒr mich verschiedene Aussagen der Studie von Seemann zusammen. Es geht mir dabei nicht um VollstĂ€ndigkeit, sondern um ein Festhalten von Punkten, die ich nicht aus dem Blick verlieren möchte.
In der Einleitung schreibt Seemann unter anderem:
Die Science Fiction, aber auch unsere kollektive Zukunftserwartung hatte viele Szenarien zu kĂŒnstlicher Intelligenz auf dem Zettel. Aber dass KI aus-gerechnet im Kreativbereich so frĂŒh, so enorme Fortschritte machen wĂŒrde, stand nicht auf der Liste. (âŠ) Diese Zukunft ist nun aber da und bringt (âŠ) unsere Vorstellungen von Arbeit durcheinander. Es ist gar nicht so lange her, dass sich Journalistinnen um die Zukunft der Kraftwagenfahrerinnen sorgten (âŠ). Nun mĂŒssen sie um ihre eigenen Stellen bangen (âŠ), wĂ€hrend Kraftwagenfahrer*innen hĂ€nderingend gesucht werden (…)
Kernpunkte
Seemann stellt seinem Bericht die folgenden Punkte als Zusammenfassung voran (Zitat):
- Large Language Models (LLMs) sind eine bahnbrechende, neue Technologie. Obwohl LLMs nur versuchen das jeweils nĂ€chste Wort eines Textes statistisch vorherzusagen, erlangen sie dadurch die FĂ€higkeit auf komplexe Konversationen zu reagieren, Anweisungen auszufĂŒhren, Denkaufgaben zu lösen und gut lesbare Texte zu schreiben. Noch sind sie fĂŒr viele Zwecke ungeeignet und produzieren immer wieder Fehler, aber von einer rasanten Weiterentwicklung ist auszugehen.
- Die Frage, ob und was LLMs von dem, was sie ausgeben, âverstehenâ ist fachlich umstritten und leidet an unzureichenden Metriken und nicht gesicherten Indikatoren. (…)
- Studien ĂŒber Arbeitsplatzverlust und ProduktivitĂ€tsgewinne durch LLMs sind in der FrĂŒhphase und leiden an bereits oft kritisierten methodischen MĂ€ngeln und sollten trotz ihrer Empirie als weitgehend spekulativ angesehen werden. Gewinnbringender scheint, ĂŒber StrukturverĂ€nderungen (…) nachzudenken (…)
- Der Einzug von LLMs in die Unternehmen wird die MachtverhĂ€ltnisse in der Wirtschaft neu sortieren. (…)
- Der Einzug von LLMs in die Arbeitswelt wird auf zwei Wegen stattfinden: einerseits werden LLMs vom Management an verschiedenen Stellen zur Kostenreduktion eingesetzt werden. Zum anderen werden Mitarbeiter*innen bei ihrer tĂ€glichen Arbeit von sich aus auf LLMs â im Zweifel heimlich â zurĂŒckgreifen.
Seemann (2023): KĂŒnstliche Intelligenz… , S. 5.
- Der Einsatz von LLMs wird unterschiedliche Berufe auf drei verschiedene Arten treffen: Manche Berufe werden verschwinden, oder zumindest existenziell bedroht sein (Disruption). Andere Berufe werden durch LLMs nur im Randbereich tangiert (Integration). Einige Berufe werden nicht verschwinden, aber sich komplett neu erfinden mĂŒssen (Transformation).
ErlÀuterungen zu Begriffen und Modellen
Auf BegriffserlĂ€uterungen zu KI (KĂŒnstliche Intelligenz), NLP (Natural Language Processing), KNN (KĂŒnstliche Neuronale Netze, LLM (Large Language Models), GPT (Generative Pretrained Transformers), Tokens, Parameter und Kontext-Fenster folgen ein kurzer Abriss zur KI-Forschung sowie ErlĂ€uterungen zum Trainings-Prozess von LLMs und zu Transformer-Modellen.
Zu LLMs:
Am Ende dieses langen Prozesses [des Trainings eines Sprachmodells, CM] ist in den Embeddings [Vektoren, CM] die KomplexitĂ€t von sprachlichen ĂuĂerungen nicht nur auf Wort- oder Satzebene, sondern auch auf Konzept- und Ideen-Ebene gespeichert. Es entwickelt sich eine 1000-dimensionale Landkarte (bei GPT-3.5 sind es 12.288 Dimensionen) der Sprache. In dieser Landkarte ist hinterlegt, wie sich âRotâ zu âVorhangâ verhĂ€lt, âLiebeâ zu âHausâ und âZitronensĂ€urezyklusâ (âŠ) semantisch Ă€hnliche Wörter [liegen] nahe beieinander und semantisch unĂ€hnliche sind weiter entfernt.
Zu Transformer-Modellen:
âDer technologische Durchbruch, der die aktuell erfolgreichen generative KIs wie ChatGPT, aber auch Bildgeneratoren wie Midjourney (âŠ) ermöglicht hat, wurde 2017 durch (âŠ) Transformer-Modelle ermöglicht. Das ist eine Architektur fĂŒr KNN [kĂŒnstliche neuronale Netze, CM] , die jeder versteckten Ebene (âFeed-Forward-Ebeneâ) eine sogenannte Aufmerksamkeits-Ebene zur Seite stellt (âŠ). Die Aufmerksamkeits-Ebene assistiert der versteckten Ebene, indem sie den jeweiligen Kontext des zu bearbeitenden Tokens nach Relevanz sortiert und entsprechend gewichtet. FĂŒr jeden Token im Kontext-Fenster wird die Relevanz jedes anderen Tokens berechnet und diese in seinen Embeddings vermerkt.â (S. 19)
FĂ€higkeiten von LLMs – zielgerichtet trainiert und emergent:
Die unstrittigen FĂ€higkeiten und UnzulĂ€nglichkeiten machen den Umgang mit LLMs zu einer nicht trivialen Navigationsaufgabe. Bevor man diese Systeme in irgendeinem Bereich zum Einsatz bringt, empfiehlt es sich nicht nur dringend, die Systeme und ihre Funktionsweise genau zu studieren, sondern auch, sich praktisch mit ihnen vertraut zu machen. Erst mit der Zeit entwickelt man ein GespĂŒr dafĂŒr, was ein bestimmtes Modell leisten kann, wo seine Grenzen liegen und wo man sehr aufpassen muss, nicht auf den oft sehr selbstbewussten Ton des LLM hereinzufallen.
(…)
In verschiedenen Versuchsreihen beim Testen von LLMs fiel den Google-Forscherinnen auf, dass sich das Verhalten des Modells ab einer bestimmten Parameteranzahl sprunghaft Ă€nderte. So konnte das bestreffende Modell auf einmal sogenanntes âfew-shot promptingâ (âŠ) âStep-by-step reasoningâ (âŠ) tauchte plötzlich einfach so auf, ohne, dass dem LLM diese FĂ€higkeit explizit beigebracht wurde. (âŠ) Auch (âŠ) das KontextverstĂ€ndnis von Wörtern in SĂ€tzen, arithmetische Aufgaben zu lösen oder sich in virtuellen RĂ€umen zurechtfinden werden als emergente FĂ€higkeiten genannt. Alle diese Eigenschaften traten modell-ĂŒbergreifend im Bereich zwischen 10^22 und 10^24 Parametern auf. Die Modelle scheinen den Forscherinnen zufolge ab dieser GröĂe eine Art Kipppunkt erreicht zu haben, der es ihnen ermöglicht, auf einer höheren KomplexitĂ€tsstufe Lösungen fĂŒr Aufgaben zu finden.
Stochastische Papageien oder mehr?
Im Kontext der Diskussion um LLMs und GPTs wird immer wieder angefĂŒhrt, sie wĂŒrden VerstĂ€ndnis von Inhalten lediglich simulieren, da sie ja nur â basierend auf Wahrscheinlichkeitsrechnungen – nĂ€chste Tokens produzieren. In diesem Zusammenhang findet sich immer wieder auch die Charakterisierung dieser Modelle als “stochastische Papageien”. Und damit wird (bewusst oder unbewusst) unterstellt, dass man LLMs und GPTs und die darauf basierenden Anwendungen nicht ernst nehmen muss. Seemann stellt diese Sicht in Frage. DafĂŒr zieht er (konkurrierende) sprachphilosophische Positionen heran.
Position 1
âOhne tatsĂ€chlichen Zugang zur Welt kann ein hinreichend intelligentes System zwar VerstĂ€ndnis simulieren, aber wenn es darauf ankommt, zeigt sich doch, dass es zum echten VerstĂ€ndnis mehr als nur Mustererkennung in sprachlichen ĂuĂerungen braucht. Es braucht den RĂŒckverweis auf die Welt, auf die Dinge, auf die RealitĂ€t.â
Position 2 (französische Sprachphilosophie – u.a. Barthes, Foucault, Derrida)
Worte gewinnen ihre Bedeutung nicht durch die Beziehung zur Welt, sondern durch ihre Beziehung zu anderen Worten. Dementsprechend gibt es auch keine Bedeutung im eigentlichen Sinne, kein âtranszendentales Signifikatâ, sondern Bedeutung ist nur ein Effekt der Zeichen und ihrer stĂ€ndigen Weiterverweisung. (S. 37)
(…)
Man muss der Philosophie Derridas nicht in jeder Einzelheit folgen, um zu sehen, wie relevant diese Gedanken fĂŒr das VerstĂ€ndnis der Funktionsweise von LLMs sind. Das Eingebundensein jedes Begriffes in ein System und das Spiel von Differenzen beschreibt den aus vieldimensionalen Embedding-Vektoren gebildeten latenten Raum von LLMs sehr treffend. Der stĂ€ndige Aufschub von Bedeutung durch die Aktualisierung gegenwĂ€rtiger Sprachverwendung, lĂ€sst sich gut auf den Vorgang der Next-Word-Vorhersage anwenden. (S. 39)
(…)
Derridas Konzept von der Sprache bedeutet nicht, dass die Welt auĂerhalb der Sprache fĂŒr das Denken irrelevant ist. Nur ist uns Menschen diese physische Welt immer nur symbolisch vermittelt zugĂ€nglich, also selbst wiederum als Text. Nach Derrida könnte man nun folgern, dass die Maschine tatsĂ€chlich nichts versteht von dem, was sie spricht. Damit hĂ€tte man seinerseits das Problem aber auch nur verschoben, denn dasselbe wĂŒrde Derrida ĂŒber uns Menschen sagen. Ihm ist âVerstehenâ ein per se suspektes Konzept. (âŠ) Vermutlich brauchen wir fĂŒr die Andersheit des âVerstĂ€ndnissesâ, das LLMs zeigen, neue Begriffe. Wir mĂŒssten die ĂŒberkommenen Semantiken menschlichen VerstĂ€ndnisses aufschnĂŒren und ausdifferenzieren. Hannes Bajohr hat z. B. vorgeschlagen, die Bedeutungen, die LLMs erfassen, âdumme Bedeutungâ zu nennen (Bajohr 2023a). Er meint damit Bedeutungen, die ohne den RĂŒckgriff auf Welterfahrung oder ein Bewusstsein gebildet werden. (S. 39-40)
Seemann nimmt zwar nicht eindeutig Stellung fĂŒr die eine oder andere Position. Aber seine Schlussfolgerung signalisiert eine grössere NĂ€he zur Perspektive der französischen Sprachphilosophie: er ist sich nicht sicher, ob menschliche Weisen des Verstehens den maschinellen Weisen des Verstehens auf Dauer ĂŒberlegen sein werden.
Auswirkungen auf die Arbeitswelt
In diesem Abschnitt spricht Seemann u.a. eine Reihe von verschiedenen Punkten an (S. 47-50):
- Konzentration des KI-Markets aufgrund der hohen Anforderungen an Ressourcen bei Entwicklung und Betrieb von Modellen;
- Auslagerung von Click-Working zur Optimierung der Modelle (RLHF) in Niedriglohn-LĂ€nder;
- Mögliche StÀrkung einer Tendenz zu einer 2-Klassen-Gesellschaft:
âDa die generativen KIs zwar nicht gut genug sind, um menschliche Arbeit zu ersetzen, aber sich viele Leute menschliche Arbeit sowieso nicht leisten können, wĂŒrden die sozial Schwachen zukĂŒnftig mit KIs abgespeist werden, wĂ€hrend die, die es sich leisten können, sich weiterhin von Menschen bedienen, behandeln und beraten lassen (Hanna/Bender 2023).â
Meta-Effekte und StrukturverÀnderungen
Ăber die aus seiner Sicht nur wenig belastbare Studienlage zu Auswirkungen auf Berufsarbeit hinaus sind fĂŒr Seemann insbesondere StrukturverĂ€nderungen wichtig. Hier fĂŒhrt er folgende Punkte an (S. 58-61):
- Urheberrechte und Marktmacht von BeschÀftigtengruppen
âDie BefĂŒrchtung [der Writers Guild of America, CM] war aber nicht einfach, dass Hollywood sich seine Skripte von ChatGPT generieren lassen wĂŒrde, sondern vielmehr, dass sich das Studio-Management von LLMs die Handlungsstruktur und das Basisskript generieren lassen und den angestellten Autorinnen dann nur noch die Ăberarbeitung bzw. Ausgestaltung der Details ĂŒberlassen wĂŒrden. Selbst wenn das LLM nur unbrauchbaren Quatsch liefern wĂŒrde, verlören die Autorinnen das Urheberrecht an dem Drehbuch und man könnte sie mit einem Bruchteil des Geldes abspeisen (Broderick 2023).â - Deskilling
âAutomatisierung [fĂŒhrt] in der RealitĂ€t oft dazu, dass bestimmte Arbeitsprozesse auch mit weniger Qualifizierung verrichtet werden (…). Dieses sogenannte âDeskillingâ fĂŒhrt dann zu einer höheren Austauschbarkeit der jeweiligen Arbeitenden und in Folge zu allgemeinen LohneinbuĂen in dem Bereich.â - Aufgefressene ProduktivitĂ€tsgewinne?
âWĂ€hrend also die individuelle ProduktivitĂ€t durch LLMs steigen mag, wird sie vielleicht dadurch zunichte gemacht, dass alle Arbeitenden ihre Arbeitszeit dafĂŒr aufwenden mĂŒssen, sich gegen neue Formen von Spam, Phishing und Desinformationen zu wehren und sich durch immer ausufernden InformationsmĂŒll zu wĂŒhlen.â - Untergrabene IntegritĂ€t von Kommunikation?
- Misstrauen von Lehrpersonen gegenĂŒber den Ausarbeitungen von Lernenden / Studierenden;
- Secret Cyborg-PhĂ€nomen: âMuch of the value of AI use comes from people not knowing you are using it.â (Ethan Mollick);Automation Bias: âStudien weisen (âŠ) darauf hin, dass Menschen computergestĂŒtzte VorschlĂ€ge deutlich unkritischer akzeptieren und ĂŒbernehmen, als es angemessen wĂ€re.â
- Aufwand fĂŒr Kommunikation ist immer auch ein Teil der Kommunikation. Z.B. persönlicher Brief / persönliche Email. Was passiert, wenn dieser Aufwand gegen Null tendiert? (S. 61)
Zukunftsszenarien zur Berufsarbeit
Seemann unterscheidet drei Szenarien fĂŒr die Auswirkungen von generativer KI auf Berufsarbeit:
- Disruption: existenzielle Bedrohung von Berufsarbeit, beispielsweise fĂŒr BeschĂ€ftigte in Call-Centern oder Ăbersetzer:innen;
- Integration: Nutzung der neuen Werkzeuge im Arbeisprozess, beispielsweise von medizinischem Personal, Pflegepersonal oder Immobilienmakler:innen;
- Transformation: radikale VerÀnderung der Berufsarbeit, beispielsweise bei Medienschaffenden, Lehrpersonen, in der Wissenschaft, in Beratungoder bei Mitarbeitenden in Verwaltungen.
Seemann skizziert diese drei Zukunftsszenarien anhand jeweils einer Berufsgruppe:
Disruption – Beispiel Ăbersetzer:innen
Seemann sieht hier eine Berufsgruppe in Auflösung. Maschinell erstellte Ăbersetzungen werden fĂŒr einen grossen Teil der Ăbersetzungsaufgaben genutzt – fĂŒr Gebrauchstexte und technische Dokumentationen ebenso wie fĂŒr die meisten BĂŒcher. Ausnahmen sind Kunst- und LiteraturĂŒbersetzungen. Ăbersetzer:innen entwickeln sich in verschiedene neue Aufgabenprofile hinein:
- Lektorat – Ăberarbeitung bzw. Feinschliff von maschinell ĂŒbersetzten Texten;
- Prompt-Ăbersetzungen;
- Beratung im Bereich KI-basierte Ăbersetzung, QualitĂ€tssicherung und Modell-Training.
Integration – Beispiel Krankenpflege
Diesem Szenario zufolge bleibt der Kern der Berufsarbeit intakt und KI-basierte Werkzeuge werden in den Arbeitsprozess integriert. Beispiele sind Notizsysteme auf der Grundlage von gesprochener Sprache, die zeitglich zu manuell durchgefĂŒhrten Arbeiten an Patient:innen gefĂŒhrt werden. Oder KI-basierte Systeme fĂŒr eine personalisierte Zusammenstellung der ErnĂ€hrung von Patient:innen. Oder SimultanĂŒbersetzungen, so dass auch FachkrĂ€fte ohne gute Kenntnis der deutschen Sprache in der Pflege arbeiten können.
(…) die Arbeit am Körper ist weiterhin eine menschliche Arbeit, der Einsatz der HĂ€nde ist nicht nur eine Frage von mechanischer Kraft und feinmotorischer SensibilitĂ€t, sondern auch eine der Empathie, Zuwendung und des MitgefĂŒhls: etwas, was die Maschinen nicht leisten können.
Transformation – Studierende, Lehrpersonen & Wissenschaftler:innen
In diesem Szenario skizziert Seeman u.a. Entwicklungen wie die folgenden (S. 69-74):
- starke Zunahme mĂŒndlicher PrĂŒfungen gegenĂŒber schriftlichen PrĂŒfungsformen;
- LernunterstĂŒtzung durch personalisierte, omnikompetente maschinelle Tutoren;
- nur noch wenige Vorlesungen, dafĂŒr mehr betreute Kolloquien;
- “Publikations-Explosion” und Zusammenbruch des Peer-Review-Systems in der Wissenschaft;
- Transformation des Review-Prozesses fĂŒr wissenschaftliche Arbeiten:
- alle eingereichten Publikationen werden in eine generische Standard-Sprache ĂŒbersetzt und dabei auch anonymisiert;
- automatisierte / maschinelle PlausibilitĂ€tsprĂŒfung;
- Review von kommentierten Zusammenstellungen zu BĂŒndeln von Publikationen durch menschliche Reviewer;
- ĂberprĂŒfung von Beobachtungen / Ăberlegungen mit UnterstĂŒtzung von LLMs;
- BestÀtigung der Bewertung der Original-Einreichung durch die Peer-Reviewer.
Seemann, Michael (2023): KĂŒnstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft. Working Paper Forschungsförderung, Nr. 304, September 2023. DĂŒsseldorf: Hans-Böckler-Stiftung.