• Skip to primary navigation
  • Skip to main content
  • Skip to primary sidebar
SCIL

SCIL

swiss competence center for innovations in learning

  • Aktuelles: SCIL Blog
  • Kompetenzzentrum SCIL
  • SCIL Module
  • Mein Konto
    • Search
    • Social Media, Newsletter
HomeArchives for 2023

Archives for 2023

ChatGPT & Co.als persönliche Assistenzsysteme in Arbeits- & Lernwelten (RBBW-BarCamp 12.12.23)

13. Dezember 2023 by Christoph Meier 1 Comment

Im Rahmen des RBBW-BarCamps “Weiterbildung neu denken” konnte ich einen Impuls zum Thema “ChatGPT & Co.als persönliche Assistenzsysteme in Arbeits- & Lernwelten” einbringen. Eine Impression zum BarCamp und meine Folien zum Impuls.


Die Veranstaltung

Das 8. digitale BarCamp “Weiterbildung neu denken” der Regionalbüros für berufliche Fortbildung Baden-Württemberg am 12.12. 2023 stand unter dem Motto “Umbruch – Zeitenwende – Zukunftsvisionen”. Ich war eingeladen, eine Impulsvortrag für die Veranstaltung einzubringen. Als Thema hatten wir vereinbart: “ChatGPT & Co.als persönliche Assistenzsystemein Arbeits- & Lernwelten”.

Die Veranstaltung, die auf der Plattform Gather.Town durchgeführt wurde, war mit ca. 150 Teilnehmenden und Teilgebenden gut besucht.

Abb. 1: Die Umgebung für das BarCamp auf Basis von Gather.Town (Bildquelle: RBBW / SCIL)

Mein Impuls

In meinem Impuls habe ich mich an der Struktur früherer Vorträge zum Thema orientiert:

  • Unsere Arbeitswelt verändert sich:
    u.a. durch die Entwicklungen im Bereich generativer KI;
  • Das kollaborative Zusammenarbeiten mit “smarten” Maschinen wird zum neuen Normal:
    beispielsweise, wenn wir MS 365 Copilot nutzen;
  • Daraus ergeben sich neue Aufgaben und Herausforderungen im Bereich Bildung / Personalentwicklung:
    • Wir müssen selbst mit den neuen Werkzeugen vertraut werden;
    • Wir müssen andere befähigen / dabei unterstützen, mit diesen Werkzeugen produktiv arbeiten zu können;
    • Wir müssen prüfen, ob und inwiefern es bei unseren eigenen Leistungsprozessen im Bereich Bildung / L&D / PE Anpassungen und Weiterentwicklungen braucht;
    • Beobachtung des Markts für Applikationen sowie von Trends und Zukunftsentwürfen für Bildung / Personalentwicklung.
Abb. 2: Struktur meines Impuls-Vortrags (Bildquelle: SCIL)

Hier die Folien zu meinem Beitrag für das BarCamp:

ChatGPTCo-in-der-Weiterbildung_2023-12-12_Handout_02

Vertiefung: Folgen für Learning Professionals in spezifischen Rollen / Profilen

In einer der Sessions des BarCamps haben wir dann noch einen Aspekt weiter diskutiert – nämlich die Frage, inwiefern die von mir aufgezeigten Entwicklungen im Bereich generative KI Auswirkungen auf verschiedene Rollenprofile von Learning Professionals / Bildungsverantwortlichen haben.

Dabei haben wir folgende Rollen bzw. Profile unterschieden:

  • Center of Competence (-> Leitlinien & Grundkonzepte / Methoden / etc.)
  • Anbieter (-> Gestaltung / Realisierung / Umsetzung)
  • Makler / Vermittler (-> Content-Curation und Anbieter-Auswahl)
  • Befähiger / Ermöglicher (-> Lernberatung / Lernbegleitung & Impulse zur Lernkultur)
  • Service & Administration (-> u.a. Orchestrieren von technischen Lernarchitekturen)

Mit der Verfügbarkeit von Anwendungen auf Basis von generativer KI akzentuiert sich hier eine Entwicklung, die auch bislang schon zu beobachten war. Nämlich dass mehr und mehr KI-basierte Werkzeuge zur Unterstützung dieser Rollen und der damit verbundenen Aufgaben verfügbar sind. Die Gefahr, dass Learning Professionals dadurch überflüssig werden, haben wir nicht gesehen. Allenfalls wird die Rolle “Befähiger / Ermöglicher” noch wichtiger.

Filed Under: Vorträge & Workshops Tagged With: AI / KI, Bildungsmanagement, Digitalisierung

Einführungen in (Generative) KI – 2 intensive Stunden auf World Science Festival

12. Dezember 2023 by Christoph Meier Leave a Comment

Ein zweistündiges, unterhaltsames und dennoch zentrale Fragen zu (generativer) KI adressierendes Video (World Science Festival): Wie funktionieren und was können LLMs? Sind sie intelligent? Was sind die Gefahren? Wohin geht die Entwicklung? Gut verständliche Antworten von wichtigen Akteuren im Themenfeld finden sich hier.


Im Zusammenhang mit den Entwicklungen im Bereich der künstlichen Intelligenz ist immer wieder von tiefgreifenden Veränderungen in Wirtschaft und Gesellchsft die Rede und verschiedentlich auch von einer fünften industriellen Revolution (z.B. in diesem Briefing der Bank of America mit gut gemachten Visualisierungen). Der Orientierungsbedarf ist entsprechend gross und auf vielen Kanälen werden Hinweise und Ressourcen geteilt. Für mich selbst ist in den letzten Monaten Linkedin zu einem wichtigen Informationskanal geworden (indem ich dort anderen folge).

Eine deutschsprachige Quelle zur Orientierung im Themenfeld (Generative) KI, die mir sehr gut gefällt, ist die Studie, die Michael Seemann vor einigen Wochen für die Hans-Böckler-Stiftung veröffentlicht hat: “Künstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft.” Generative KI und die Folgen für die Arbeitswelt werden hier aus meiner Sicht sehr gut lesbar erläutert.

Ich habe an anderer Stelle für mich wichtige Passagen der Studie von Seemann zusammengefasst…

World Science Festival: Ringen mit einer neuen Art von Intelligenz

Jetzt bin ich auf eine weitere, aus meiner Sicht sehr interessante Quelle gestossen: ein knapp zweistündiges Video des World Science Festivals, in dem KI im Mittelpunkt steht: “AI: Grappling with a new kind of intelligence“. Die tiefgründige, aber auch unterhaltsame Veranstaltung wurde am 24.11.2023 aufgezeichnet (bzw. auf YouTube eingestellt) und bringt sehr renommierte Personen zusammen:

  • Brian Greene, Mathematiker und Physiker, Columbia University New York (Moderator);
  • Yann LeCun, Turing Preisträger 2018 und Chief AI Scientist bei Meta;
  • Sébastien Bubeck, Research Manager, Microsoft;
  • Tristan Harris, Center for Humane Technologies.

Hier der Kapitel-Aufriss zum YouTube-Video zur Veranstaltung:

00:00 – Introduction
07:32 – Yann lecun Introduction
13:35 – Creating the AI Brian Greene
20:55 – Should we model AI on human intelligence?
27:55 – Schrodinger’s Cat is alive
37:25 – Sébastien Bubeck Introduction
44:51 – Asking chatGPT to write a poem
52:26 – What is happening inside GPT 4?
01:02:56 – How much data is needed to train a language model?
01:11:20 – Tristan Harris Introduction
01:17:13 – Is profit motive the best way to go about creating a language model?
01:23:41 – AI and its place in social media
01:29:33 – Is new technology to blame for cultural phenomenon?
01:36:34 – Can you have a synthetic version of AI vs the large data set models?
01:44:27 – Where will AI be in 5 to 10 years?
01:54:45 – Credits

Yann LeCun – Vision einer wirklich intelligenten KI

In der Folge der Veröffentlichung von ChatGPT und GPT-4 ist immer wieder darüber diskutiert worden, ob wir hier erste Vorboten einer Allgemeinen Künstlichen Intelligenz (GAI) vor uns haben. Dies ist ein Punkt, auf den Yann LeCun eingeht.

Yann LeCun skizziert u.a. die Entwicklungen im Bereich der KI seit den 1950er Jahren und bringt auch pointierte Formulierungen ein. Zum Beispiel:

“We are easily fooled by those systems into thinking they are intelligent just because they manipulate language fluently. The only example that we have of an entity that can manipulate language is other humans. So when we see something that can manipulate language flexibly, we assume that this entity will have the same kind of intelligence as humans. But this is just not true. Those systems are incredibly stupid. (…) The smartest AI systems today have less understanding of the physical world than your house cat.”
Yann LeCun

Sein Argument: Anwendungen generativer KI wie z.B. ChatGPT sind bislang nur auf der Grundlage menschlicher Sprache trainiert worden. Und der grösste Teil menschlichen Wissens, so LeCun, ist nicht in Sprache kodiert, sondern basiert auf unseren Erfahrungen mit der physikalischen Welt.

“Most of what we know about the [physical] world is not reflected in language.
(…)
Can we build intelligent machines that are purly trained from language and do not have any kind of sensory input – my answer to this is: absolutely not.”
Yann LeCun

LLMs haben keine Vorstellung davon, was passiert, wenn man physische Kraft an einer bestimmten Stelle eines Tischs anwendet: ob er verrutscht, sich dreht oder umkippt. Und das ist aktuell ihre grösste Schwäche. Und er skizziert, dass “wirklich” intelligente Maschinen an Stelle von Sprache und Text mit Videos zu Phänomenen in der physikalischen Welt trainiert werden müssten und darauf optimiert werden müssten, vorherzusagen, was als nächstes passiert – kippt der Tisch um oder nicht?

LeCun skizziert dann noch seine Vision einer wirklich intelligenten KI. Diese müsste in sich eine Reihe verschiedener Teil-Modelle vereinen. Sie müsste, unter anderem, Wahrnehmungen der Welt verarbeiten und auch grösser angelegte Pläne verfolgen können:

Abb. 1: Vision einer künstlichen Intelligenz und der zugehörigen Teil-Modelle (Bildquelle: World Science Festival / Yann LeCun)

Und LeCun prognostiziert, dass in den nächsten fünf Jahren, die Art von (generativer) KI, die wir heute kennen (grosse Sprachmodelle) von “objective driven AI” abgelöst wird. Systeme, die nicht nur Sprache verstehen, sondern auch, wie die (physikalische) Welt funktioniert.

Sébastien Bubeck – Was können und wie funktionieren heutige LLMs?

Dann wurde Sébastien Bubeck (Microsoft) auf die Bühne geholt. Während LeCun Anwendungen der generativen KI im aktuellen Entwicklungsstand noch nicht als intelligent einschätzt, sieht Bubeck hier sehr wohl Hinweise auf Intelligenz. Er berichtet zunächst von den Bemühungen, die Art von “Intelligenz”, die LLMs und GPTs zeigen, einzuordnen. Wenn “Intelligenz” darin besteht, (1) logisch schlussfolgern zu können, (2) planen zu können und (3) aus Erfahrung lernen zu können, dann zeigen aktuelle LLMs die Fähigkeit für (1) und mit Einschränkungen (3). Als Beispiel für die erstaunlichen und emergenten Fähigkeiten von grossen LLMs führt Bubeck einen Beweis (in Vers-Form) für die Existenz unendlich vieler Primzahlen an:

Abb. 2: Reim zum Primzahlen-Beweis (Bildquelle: X / TimNguyen)

Während Sébastien Bubeck von der Gänsehaut berichtet, die er bekam, als er diese Ausgabe zum ersten Mal erzeugte, zeigt sich Yann LeCun weniger beeindruckt und kommentiert trocken: “clever retrieval with a tweak”.

Im Gespräch mit Bubeck werden dann einige der Zutaten für LLMs erläutert: Neuronale Netze (NN), Transformer-Architekturen und riesige Sets an Trainingsdaten. Das Gespräch dreht sich weiter um verschiedene Formen maschinellen Lernens (z.B. supervised / unsupervised / self-supervised learning) und das Erkennen von Gegenständen wie z.B. Tieren. LeCun verweist hier wiederum auf aktuell bestehende Limitationen: die Algorithmen werden seltene Insekten-Arten, für die es keine öffentlich zugänglichen Bilder gibt, nicht einordnen können.

KI – The good and the bad

Bevor Brian Green den nächsten Gast auf die Bühne bittet, setzt er den Rahmen für den nachfolgenden Abschnitt des Gesprächs. Er führt dazu ein aus seiner Sicht besorgniserregendes Beispiel dafür an, wie LLMs falsche Informationen auf überzeugende Weise rationalisieren bzw. plausibilisieren können:

“If I tell you that 7 times 8 is 62, can you make sense of that?” – so seine Frage an GPT. Und er zeigt zwei der interessantesten Erklärungen auf, die er dazu erhalten hat:

Abb. 3: Beispiel für das Rationalisieren einer falschen Information (Bildquelle: World Science Festival)

Tristan Harris – Ist die profitorientierte Entwicklung von KI der richtige Weg?

Der vierte Gesprächspartner ist Tristan Harris vom Center for Humane Technology, unter anderem bekannt für seine Präsentation “The AI Dilemma” (März 2023).

Tristan Harris macht zunächst deutlich, dass die erste Begegnung mit KI im Kontext von Social Media für die Menschheit nicht gut ausgegangenen ist. Der Einsatz von Algorithmen für die Optimierung der Aufmerksamkeit und Bindung von Besuchern dieser Kanäle hat dazu geführt, dass das Versprechen “give everyone a voice” in der Realität zu negativen Effekten wie z.B. Sucht-Phänomenen und gesellschaftlicher Polarisierung geführt hat. Harris sieht die Gefahr, dass sich dies mit generativer KI wiederholt: an die Stelle von positiven Effekten (KI ermöglicht Lösungen für Produktivitätsprobleme, Krankheiten, Klimawandel, etc.) werden negative Effekte treten (deepfakes, Betrug, Verfestigung von Vorurteilen, etc.). Diese negativen Effekte sieht er als Nebeneffekte eines wahnwitzigen Wettrennens der Entwickler-Unternehmen (OpenAI, Meta, Google, etc.) um die grössten und leistungsfähigsten KI-Modelle. Um sich Marktanteile zu sichern werden diese Modell in Gesellschaften freigesetzt, (1) bevor mögliche Missbrauchs-Szenarien geklärt sind und (2) obwohl (viele?) Menschen nicht über das Verantwortungsbewusstsein verfügen, das für den Umgang mit diesen potenziell gefährlichen Werkzeugen erforderlich ist.

LeCun erwidert darauf, dass auch in der Vergangenheit vielfältige soziale Probleme den jeweils zuletzt eingeführten technologischen oder kulturellen Innovationen angelastet wurden: dem Radio, den Comics, dem Rock’n’Roll, dem Fernsehen, dem Internet, etc.

Harris verweist unter anderem darauf, dass die mühsam über RLHF-Training ergänzte Fine-Tuning-Schicht, die grosse LLMs “sozialverträglich” macht und die dafür sorgt, dass beispielsweise Anfragen zum Bau von biologischen Waffen nicht beantwortet werden, mittlerweile von Hackern leicht wieder entfernt werden kann. “Wie gehen wir damit um?” – so fragt er. LeCun entgegnet, dass solche Informationen auch über Google zu finden sind. Bubeck verweist zur Antwort auf aktuelle Forschungs- und Entwicklungsarbeiten bei Microsoft, wo an einer generativen KI gearbeitet wird, für deren Training keine Internet-Seiten (mit potenziell unerwünschten Inhalten), sondern ausschliesslich synthetische Daten verwendet werden. Und er demonstriert anhand einer Anfrage, wie unterschiedlich sich diese Art von KI verhält (dritte Antwort in grün, unten):

In einer Schlussrunde kommen dann alle Diskutanten noch einmal zu Wort. Yann LeCun skizziert in dieser Schlussrunde seine Vorstellung davon, wie KI in 5 – 10 Jahren in der Welt verankert sein wird. Er erwartet, dass KI dann die Schnittstelle für die Interaktion mit allen Informationen sein wird und er betont, dass diese Schnittstelle Open Source sein muss:

(…) imagine that all of your interaction with the digital world and the world of information is through an AI agent. Those AI agents will be the repository of all human knowledge. It will be kind of like Wikipedia you can talk to. (…) This would be a common platform – sort of like the internet today. It has to be open.
Yann LeCun

Mein Fazit zur Sendung: zwei tiefgründige Stunden und zugleich eine wirklich gute Einführung in wichtige Facetten der Diskussion um (generative) KI. Und wem das in englischer Sprache zu anstrengend ist – man kann sich ja z.B. in der mobile App jederzeit das Video mit deutschen Untertiteln anzeigen lassen…


World Science Festival (24.11.2023): AI: Grappling with a New Kind of Intelligence.

Filed Under: Fundstücke Tagged With: AI / KI

Generative KI im Unternehmen: Anwendungsfelder, Stand der Entwicklung, Skills, Nutzen

9. Dezember 2023 by Christoph Meier Leave a Comment

Mike Loukides (O’Reilly Media) berichet zu Ergebnissen einer Umfrage zum Stand des Einsatzes von generativer KI in Unternehmen. Sein Fazit ist eine Steilvorlage für alle diejenigen, die für Bildung und Personalentwicklung verantwortlich sind.


Umfrage unter 2’800+ Teilnehmenden

Im Rahmen unserer aktuellen SCIL Entwicklungspartnerschaft gehen wir u.a. auch dem Thema nach, wie denn systematisch sinnvolle Anwendungsfälle für generative KI identifiziert werden können – innerhalb von L&D / PE und darüber hinaus. Dabei bin ich auf einen Bericht von Mike Loukides, VP Content Strategy, O’Reilly Media gestossen. Loukides fasst darin die Ergebnisse einer Umfrage unter den Nutzern der Lernplattform von O’Reilly zusammen, an der sich Mitte September 2023 mehr als 2’800 Personen beteiligt haben. Etwa 3/4 der Befragten kommen aus den USA und Europa sowie den Branchen Software Industrie, Computer Hardware, Finanzdienstleistungen, Telekommunikation, öffentliche Verwaltung, Gesundheitswesen.

In seinem Beitrag und mit seinen Ergebnisvisualisierungen zieht Loukides eine Linie von den Faktoren, die Unternehmen dabei bremsen, generative KI zu nutzen über Anwendungsbereiche, eingesetzte LLMs, den erreichten Stand der Produkt- / Service-Entwicklung, fehlende Kompetenzen / Skills bis hin zum erwarteten Geschäftsnutzen.

Zentrale Ergebnisse

Die Kernpunkte aus meiner Sicht:

  • Die Identifikation geeigneter Anwendungsfälle ist das wichtigste Hindernis auf dem Weg zur Nutzung von generativer KI.
  • Die wichtigsten Anwendungsfelder liegen in den Bereichen Software-Entwicklung, Datanalyse und Kundenservice.
  • Die meisten Unternehmen nutzen entweder ein Modell von OpenAI, entwickeln ihr eigenes LLM oder nutzen ein frei verfügbares Modell.
  • Die meisten Unternehmen befinden sich aktuell in der Phase der ‘proof of concept’.
  • Die Kompetenzen / Skills, die den Unternehmen am häufigsten fehlen, sind KI-Entwicklung, Datenanalyse, Betrieb von KI und allgemeine KI-Kompetenzen (AI literacy).
  • Den grössten Nutzen erwarten die Befragten im Hinblick auf Arbeitsproduktivität, höhere Erträge und bessere Planung / Vorhersage.

Hier die wichtigsten Ergebnisdarstellungen in einem Zusammenschnitt:

Ausgewählte Ergebnisvisualisierungen (Bildquelle: Loukides 2023)

Fazit: Es braucht Anstrengungen im Bereich Bildung und Personalentwicklung

Loukides zieht am Ende seines Beitrags folgendes Fazit:

It’s time to start learning about generative AI, thinking about how it can improve your company’s business, and planning a strategy. We can’t tell you what to do; developers are pushing AI into almost every aspect of business. But companies will need to invest in training, both for software developers and for AI users; they’ll need to invest in the resources required to develop and run applications, whether in the cloud or in their own data centers; and they’ll need to think creatively about how they can put AI to work, realizing that the answers may not be what they expect.

AI won’t replace humans, but companies that take advantage of AI will replace companies that don’t.
Mike Loukides, 2023, Generative AI in the Enterprise.

Sein Fazit ist eine Steilvorlage für alle diejenigen, die für Bildung und Personalentwicklung verantwortlich sind.


Loukides, Mike (2023-11-28): Generative AI in the Enterprise. Medium.com.

Filed Under: Fundstücke Tagged With: AI / KI, Business Innovation, Personalentwicklung

Generative KI: vom technischen System zum vollwertigen Lerndialog-Partner

4. Dezember 2023 by Christoph Meier Leave a Comment

Mike Sharples skizziert in einem aktuellen Beitrag für die Zeitschrift “Learning: Research and Practice” eine Zukunftsvision: “Generative AI as a full participant in social learning”.


Mike Sharples ist Professor emeritus for Educational Technology an der Open University UK. Für das aktuelle Sonderheft der Zeitschrift “Learning: Research and Practice” zum Thema “Learning in the Age of Generative Artificial Intelligence” hat Sharples eine Vision dazu formuliert, wie generative KI künftig soziales und kooperatives Lernen unterstützen könnte.

In seinem Beitrag skizziert Sharples einige der Rollen, die generative KI wie z.B. ChatGPT gegenwärtig in kooperativen und sozialen Lernprozessen übernehmen kann:

Abb. 1: Ausgewählte Rollen für generative KI in sozialen Lernprozessen (Bildquelle: Sharples 2023)

Die Logik hinter diesen Szenarien charakterisiert Sharples als “systems view of generative AI in education”:

Most discussions about the impact of generative AI on education assume that an individual student or teacher interacts with a GenAI system through a series of prompts and responses.
Mike Sharples 2023, p. 160.
Abb. 2: Interaktion mit generativer KI über einzelne Prompts (Bildquelle: Sharples 2023)

Vor dem Hintergrund (1) der Bedeutung von kooperativem und sozialen Lernen und (2) der Integration von Assistenzsystemen auf der Grundlage generativer KI in Office sowie Social Media Applikationen (z.B. MS Copilot), erscheint ihm dies nicht mehr ausreichend. Aus seiner Sicht braucht es eine andere Perspektive: “generative AI as a participant in conversations for learning”.

Generative AI has the potential to contribute to this social learning process of setting shared goals, performing tasks together, exploring possibilities, and conversing to reach agreements.
Mike Sharples 2023, p. 161

Sharples illustriert diese Idee anhand des folgenden Schemas:

Abb. 3: Interaktion mit generativer KI als kontinuierlicher Dialog (Bildquelle: Sharples 2023)

Damit diese Vision von Lerndialogen, die einzelne Interaktionen mit genKI-Apps zusammenbinden, Wirklichkeit werden kann, braucht es technische Weiterentwicklungen:

To support full conversations for learning, GenAIs must be designed to set explicit goals, have long term memory, build persistent models of their users, reflect on their output, learn from their mistakes, and explain their reasoning. This will require new hybrid AI systems that combine neural networks and symbolic AI.
Mike Sharples 2023, p. 161

Es braucht darüber hinaus auch ein angepasstes Rollenverständnis von Lehrpersonen bzw. Bildungsverantwortlichen:

Human teachers and experts have fundamental roles in such a distributed system as initiators and arbiters of conversations for learning, as sources of specific knowledge, and as nurturing and caring role models who deserve respect.
Mike Sharples 2023, p. 162

Bevor er sein Fazit formuliert, greift Sharples auch mögliche Missverständnisse bezüglich seiner Zukunftsvision auf:

It is important to note that this does not assume AI will think or act as a human – only that it could be capable of participating in conversations for learning, bringing its own capabilities to dialogues such as its immediate access to internet tools.
(…)
The result could be a new online space for educational dialogue and exploration that merges human empathy and experience with networked machine learning.
Mike Sharples 2023, p. 164-165

Sharples, M. (2023). Towards social generative AI for education: Theory, practices and ethics. Learning: Research and Practice, 9(2), 159–167. https://doi.org/10.1080/23735082.2023.2257234

Filed Under: Beiträge, Fundstücke Tagged With: AI / KI, soziales & kollaboratives Lernen

Generative KI und Folgen für Berufsarbeit verstehen

20. November 2023 by Christoph Meier Leave a Comment

ChatGPT & Co sind auf dem Weg, zu ständig verfügbaren persönlichen Assistenzsystemen zu werden – sowohl im Arbeitsleben als auch darüber hinaus. Eine erfolgreiche Zusammenarbeit mit diesen Assistenzsystemen ist an Voraussetzungen gebunden. So müssen wir wissen, wie diese Systeme funktionieren, damit wir einschätzen können, wie wir sie für welche Aufgaben einsetzen können.


Für meine eigenen Bemühungen, diese Entwicklungen zu verstehen und die Folgen einschätzen zu können, habe ich in den letzten Monaten viele Ressourcen angeschaut – Blogposts, Kurzvideos, Studienberichte, etc. Drei Quellen, die ich besonders hilfreich finde, sind die folgenden:

  • Stephen Wolframs Blogpost “What is ChatGPT Doing … and Why Does it Work?”
    Stephen Wolfram ist Physiker, Informatiker und Mathematiker und hat unter anderem die Software Mathematica sowie die Suchmaschine Wolfram Alpha entwickelt. Sein ausführlicher Blogpost ist mittlerweile auch als Buch verfügbar. Sein Zugang ist sehr technisch und er erläutert sehr detailliert die Funktionsweisen von LLMs bzw. GPTs wie ChatGPT. Vieles davon verstehe ich nicht, manches, insbesondere manche Abbildungen, finde ich für mich hilfreich.
  • Die Unternehmensberatung McKinsey hat das Thema Generative KI im letzten Jahr in verschiedenen eigenen Untersuchungen und Berichten aufgegriffen. Dabei sind immer auch die Folgen für die Arbeits- und Geschäftswelt im Blick. Ein Jahr nach der Veröffentlichung von ChatGPT hat McKinsey Mitte November 2023 eine Sammlung von Artikeln zu generativer KI zusammengestellt: “12 must-reads for 12 months of gen AI breakthroughs”. Dabei sind sowohl Artikel, die die Technologie erläutern, als auch Artikel mit Ergebnissen aus Befragungen und Visualisierungen dazu. Für mich eine wichtige Quelle.
  • Für die Forschungsförderung der gewerkschaftsnahen Hans Böckler-Stifung hat der Kulturwissenschaftler Michael Seemann eine Literaturstudie zu KI und LLMs erstellt, in der er ChatGPT erläutert und Folgen für die Arbeitswelt skizziert: “Künstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft”. Diese Studie ist sehr gut lesbar und bietet aus meiner Sicht eine gute Einführung in das Thema.
Abb.1: Drei Quellen zu generativer KI und ChatGPT

In diesem Post stelle ich für mich verschiedene Aussagen der Studie von Seemann zusammen. Es geht mir dabei nicht um Vollständigkeit, sondern um ein Festhalten von Punkten, die ich nicht aus dem Blick verlieren möchte.

In der Einleitung schreibt Seemann unter anderem:

Die Science Fiction, aber auch unsere kollektive Zukunftserwartung hatte viele Szenarien zu künstlicher Intelligenz auf dem Zettel. Aber dass KI aus-gerechnet im Kreativbereich so früh, so enorme Fortschritte machen würde, stand nicht auf der Liste. (…) Diese Zukunft ist nun aber da und bringt (…) unsere Vorstellungen von Arbeit durcheinander. Es ist gar nicht so lange her, dass sich Journalistinnen um die Zukunft der Kraftwagenfahrerinnen sorgten (…). Nun müssen sie um ihre eigenen Stellen bangen (…), während Kraftwagenfahrer*innen händeringend gesucht werden (…)
Seemann 2023, S. 6

Kernpunkte

Seemann stellt seinem Bericht die folgenden Punkte als Zusammenfassung voran (Zitat):

  • Large Language Models (LLMs) sind eine bahnbrechende, neue Technologie. Obwohl LLMs nur versuchen das jeweils nächste Wort eines Textes statistisch vorherzusagen, erlangen sie dadurch die Fähigkeit auf komplexe Konversationen zu reagieren, Anweisungen auszuführen, Denkaufgaben zu lösen und gut lesbare Texte zu schreiben. Noch sind sie für viele Zwecke ungeeignet und produzieren immer wieder Fehler, aber von einer rasanten Weiterentwicklung ist auszugehen.
  • Die Frage, ob und was LLMs von dem, was sie ausgeben, „verstehen“ ist fachlich umstritten und leidet an unzureichenden Metriken und nicht gesicherten Indikatoren. (…)
  • Studien über Arbeitsplatzverlust und Produktivitätsgewinne durch LLMs sind in der Frühphase und leiden an bereits oft kritisierten methodischen Mängeln und sollten trotz ihrer Empirie als weitgehend spekulativ angesehen werden. Gewinnbringender scheint, über Strukturveränderungen (…) nachzudenken (…)
  • Der Einzug von LLMs in die Unternehmen wird die Machtverhältnisse in der Wirtschaft neu sortieren. (…)
  • Der Einzug von LLMs in die Arbeitswelt wird auf zwei Wegen stattfinden: einerseits werden LLMs vom Management an verschiedenen Stellen zur Kostenreduktion eingesetzt werden. Zum anderen werden Mitarbeiter*innen bei ihrer täglichen Arbeit von sich aus auf LLMs – im Zweifel heimlich – zurückgreifen.
  • Der Einsatz von LLMs wird unterschiedliche Berufe auf drei verschiedene Arten treffen: Manche Berufe werden verschwinden, oder zumindest existenziell bedroht sein (Disruption). Andere Berufe werden durch LLMs nur im Randbereich tangiert (Integration). Einige Berufe werden nicht verschwinden, aber sich komplett neu erfinden müssen (Transformation).
Seemann (2023): Künstliche Intelligenz… , S. 5.

Erläuterungen zu Begriffen und Modellen

Auf Begriffserläuterungen zu KI (Künstliche Intelligenz), NLP (Natural Language Processing), KNN (Künstliche Neuronale Netze, LLM (Large Language Models), GPT (Generative Pretrained Transformers), Tokens, Parameter und Kontext-Fenster folgen ein kurzer Abriss zur KI-Forschung sowie Erläuterungen zum Trainings-Prozess von LLMs und zu Transformer-Modellen.

Zu LLMs:

Am Ende dieses langen Prozesses [des Trainings eines Sprachmodells, CM] ist in den Embeddings [Vektoren, CM] die Komplexität von sprachlichen Äußerungen nicht nur auf Wort- oder Satzebene, sondern auch auf Konzept- und Ideen-Ebene gespeichert. Es entwickelt sich eine 1000-dimensionale Landkarte (bei GPT-3.5 sind es 12.288 Dimensionen) der Sprache. In dieser Landkarte ist hinterlegt, wie sich „Rot“ zu „Vorhang“ verhält, „Liebe“ zu „Haus“ und „Zitronensäurezyklus“ (…) semantisch ähnliche Wörter [liegen] nahe beieinander und semantisch unähnliche sind weiter entfernt.
Seemann 2023, S. 17-18

Zu Transformer-Modellen:

„Der technologische Durchbruch, der die aktuell erfolgreichen generative KIs wie ChatGPT, aber auch Bildgeneratoren wie Midjourney (…) ermöglicht hat, wurde 2017 durch (…) Transformer-Modelle ermöglicht. Das ist eine Architektur für KNN [künstliche neuronale Netze, CM] , die jeder versteckten Ebene („Feed-Forward-Ebene“) eine sogenannte Aufmerksamkeits-Ebene zur Seite stellt (…). Die Aufmerksamkeits-Ebene assistiert der versteckten Ebene, indem sie den jeweiligen Kontext des zu bearbeitenden Tokens nach Relevanz sortiert und entsprechend gewichtet. Für jeden Token im Kontext-Fenster wird die Relevanz jedes anderen Tokens berechnet und diese in seinen Embeddings vermerkt.“ (S. 19)
Seemann 2023, S. 19

Fähigkeiten von LLMs – zielgerichtet trainiert und emergent:

Die unstrittigen Fähigkeiten und Unzulänglichkeiten machen den Umgang mit LLMs zu einer nicht trivialen Navigationsaufgabe. Bevor man diese Systeme in irgendeinem Bereich zum Einsatz bringt, empfiehlt es sich nicht nur dringend, die Systeme und ihre Funktionsweise genau zu studieren, sondern auch, sich praktisch mit ihnen vertraut zu machen. Erst mit der Zeit entwickelt man ein Gespür dafür, was ein bestimmtes Modell leisten kann, wo seine Grenzen liegen und wo man sehr aufpassen muss, nicht auf den oft sehr selbstbewussten Ton des LLM hereinzufallen.
(…)
In verschiedenen Versuchsreihen beim Testen von LLMs fiel den Google-Forscherinnen auf, dass sich das Verhalten des Modells ab einer bestimmten Parameteranzahl sprunghaft änderte. So konnte das bestreffende Modell auf einmal sogenanntes „few-shot prompting“ (…) „Step-by-step reasoning“ (…) tauchte plötzlich einfach so auf, ohne, dass dem LLM diese Fähigkeit explizit beigebracht wurde. (…) Auch (…) das Kontextverständnis von Wörtern in Sätzen, arithmetische Aufgaben zu lösen oder sich in virtuellen Räumen zurechtfinden werden als emergente Fähigkeiten genannt. Alle diese Eigenschaften traten modell-übergreifend im Bereich zwischen 10^22 und 10^24 Parametern auf. Die Modelle scheinen den Forscherinnen zufolge ab dieser Größe eine Art Kipppunkt erreicht zu haben, der es ihnen ermöglicht, auf einer höheren Komplexitätsstufe Lösungen für Aufgaben zu finden.
Seemann 2023, S. 29 und 31

Stochastische Papageien oder mehr?

Im Kontext der Diskussion um LLMs und GPTs wird immer wieder angeführt, sie würden Verständnis von Inhalten lediglich simulieren, da sie ja nur – basierend auf Wahrscheinlichkeitsrechnungen – nächste Tokens produzieren. In diesem Zusammenhang findet sich immer wieder auch die Charakterisierung dieser Modelle als “stochastische Papageien”. Und damit wird (bewusst oder unbewusst) unterstellt, dass man LLMs und GPTs und die darauf basierenden Anwendungen nicht ernst nehmen muss. Seemann stellt diese Sicht in Frage. Dafür zieht er (konkurrierende) sprachphilosophische Positionen heran.

Position 1

„Ohne tatsächlichen Zugang zur Welt kann ein hinreichend intelligentes System zwar Verständnis simulieren, aber wenn es darauf ankommt, zeigt sich doch, dass es zum echten Verständnis mehr als nur Mustererkennung in sprachlichen Äußerungen braucht. Es braucht den Rückverweis auf die Welt, auf die Dinge, auf die Realität.“
Seeemann 2023, S. 36

Position 2 (französische Sprachphilosophie – u.a. Barthes, Foucault, Derrida)

Worte gewinnen ihre Bedeutung nicht durch die Beziehung zur Welt, sondern durch ihre Beziehung zu anderen Worten. Dementsprechend gibt es auch keine Bedeutung im eigentlichen Sinne, kein „transzendentales Signifikat“, sondern Bedeutung ist nur ein Effekt der Zeichen und ihrer ständigen Weiterverweisung. (S. 37)
(…)
Man muss der Philosophie Derridas nicht in jeder Einzelheit folgen, um zu sehen, wie relevant diese Gedanken für das Verständnis der Funktionsweise von LLMs sind. Das Eingebundensein jedes Begriffes in ein System und das Spiel von Differenzen beschreibt den aus vieldimensionalen Embedding-Vektoren gebildeten latenten Raum von LLMs sehr treffend. Der ständige Aufschub von Bedeutung durch die Aktualisierung gegenwärtiger Sprachverwendung, lässt sich gut auf den Vorgang der Next-Word-Vorhersage anwenden. (S. 39)
(…)
Derridas Konzept von der Sprache bedeutet nicht, dass die Welt außerhalb der Sprache für das Denken irrelevant ist. Nur ist uns Menschen diese physische Welt immer nur symbolisch vermittelt zugänglich, also selbst wiederum als Text. Nach Derrida könnte man nun folgern, dass die Maschine tatsächlich nichts versteht von dem, was sie spricht. Damit hätte man seinerseits das Problem aber auch nur verschoben, denn dasselbe würde Derrida über uns Menschen sagen. Ihm ist „Verstehen“ ein per se suspektes Konzept. (…) Vermutlich brauchen wir für die Andersheit des „Verständnisses“, das LLMs zeigen, neue Begriffe. Wir müssten die überkommenen Semantiken menschlichen Verständnisses aufschnüren und ausdifferenzieren. Hannes Bajohr hat z. B. vorgeschlagen, die Bedeutungen, die LLMs erfassen, „dumme Bedeutung“ zu nennen (Bajohr 2023a). Er meint damit Bedeutungen, die ohne den Rückgriff auf Welterfahrung oder ein Bewusstsein gebildet werden. (S. 39-40)
Seemann 2023

Seemann nimmt zwar nicht eindeutig Stellung für die eine oder andere Position. Aber seine Schlussfolgerung signalisiert eine grössere Nähe zur Perspektive der französischen Sprachphilosophie: er ist sich nicht sicher, ob menschliche Weisen des Verstehens den maschinellen Weisen des Verstehens auf Dauer überlegen sein werden.

Auswirkungen auf die Arbeitswelt

In diesem Abschnitt spricht Seemann u.a. eine Reihe von verschiedenen Punkten an (S. 47-50):

  • Konzentration des KI-Markets aufgrund der hohen Anforderungen an Ressourcen bei Entwicklung und Betrieb von Modellen;
  • Auslagerung von Click-Working zur Optimierung der Modelle (RLHF) in Niedriglohn-Länder;
  • Mögliche Stärkung einer Tendenz zu einer 2-Klassen-Gesellschaft:
    „Da die generativen KIs zwar nicht gut genug sind, um menschliche Arbeit zu ersetzen, aber sich viele Leute menschliche Arbeit sowieso nicht leisten können, würden die sozial Schwachen zukünftig mit KIs abgespeist werden, während die, die es sich leisten können, sich weiterhin von Menschen bedienen, behandeln und beraten lassen (Hanna/Bender 2023).“

Meta-Effekte und Strukturveränderungen

Über die aus seiner Sicht nur wenig belastbare Studienlage zu Auswirkungen auf Berufsarbeit hinaus sind für Seemann insbesondere Strukturveränderungen wichtig. Hier führt er folgende Punkte an (S. 58-61):

  • Urheberrechte und Marktmacht von Beschäftigtengruppen
    „Die Befürchtung [der Writers Guild of America, CM] war aber nicht einfach, dass Hollywood sich seine Skripte von ChatGPT generieren lassen würde, sondern vielmehr, dass sich das Studio-Management von LLMs die Handlungsstruktur und das Basisskript generieren lassen und den angestellten Autorinnen dann nur noch die Überarbeitung bzw. Ausgestaltung der Details überlassen würden. Selbst wenn das LLM nur unbrauchbaren Quatsch liefern würde, verlören die Autorinnen das Urheberrecht an dem Drehbuch und man könnte sie mit einem Bruchteil des Geldes abspeisen (Broderick 2023).“
  • Deskilling
    „Automatisierung [führt] in der Realität oft dazu, dass bestimmte Arbeitsprozesse auch mit weniger Qualifizierung verrichtet werden (…). Dieses sogenannte „Deskilling“ führt dann zu einer höheren Austauschbarkeit der jeweiligen Arbeitenden und in Folge zu allgemeinen Lohneinbußen in dem Bereich.“
  • Aufgefressene Produktivitätsgewinne?
    „Während also die individuelle Produktivität durch LLMs steigen mag, wird sie vielleicht dadurch zunichte gemacht, dass alle Arbeitenden ihre Arbeitszeit dafür aufwenden müssen, sich gegen neue Formen von Spam, Phishing und Desinformationen zu wehren und sich durch immer ausufernden Informationsmüll zu wühlen.“
  • Untergrabene Integrität von Kommunikation?
    • Misstrauen von Lehrpersonen gegenüber den Ausarbeitungen von Lernenden / Studierenden;
    • Secret Cyborg-Phänomen: „Much of the value of AI use comes from people not knowing you are using it.“ (Ethan Mollick);Automation Bias: “Studien weisen (…) darauf hin, dass Menschen computergestützte Vorschläge deutlich unkritischer akzeptieren und übernehmen, als es angemessen wäre.“
    • Aufwand für Kommunikation ist immer auch ein Teil der Kommunikation. Z.B. persönlicher Brief / persönliche Email. Was passiert, wenn dieser Aufwand gegen Null tendiert? (S. 61)

Zukunftsszenarien zur Berufsarbeit

Seemann unterscheidet drei Szenarien für die Auswirkungen von generativer KI auf Berufsarbeit:

  • Disruption: existenzielle Bedrohung von Berufsarbeit, beispielsweise für Beschäftigte in Call-Centern oder Übersetzer:innen;
  • Integration: Nutzung der neuen Werkzeuge im Arbeisprozess, beispielsweise von medizinischem Personal, Pflegepersonal oder Immobilienmakler:innen;
  • Transformation: radikale Veränderung der Berufsarbeit, beispielsweise bei Medienschaffenden, Lehrpersonen, in der Wissenschaft, in Beratungoder bei Mitarbeitenden in Verwaltungen.

Seemann skizziert diese drei Zukunftsszenarien anhand jeweils einer Berufsgruppe:

Disruption – Beispiel Übersetzer:innen

Seemann sieht hier eine Berufsgruppe in Auflösung. Maschinell erstellte Übersetzungen werden für einen grossen Teil der Übersetzungsaufgaben genutzt – für Gebrauchstexte und technische Dokumentationen ebenso wie für die meisten Bücher. Ausnahmen sind Kunst- und Literaturübersetzungen. Übersetzer:innen entwickeln sich in verschiedene neue Aufgabenprofile hinein:

  • Lektorat – Überarbeitung bzw. Feinschliff von maschinell übersetzten Texten;
  • Prompt-Übersetzungen;
  • Beratung im Bereich KI-basierte Übersetzung, Qualitätssicherung und Modell-Training.

Integration – Beispiel Krankenpflege

Diesem Szenario zufolge bleibt der Kern der Berufsarbeit intakt und KI-basierte Werkzeuge werden in den Arbeitsprozess integriert. Beispiele sind Notizsysteme auf der Grundlage von gesprochener Sprache, die zeitglich zu manuell durchgeführten Arbeiten an Patient:innen geführt werden. Oder KI-basierte Systeme für eine personalisierte Zusammenstellung der Ernährung von Patient:innen. Oder Simultanübersetzungen, so dass auch Fachkräfte ohne gute Kenntnis der deutschen Sprache in der Pflege arbeiten können.

(…) die Arbeit am Körper ist weiterhin eine menschliche Arbeit, der Einsatz der Hände ist nicht nur eine Frage von mechanischer Kraft und feinmotorischer Sensibilität, sondern auch eine der Empathie, Zuwendung und des Mitgefühls: etwas, was die Maschinen nicht leisten können.
Seemann 2023, S. 67

Transformation – Studierende, Lehrpersonen & Wissenschaftler:innen

In diesem Szenario skizziert Seeman u.a. Entwicklungen wie die folgenden (S. 69-74):

  • starke Zunahme mündlicher Prüfungen gegenüber schriftlichen Prüfungsformen;
  • Lernunterstützung durch personalisierte, omnikompetente maschinelle Tutoren;
  • nur noch wenige Vorlesungen, dafür mehr betreute Kolloquien;
  • “Publikations-Explosion” und Zusammenbruch des Peer-Review-Systems in der Wissenschaft;
  • Transformation des Review-Prozesses für wissenschaftliche Arbeiten:
    • alle eingereichten Publikationen werden in eine generische Standard-Sprache übersetzt und dabei auch anonymisiert;
    • automatisierte / maschinelle Plausibilitätsprüfung;
    • Review von kommentierten Zusammenstellungen zu Bündeln von Publikationen durch menschliche Reviewer;
    • Überprüfung von Beobachtungen / Überlegungen mit Unterstützung von LLMs;
    • Bestätigung der Bewertung der Original-Einreichung durch die Peer-Reviewer.

Seemann, Michael (2023): Künstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft. Working Paper Forschungsförderung, Nr. 304, September 2023. Düsseldorf: Hans-Böckler-Stiftung.

Filed Under: Beiträge Tagged With: AI / KI, Digitale Transformation

ChatGPT & Co. in Arbeits- & Lernwelten (Empower People 2023)

15. November 2023 by Christoph Meier Leave a Comment

Im Rahmen der Veranstaltung «Empower People 2023» der FH Kärnten haben wir Assistenzsysteme auf Basis generativer KI zum Thema gemacht – mit einem Impuls, einer Pulsmessung und Gruppendiskussionen. Ein Fazit: es gibt viel Orientierungsbedarf zu Assistenzsystemen auf Basis generativer KI.


Empower People…

«Empower People» nennt sich die Veranstaltung der «people experience community» und der FH Kärnten, die dieses Jahr zum zweiten Mal durchgeführt wurde. Motto der Veranstaltung war «Empowerment durch innovative Lern- und Entwicklungskonzepte». Die Organisator:innen – Uschi Liebhart, Michael Kosutnik und Christian Mörtl – hatten mich eingeladen, den Abend mit Inhalt zu füllen. Das habe ich gerne gemacht und einen Impuls, eine kurze Pulsmessung sowie eine moderierte Diskussionsphase vorbereitet.

… durch Assistenzsysteme auf Basis generativer KI

Der Titel für meinen Impuls war «ChatGPT & Co. als persönliche Assistenzsysteme in Arbeits- & Lernwelten». Mein Ausgangspunkt waren die Veränderungen in unserer Arbeitswelt (Fokus generative KI) und die Frage danach, worauf wir als Bildungsverantwortliche Menschen vorbereiten sollen bzw. wofür wir sie befähigen sollen.

Die kurze Antwort lautet: auch auf das Zusammenarbeiten mit «smarten» Assistenzsystemen auf der Basis von generativer KI. Aus meiner Sicht wird dies zum «neuen Normal» in Arbeits- und Lernwelten. Ganz gleich, ob wir mit Texten arbeiten, mit Bildern, mit Videos, mit Sound / Musik, mit Computer-Code, mit Dateien und Daten – Assistenzsysteme auf Basis von generativer KI werden verfügbar sein und uns dabei unterstützen können.

Potenziale – und Herausforderungen

Damit verbunden ist das Potenzial für eine deutlich Erhöhung unserer Arbeitsproduktivität. Allerdings unter Voraussetzungen:

  • wir kennen die Funktionsprinzipien, die Möglichkeiten und auch die Limitationen dieser As-sistenzsysteme (z.B. «one token at a time» oder Bias und Halluzinationen);
  • wir sind uns bewusst, dass diese Assistenzsysteme sich mehr oder weniger kontinuierlich weiterentwickeln; was heute (nicht) funktioniert hat, kann morgen schon wieder etwas anders sein – und zwar besser oder schlechter;
  • wir gestalten den Kooperationsprozess mit den Assistenzsystemen in einer zielführenden Weise (z.B. mit dem Assistenzsystem in der Rolle eines Praktikanten);
  • wir verfügen über die erforderliche Fingerfertigkeit in der Anleitung der Assistenzsysteme (z.B. Prompting);
  • wir gewährleisten sichere Umgebungen für die Arbeit mit diesen Assistenzsystemen (z.B. gekapselte Umgebungen oder Berücksichtigung von Risiken bei der Nutzung von Plugins für GPTs).

Für uns als Verantwortliche für Bildung und Personalentwicklung in den verschiedenen Kontexten (Schule, Hochschule, Berufsbildung, betriebliche Weiterbildung, etc.) sind damit verschiedene Aufgabenbereiche verbunden:

  • Sicherstellen, dass wir selbst mit diesen Lösungen vertraut sind;
  • Mitarbeit an geeigneten Rahmenbedingungen;
  • Unterstützung und Befähigung von Anwender:innen.

Vertrautheit mit «smarten» Assistenzsystemen

Als Verantwortliche für Bildung und Personalentwicklung können wir nur dann wirksam an der Gestaltung von Rahmenbedingungen und an Befähigungsprogrammen arbeiten, wenn wir selbst diese neuartigen Assistenzsysteme gründlich verstehen. Wir müssen Funktionsprinzipien, Möglichkeiten und Limitationen kennen und wir brauchen Erfahrung in der Arbeit mit diesen Assistenzsystemen. Ohne dass wir uns selbst die Finger schmutzig machen, wird es nicht gehen.

Mitarbeit an Rahmenbedingungen

Ein wichtiger Aspekt ist hier der Zugang zu diesen Lösungen. Beispielsweise über Lizenzen oder auch über intern verfügbare, gekapselte Lösungen. Timm Friebe von ENBW hat kürzlich im Education Newscast mit Thomas Jenewein geschildert, wie dies bei ENBW umgesetzt wird. Ich erlebe in Workshops immer wieder, dass Teilnehmende – weil sie keinen Zugang zu den aktuell leistungsfähigsten Versionen dieser Assistenzsysteme haben – mit frei verfügbaren (und in der Regel deutlich weniger leistungsfähigen) Versionen arbeiten und diese dann (aus meiner Sicht vorschnell) als «nicht ernst zu nehmen» abtun.

Unterstützung / Befähigung von Anwender:innen

Zentraler Aufgabenbereich ist natürlich die Befähigung von anderen für die Nutzung von bzw. für die Arbeit mit diesen Assistenzsystemen. Je nach Kontext stehen Lernende, Studierende, Beschäftigte, Führungskräfte oder andere Zielgruppen im Fokus.

Hier geht es um

  • Funktionsprinzipien, Möglichkeiten, Limitationen und Risiken;
  • verfügbare Produkte bzw. Services sowie deren Besonderheiten;
  • geeignete und weniger geeignete Einsatz- bzw. Nutzungsszenarien;
  • Fingerfertigkeit in der Arbeit mit diesen Lösungen (u.a. Prompting);
  • Gestaltung der Zusammenarbeit (Kooperationsprozess);
  • Sensibilisierung für ethische und sicherheitstechnische Herausforderungen.

Wo stehen wir aktuell?

Im Rahmen der Veranstaltung haben wir auch eine kurze Pulsmessung durchgeführt. Zwei Fragen habe ich gestellt:

  • Welche Typen von Assistenzsystemen auf Basis generativer KI sind bekannt & werden genutzt?
  • Wie Assoziationen und Befindlichkeiten sind mit der Nutzung verbunden?

Die Pulsmessung, bei 85 von ca. 100 Teilnehmenden an der Veranstaltung geantwortet haben, zeigt, dass bislang vor allem genKI-Applikationen für die Arbeit mit Texten bekannt sind und genutzt werden. Bild-Generatoren folgen mit deutlichem Abstand an zweiter Stelle. Es wird deutlich, dass viele das Spektrum der verfügbaren Assistenzsysteme nicht kennen.

Abb. 1: Ergebnis Pulsmessung – bekannte & genutzte Typen von Applikationen

Bei der zweiten Frage ging es darum, welche Assoziationen und Befindlichkeiten sich mit der Nutzung von Assistenzsystemen auf Basis generativer KI verbinden. Im Vordergrund, so zeigen die Ergebnisse, stehen die Wahrnehmung, produktiver zu sein und das Gefühl, gestärkt bzw. befähigt zu sein. Aber auch die Aussagen «fühlt sich an wie schummeln» und «ich vermisse klaren Vorgaben» fanden viel Zustimmung. Hier spielt vermutlich eine Rolle, dass etwa die Hälfte der Teilnehmenden an der Online-Veranstaltung Studierende der FH Kärnten waren.

Abb. 2: Ergebnis Pulsmessung – Assoziationen zu und Befindlichkeiten bei der Nutzung

Entwicklungsdynamik als Herausforderung

Im Feld der generativen KI-Awendungen herrscht aktuell eine enorm hohe Entwicklungsdynamik. Verfügbare Produkte und Services entwickeln sich schnell weiter. Laufend kommen neue Player und neue Produkte / Services hinzu. Das ist für alle Beteiligten sehr herausfordernd. Und es unterstreicht, wie wichtig es ist, Wissen zu, Verständnis für und Kompetenz in der zielorientierten Nutzung diese Lösungen aufzubauen.

Aus meiner Sicht sind dies gute Gründe für Verantwortliche in Bildung / Personalentwicklung, dieses Themenfeld systematisch anzugehen.

Hier noch die wichtigsten Folien aus meinem Impuls zur Veranstaltung:

2023-11-21_Empower-People_SCIL_ChatGPTCo_Vs-SCIL-Blog


Die hier angesprochenen Herausforderungen für Bildungsverantwortliche adressieren wir systematisch im Rahmen unserer Arbeit an der SCIL Academy und insbesondere in unseren Weiterbildungsprogrammen «Bildungsmanagement» und «Lerndesign». Mehr dazu hier.

Filed Under: Beiträge, Vorträge & Workshops Tagged With: AI / KI, Bildungsmanagement

Alle werden Chef:in sein? Arbeiten und Lernen mit GPTs

11. November 2023 by Christoph Meier Leave a Comment

Seit kurzem sind persistente, spezifische konfigurierte (bzw. gepromptete) Assistenten verfügbar, die bei vielfältigen Aufgaben unterstützen können. Auch beim Lernen. Bildungsverantwortliche und Bildungsinstitutionen sollten dazu orientiert sein und gegebenenfalls Entwicklungsmassnahmen ableiten.


Diese Woche war ich zu Vorträgen und Workshops zum Thema generative KI in der Bildung eingeladen. Zum einen bei der jährlichen Tagung der SPAS (Schweizerische Plattform der Ausbildungen im Sozialbereich), zum anderen im Rahmen des dritten Digital Day der Kantonsschule Freudenberg / Liceo Artistico in Zürich.

Beide Male habe ich die folgende Argumentationslinie zugrunde gelegt:

  • unsere Arbeitswelt verändert sich, insbesondere durch (generative) KI und Mensch-Maschine Kollaboration;
  • die Zusammenarbeit mit KI-basierten Assistenzsystemen wird zum neuen Normal (z.B. Microsoft 365 Copilot);
  • Bildungsinstitutionen und Bildungsverantwortliche sind nicht nur gefordert, veränderungsfähig zu sein, Wissen zu Assistenzsystemen auf Basis generativer KI aufzubauen, Expertise in der Gestaltung von Mensch-Maschine-Interaktionen zu entwickeln und ethische Herausforderungen zu berücksichtigen. Sie sind auch gefordert, Bildung im Zeitalter von generativer KI zu gestalten.

Custom GPTs – spezifisch konfigurierte Assistenten

Für den Beitrag zum Digital Day der Kantonsschule hatten folgenden Titel vereinbart: “Alle werden Chef:in sein? Herausforderungen für Bildungsverantwortliche bei der Vorbereitung auf die Arbeit in Mensch-Maschine-Tandems”. Und zwar schon vor einigen Monaten. Mit den Ankündigungen von OpenAI im Rahmen der ersten OpenAI-Entwickler-Konferenz am 06.11. hat dieser Titel, der ursprünglich eher provokativ gemeint war, eine unerwartete Aktualität erhalten.

In einem zugehörigen Blog-Artikel (Introducing GPTs) hat OpenAI erläutert, was es mit den neu verfügbaren “custom versions” von GPT auf sich hat:

We’re rolling out custom versions of ChatGPT that you can create for a specific purpose—called GPTs. GPTs are a new way for anyone to create a tailored version of ChatGPT to be more helpful in their daily life, at specific tasks, at work, or at home—and then share that creation with others. For example, GPTs can help you learn the rules to any board game, help teach your kids math, or design stickers. Anyone can easily build their own GPT—no coding is required. You can make them for yourself, just for your company’s internal use, or for everyone.
OpenAI, Introducing GPTs, 6.11.2023

Beispiel Feedback-Wizard

In seinem Online-Artikel “Almost an Agent: What GPTs can do” hat Ethan Mollick detailliert beschrieben, wie er ausgehend von diesen neuen Möglichkeiten einen “Feedback Wizard” bzw. “Writing Coach” erstellt hat. Dieser Coach gibt Studierenden Feedback zu einem Textentwurf, den sie auf Aufforderung hochladen bzw. einstellen. Hier ein Beispiel für ein daraus resultierendes Feedback:

Abb. 1: Feedback zu einem studentischen Text (Bildquelle: E. Mollick)

Mollick teilt in seinem Beitrag auch den sehr ausführlichen Prompt, den er für diesen Wizard erstellt hat (ca. 1 Seite Umfang).

Hier ein Blick auf die Benutzeroberfläche, auf der man diese spezifischen GPTs erstellen kann – allerdings mit einem anderen Anwendungsfall:

Abb. 2: Konfiguration eines Custom-GPT (Bildquelle: SCIL)

Praktikanten für beliebige Aufgaben

Die Möglichkeit, für spezifische Aufgaben optimierte Assistenten zu nutzen, bietet Forefront.ai seit einigen Monaten an. Jetzt gibt es solche Assistenten auch bei OpenAI – und zusätzlich eben die Möglichkeit, eigene Assistenten zu erstellen und hinzuzufügen:

Wir bewegen uns also in eine Welt hinein, in der wir zahlreiche, für spezifische Aufgaben konfigurierte und zunehmend leistungsfähige Assistenten nutzen können, um vielfältige Aufgaben an sie zu delegieren. Wichtig ist dabei, dass wir von “Assistenten” oder besser noch von “Praktikanten” sprechen:

“This first round of primitive AI agents like ChatGPT and Dalle are best thought of as universal interns. It appears that the millions of people (…) are using these AIs to do the kinds of things they would do if they had a personal intern: write a rough draft, suggest code, summarize the research, review the talk, brainstorm ideas, make a mood board, suggest a headline, and so on. As interns, their work has to be checked and reviewed. And then made better. It is already embarrassing to release the work of the AI interns as is. You can tell, and we’ll get better at telling. Since the generative AIs have been trained on the entirety of human work — most of it mediocre — it produces “wisdom of the crowd”-like results. They may hit the mark but only because they are average.”
Kevin Kelly auf https://www.noahpinion.blog/p/interview-kevin-kelly-editor-author, 07.03.2023
(Hervorhebungen CM)

Was dies für (Berufs-)Arbeit und Beschäftigung bedeutet, darüber wird vielerorts diskutiert (u.a. Hamilton et al. 2023). Ein Zukunftsszenario ist, dass künftig ein wichtiger Teil beruflicher Arbeit darin besteht, die Arbeit von solchen Assistenten zu orchestrieren. Die Implikationen für die Personalentwicklung erkunden wir im Rahmen einer aktuellen SCIL Entwicklungspartnerschaft. Hier möchte ich mögliche Folgen für Aus-, Fort- und Weiterbildung ansprechen.

Private Hauslehrer für alle?

In einer vielzitierten Studie hat Benjamin Bloom (1984) aufgezeigt, wie viel lernwirksamer individuelle tutorielle Betreuung im Vergleich zu klassischem Frontalunterricht ist (vgl. Referenz unten). Sugata Mitra hat mit seinen Experimenten und mit seiner Initiative zu “Hole-in-the-Wall” ab 1999 gezeigt, wie Lernen in Regionen ohne ausreichende Bildungsinfrastruktur bereits durch das Bereitstellen eines Computers mit Zugang zum Internet gefördert werden kann (intrinsische Lernmotivation vorausgesetzt). Ethan Mollick hat vor wenigen Monaten ein einem ausführlichen Beitrag (“Assigning AI – Seven Ways of Using AI in Class”) gezeigt, wie ChatGPT als privater Lern-Tutor genutzt werden kann. Ein solcher Prompt kann an Lernende weitergegeben werden und diese können damit eigenständig in beliebig viele Lerndialoge zu beliebigen Themen eintreten.

– – –

Hier der in deutscher Sprache nachgebaute Tutor-Prompt aus der Publikation von Ethan und Lilach Mollick. Ich habe den Prompt ausprobiert und mir ein Thema aus dem Bereich des maschinellen Lernens (Verlustfunktionen) erläutern lassen. Ich war beeindruckt, nicht zuletzt von den Fragen, die mir der Assistent gestellt hat, um mein Verständnis der dargestellten Sachverhalte zu überprüfen.

– – –

Hohe metakognitive Anforderungen

So vielversprechend diese Möglichkeiten klingen – es gibt wichtige Limitationen, die beachtet werden müssen. So kann es nach wie vor sein, dass der KI-Tutor halluziniert oder fachlich nicht auf der Höhe ist. Dies stellt eine Herausforderung für die Lernenden bzw. Nutzer:innen dar. Diese müssen in der Lage sein, einzuschätzen, für welche Themen der KI-Tutor gut einzusetzen ist, für welche eher nicht und worauf bei den Ausgaben des Tutors zu achten ist. Dies erfordert eine hohe metakognitive Kompetenz. Lernende begeben sich in ein Lernsetting, lassen sich von einem KI-Tutor Sachverhalte erläutern und müssen gleichzeitig beobachten, ob es Hinweise für Fehlleistungen des Tutors gibt (bzw. müssen gegebenenfalls die Ausgaben des Tutors eigenständig prüfen). Dazu muss man erst mal in der Lage sein bzw. das muss trainiert werden…

Folgen für Bildungsverantwortliche und Bildungsinstitutionen

Damit ich nicht missverstanden werde und weil die Frage in Vorträgen immer wieder gestellt wird: ich denke nicht, dass Lehrpersonen oder Bildungsinstitutionen durch künstliche Intelligenz ersetzt werden oder ersetzt werden sollten. Ich denke vielmehr, dass wir verfügbare Technologien dafür nutzen sollten, mehr, flexibleres, fokussierteres und selbstbestimmteres Lernen zu ermöglichen. Dazu braucht es kompetente Lehrpersonen / Trainer:innen / Bildungsverantwortliche / Personalentwickler:innen in einer beratenden, coachenden und begleitenden Rolle. Und dazu braucht es auch Verantwortliche auf Seiten der Bildungsinstitutionen, die diese Entwicklungen zum Anlass nehmen, die bisherige Positionierung, das bisherige Leistungsportfolio und die bisherigen Infrastrukturen für Lernen und Entwicklung zu hinterfragen bzw. gegebenenfalls weiterzuentwickeln.


Bloom, B. S. (1984). The 2 Sigma Problem: The search for methods of group instruction as effective as one-to-one tutoring. Educational Researcher, 13(6), 4–16.

Hamilton, A., Wiliam, D., & Hattie, J. (2023, August 8). The future of AI in education: 13 things we can do to minimize the damage. Retrieved from https://media.licdn.com/dms/document/media/D4D1FAQG6MTH86GkffQ/feedshare-document-pdf-analyzed/0/1699581799142?e=1700697600&v=beta&t=lbViT4B0KwzjnEzKRbHbSddSklAkHHYJ1GqmeSZT1xE

Bildquelle Beitragsbild: OpenAI

Filed Under: Beiträge, Vorträge & Workshops Tagged With: AI / KI, Bildungsmanagement, Digitalisierung, Learning Professionals

Personalentwicklung für das Arbeiten mit generativer KI

7. November 2023 by Christoph Meier Leave a Comment

ChatGPT & Co sind auf dem Weg, zu ständig verfügbaren persönlichen Assistenzsystemen für vielfältige Aufgaben zu werden. Die neue SCIL Entwicklungspartnerschaft “Generative KI und Personalentwicklung” greift damit verbundene Themen auf.


ChatGPT & Co sind auf dem Weg, zu ständig verfügbaren persönlichen Assistenzsystemen für vielfältige Aufgaben zu werden. Eine erfolgreiche Zusammenarbeit mit diesen Systemen ist an Voraussetzungen gebunden. Hier tut sich ein wichtiges Arbeitsfeld für Bildung und Personalentwicklung auf. Ein Themenfeld, das wir im Rahmen unserer neuen SCIL Entwicklungspartnerschaft angehen.

SCIL Entwicklungspartnerschaften

Die SCIL Innovationskreise und Entwicklungspartnerschaften greifen aktuelle Herausforderungen im Handlungsfeld Bildungsmanagement und Personalentwicklung auf. In einer geschlossenen Runde werden im Zeitraum von 9-12 Monaten Herausforderungen analysiert, Bestandsaufnahmen erstellt, Konzepte erarbeitet und Lösungen erprobt. Mehr dazu hier.

Letzte Woche sind wir mit einem ganztägigen Kick-off in die SCIL Entwicklungspartnerschaft 2023-24 gestartet. Rahmenthema ist: “Generative KI und Personalentwicklung – Befähigung für erfolgreiche Zusammenarbeit mit smarten Assistenzsystemen”. Beteiligt sind Personalentwickler:innen, L&D-Expert:innen, KI-Expert:innen und Spezialist:innen für HR, Transformation und Innovation von sieben schweizerischen Unternehmen: AXA Versicherungen, Baloise Group, Post-CH, Postfinance, SBB, Swisscom und Zurich Versicherungen.

Orientierung im Themenfeld

Ein wichtiger Arbeitspunkt für das Kick-off war eine Orientierung im Themenfeld generative KI und Befähigung für die erfolgreiche Zusammenarbeit mit KI-basierten Assistenzsystemen wie z.B. Microsoft 365 CoPilot. Ein Ausgangspunkt hierzu war für uns das nachfolgend skizzierte Themen-Tableau:

Abb. 1: Themenfelder zu Arbeiten mit generativer KI und Bildung / Personalentwicklung (Bildquelle: SCIL)

Die für L&D bzw. PE zentralen Themenfelder sind in dieser Skizze im Zentrum repräsentiert:

  • Funktionsprinzipien und Besonderheiten von generativer KI;
  • Nutzungsszenarien für Apps basierend auf generativer KI;
  • Gestaltung der Zusammenarbeit mit diesen Apps / Assistenzsystemen;
  • Kompetenzen für die erfolgreiche Arbeit mit generativer KI;
  • Themen für Entwicklungsangebote (Optimierungs-Prinzipien, Prompting, etc.);
  • Geeignete Entwicklungsformate (Trainings, Selbstlerneinheiten, Circles, etc.);
  • Lernressourcen für verschiedene Entwicklungsformate (Videos, Guides, Cheat Sheets, etc.);

Arbeitsfelder für L&D / PE

Vor diesem Hintergrund lassen sich aus unserer Sicht drei zentrale Arbeitsfelder für L&D bzw. PE herausstellen (vgl. auch Abbildung 2):

  • Scoping & Partnering:
    Was sind Aufgaben für L&D bzw. PE und welche Themen sollten abgegrenzt bzw. durch Kooperationspartner bearbeitet werden?
  • Entwicklungs- & Veränderungsbegleitung:
    Wie verändern sich berufliche Aufgaben? Welche Kompetenzen braucht es? Wie diese Kompetenzen entwickeln? Wie die Veränderung begleiten?
  • Anpassung von eigenen Leistungsprozessen:
    Welche neuen Möglichkeiten bzw. Erfordernisse ergeben sich für L&D / PE im Hinblick auf Content-Erstellung oder das Ermöglichen von personalisierten Lernumgebungen?
Abb. 2: Aufgaben für L&D / PE (Bildquelle: SCIL)

Arbeitsthemen der Entwicklungspartnerschaft

Im Rahmen des Kick-off haben wir für die erste Arbeitsphase im Rahmen der Entwicklungspartnerschaft vier Themen priorisiert:

  • Generative KI im Arbeitsfeld und strategische Personalplanung;
  • Systematische Exploration von Use Cases für das Arbeiten mit GenKI-Apps;
  • Inhalte für eine Lernumgebung zum Thema «Arbeiten mit GenKI» ;
  • Kuratieren von Lernressourcen / Lerngelegenheiten mit GenKI-Apps.

Diese Themen werden wir in den nächsten Monaten im Rahmen von vier Arbeitsgruppen verfolgen. Ich freue mich auf die gemeinsame Arbeit…

Filed Under: Beiträge Tagged With: AI / KI, Bildungsmanagement, Personalentwicklung

ChatGPT & Co. als persönliche Assistenzsysteme in Arbeits- & Lernwelten

27. Oktober 2023 by Christoph Meier 3 Comments

ChatGPT & Co sind auf dem Weg, zu ständig verfügbaren persönlichen Assistenzsystemen für vielfältige Aufgaben zu werden. Eine erfolgreiche Zusammenarbeit mit diesen Systemen erfordert u.a. Wissen (Funktionsprinzipien, Limitationen), Veränderungsbereitschaft und die Fähigkeit zur zielorientierten Gestaltung des Zusammenwirkens. Dies gilt auch für den Bereich der Bildung.


Im Rahmen des diesjährigen Kursleiter:innen Events der Lernwerkstatt Olten war ich eingeladen, das inhaltliche Programm beizusteuern. Die Veranstaltung fand im Verkehrshaus Luzern statt und stand unter dem Motto: “ChatGPT & CO als persönliche Assistenzsysteme in Arbeits- und Lernwelten”.

Mein Beitrag bestand aus drei Teilen: zunächst einem orientierenden Input zu generativer KI, Veränderungen in der Arbeitswelt und Nutzungsszenarien im Kontext von Bildung; anschliessend eine Workshop-Phase bei der die Teilnehmenden in zwei Runden verschiedene Nutzungsszenarien exploriert und erprobt haben; schliesslich noch eine kurzer Einblick in Beispiele aus meiner eigenen Praxis.

Die Kernpunkte aus meiner Sicht waren die folgenden:

  • Unsere Arbeitswelt verändert sich und wir müssen Menschen auf eine Arbeitswelt mit “intelligenten” Assistenzsystemen vorbereiten.
  • Das Arbeiten mit “intelligenten” Assistenzsystemen wird zum “neuen Normal” (u.a. Microsoft Copilot)
  • Damit wir erfolgreich mit diesen “intelligenten” Assistenzsystemen arbeiten können braucht es
    • Veränderungsfähigkeit,
    • Expertise in der Gestaltung des Kooperationsprozesses mit generativen KI-Applikationen (mehr dazu hier),
    • Sensibilität für damit verbundene ethische und sicherheitstechnische Herausforderungen.
  • Insbesondere aber braucht es Wissen zu und Erfahrung mit generativen KI-Applikationen:
    • Funktionsprinzipien (wahrscheinlichkeitsbasierte Produktion eines Tokens nach dem anderen, Umfang Kontext-Fenster, etc.)
    • Wofür sind sie optimiert? (ChatGPT: nicht für korrekte, sondern für gefällige Ausgaben)
    • Gestaltung von Prompts (z.B. Mega-Prompts – mehr dazu und Beispiele hier)
  • Im Kontext Bildung stehen folgende Anwendungsfelder im Vordergrund:
    • Nutzung durch Lehrpersonen / Autor:innen (z.B. Erzeugen von Ideen für Unterrichtsplanungen);
    • Nutzung durch Autor:innen (z.B. Erzeugen von Kurs-Materialien oder ganzen Kurs-Einheiten);
    • Nutzung durch Lernende (z.B. als personalisierter Tutor);
    • Gestaltung von Leistungsnachweisen / Prüfungen (z.B. Teilnoten für Dokumentation und Reflexion des Erarbeitungsprozesses mit generativen KI-Anwendungen).

Der Nachmittag war intensiv und konzentriert, sowohl im Hinblick auf den Impuls als auch im Hinblick auf die explorative Arbeit der Teilnehmenden.

Geendet haben wir mit einem Blick auf diese beiden Bilder und einer kurzen Diskussion dazu:

Hier noch ein Auszug aus den Folien, die ich für meinen Beitrag und den Workshop-Teil vorbereitet hatte:

ChatGPTCo-in-der-Bildung_LernWerkOlten_SCIL_2023-10-26_SCIL-blog

Filed Under: Vorträge & Workshops Tagged With: AI / KI, Digitales Lernen, Learning Professionals, Weiterbildung

Produktion eines kompletten Online-Kurses mit KI-Werkzeugen

20. Oktober 2023 by Christoph Meier Leave a Comment

Ein kurzer Beitrag im fnma Magazin 03/2023 über ein Projekt, in dessen Rahmen ein kompletter Online-Kurs mit Werkzeugen auf Basis generativer KI produziert wurde. Die verwendeten Werkzeuge werden ebenso offen gelegt wie die verwendeten Prompts und die resultierenden Lernerfahrungen.


In ihrem Beitrag für das aktuelle fnma-Magazin (“Erfahrungen mit KI in der Lehre”) berichten Martin Ebner, Sarah Edelsbrunner und Sandra Schön von einem Projekt, in dessen Verlauf ein Online-Kurs nahezu vollständig über generative KI-Werkzeuge erstellt wurde. Beteiligt waren neben dem Team der Organisationseinheit Lehr- und Lerntechnologien der TU Graz auch Studierende der TU Graz sowie Michael Lanzinger. Der Titel des Kurses lautet: “Wenn künstliche Intelligenz einen kompletten Online-Kurs produziert”. Der Kurs ist über die iMooX-Plattform kostenfrei verfügbar.

Abb. 1: Bildschirmfoto des iMooX-Kurses
Der Kurs beginnt mit einer menschengemachten einleitenden Lektion und einem Video, in dem die KI-Nutzung bei der Erstellung und das Projektteam vorgestellt werden. Danach folgen acht KI-generierte Lektionen zu gesellschaftlichen Themen wie u.a. Bildung, Umwelt, Politik. Jede Lektion beinhaltet zumindest ein KI-generiertes Video sowie ein Quiz zum Video. Manche Lektionen enthalten weitere Literaturtipps oder KI-generierte Texte. Darauf folgt eine vom Projektteam geschriebener Bericht der Herausforderungen, die bei der Erstellung dieser Lektion auftraten.
Ebner / Edelsbrunner / Schön, 2023, S. 25

Transparente Erstellung

Besonders interessant finde ich, dass die Projektgruppe den Entstehungsprozess des Kurses, die verwendeten Werkzeuge und die dabei gemachten Erfahrungen transparent gemacht hat.

Beim Erzeugen des MOOCs wurden die folgenden Werkezeuge verwendet:

  • Drehbücher & Texte: ChatGPT Vs.3
  • Video: Synthesys.io
  • Avatare für Videos: Elai.io & D-ID.com
  • Animationen: Kaiber.ai
  • Text-to-Speech: elevenlabs.io
  • Bilder: NightCafé, Pictory.ai & Midjourney
  • Badges: HotPod

Der Kurs beinhaltet darüber hinaus eine Dokumentation zu den folgenden Punkten:

  • Welche KI-Werkzeuge beim Erstellen der einzelnen Kapitel verwendet wurden (dies war jeweils unterschiedlich);
  • Welche Prompts verwendet wurden;
  • Welche KI-generierten Inhalte nicht verwendet wurden und kurze Begründungen dazu;
  • Reflexionen zu den aus dem Prozess resultierenden Lernerfahrungen.

Die Autorinnen ziehen folgendes Fazit:

Mit Stand April 2023 besitzen KI-Tools beeindruckende Fähigkeiten, um Lehrmaterialien – in unserem Fall Kursbeschreibungen, Videos, Kurstexte und Quizze – effizient zu erstellen. Fachleute fanden in unserem Falle keine Fehler in den Videos, sie werden jedoch oft als oberflächlich und didaktisch nicht optimal empfunden (…) Weiters erscheint uns wichtig, auf die Notwendigkeit einer transparenten Verwendung von KI bei der Entwicklung der Lehrmaterialien hinzuweisen.
Ebner / Edelsbrunner / Schön, 2023, S. 25

    Verweise

    • Societech: Die Gesellschaft im Kontext der Informationstechnologie. Offener Online-Kurs auf iMooX.at.
    • Ebner / Edelsbrunner / Schön (2023): Wenn künstliche Intelligenz einen kompletten Online-Kurs produziert: der KI-generierte MOOC “Societech”. fnma Magazin 03/2023, S. 24-26.

    Danke an Jochen Robes / Weiterbildungsblog.de für den Hinweis auf die Publikation.

    Filed Under: Fundstücke Tagged With: AI / KI, Digitale Bildung, Digitales Lernen

    Hybride Intelligenz: Zusammenarbeit mit KI-Assistenzsystemen in wissensintensiven Bereichen

    16. Oktober 2023 by Christoph Meier Leave a Comment

    Mit generativen KI-Anwendungen wie z. B. ChatGPT/GPT-4 sind sehr leistungsfähige Assistenzsysteme breit verfügbar und können für verschiedenste berufliche Aufgaben genutzt werden. Damit stellen sich Fragen nach (1) den Optionen für die Gestaltung der Zusammenarbeit von Menschen und KI-Agenten, (2) dem Zusammenwirken von menschlicher und künstlicher Intelligenz und (3) den für eine erfolgreiche Zusammenarbeit mit intelligenten Assistenzsystemen erforderlichen Kompetenzen.


    Bisherige Modellierungen von KI-Kompetenzen (z.B. DigComp2.2) bleiben recht allgemein und sind erkennbar nicht dahingehend spezifiziert, welches Wissen, welche Fertigkeiten und welche Einstellungen es für eine erfolgreiche Interaktion mit generativen KI-Assistenzsystemen wie beispielsweise ChatGPT, Midjourney oder GitHub Copilot braucht. Hier setzt unser Beitrag zum Schwerpunktheft der HMD “Industrie 5.0” an.

    Verschiedene Formen des Zusammenwirkens

    Ausgehend von den aktuellen Veränderungen in unserer Lebens- und Arbeitswelt (u.a. die Verbreitung von generativer KI) unterscheiden wir zunächst verschiedene Formen des Zusammenwirkens von Menschen und generativen KI-Anwendungen. Die Intensität dieser Zusammenarbeit kann von selbständigem nebeneinanderher Arbeiten bis hin zur barrierefreien Interaktion (hybride Intelligenz) reichen. Beispielsweise wenn im Rahmen eines ausgedehnten und intensiven Dialogs mit ChatGPT zunächst eine Inhalte-Struktur und dann ein längerer Social Media Beitrag zum Thema SEO entsteht.

    Rahmenbedingungen für erfolgreiche Zusammenarbeit

    Ein gelingendes, synergetisches Zusammenwirken von Menschen und KI-Agenten („hybride Intelligenz“) erfordert geeignete Rahmenbedingungen. Hier können eine Reihe von Aspekten unterschieden werden:

    • Akzeptanz für die Zusammenarbeit mit (generativer) KI
      (u.a. ist ein “Growth-Mindset” hilfreich);
    • Spezifische menschliche Kompetenzen für die gelingende Zusammenarbeit mit “smarten” Maschinen
      (u.a. Wissen zu deren Funktionsweisen und Limitationen; Fähigkeit zur Gestaltung des Kooperationsprozesses; Fähigkeit zur reflexiven Beobachtung und Steuerung des eigenen Handelns);
    • Sensibilität für ethische Herausforderungen bei der Nutzung von generativen KI-Assistenzsystemen
      (u.a. Aspekte des Umgangs mit geistigem Eigentum).

    Ein aus unserer Sicht besonders wichtiger Aspekt sind die Haltungen und Einstellungen der beteiligten Menschen – insbesondere ein „Growth Mindset“. Damit verbunden sind wichtige Management-Aufgaben, wie etwa das Etablieren von ethischen Leitlinien für die Zusammenarbeit mit KI-basierten Assistenzsystemen und das Etablieren von „Growth Mindset Kulturen“ in Unternehmen und Organisationen.


    Referenz

    Seufert, S., & Meier, C. (2023). Hybride Intelligenz: Zusammenarbeit mit KI-Assistenzsystemen in wissensintensiven Bereichen. HMD Praxis Der Wirtschaftsinformatik, 60(5).

    Der Beitrag ist als Open Access Publikation über diese Seite verfügbar.

    Filed Under: Beiträge, Publications Tagged With: AI / KI, Digitale Arbeitswelt

    Technologien zur Unterstützung von personalisierter Aus-, Fort- und Weiterbildung

    15. Oktober 2023 by Christoph Meier Leave a Comment

    Vor dem Hintergrund zunehmend heterogener Zielgruppen ist vielfach eine stärkere Personalisierung von Aus-, Fort- und Weiterbildung gefordert. Verschiedene Abstufungen der Personalisierung können durch verschiedene Typen von Technologien unterstützt werden: (1) Skills-Tech-Lösungen; (2) Learning-Experience-Plattformen (LXP); (3) ChatGPT & Co.; 4) Intelligente Tutorielle Systeme (ITS).


    Individualisierung und Teilnehmendenorientierung

    Im Handbuch bzw. Nachschlagewerk PersonalEntwickeln (hrsg. von Laske, Orthey und Schmid) habe ich jetzt einen Beitrag dazu veröffentlichen können. Dabei unterscheide ich vier verschiedene Typen von Technologien zur Unterstützung von personalisiertem Lernen:

    1. Skills-Tech-Lösungen;
    2. Learning-Experience-Plattformen (LXP);
    3. ChatGPT & Co.;
    4. intelligente tutorielle Systeme (ITS).

    Abstufungen von Personalisierung und korrespondierende Lerntechnologien

    Die folgende Abbildung visualisiert die Grundidee des Beitrags. Nämlich dass die verschiedenen Technologien verschiedene Stufen der Personalisierung im Kontext von Bildung / Lernen / Personalentwicklung repräsentieren. Von Stufe zu Stufe wird die Unterstützung kleinteiliger.

    • Skills-Tech-Lösungen unterstützten bei der Entwicklung von Kompetenz- bzw. Skills-Profilen;
    • LXP unterstützen bei der Auswahl bzw. Zuweisung relevanter Lerninhalte;
    • ChatGPT & Co. unterstützen bei personalisierten Wissens- & Lerndialogen;
    • ITS (Intelligente Tutorielle Systeme) ermöglichen kleinschrittiges Feedback bei der Bearbeitung von Wissensressourcen / Aufgaben (Beispielsweise mit Hinweisen bei der schrittweisen Umformung von mathematischen Gleichungen).

    Abb. 1: Vier Ebenen der technischen Unterstützung von Personalisierung bei Lernen / Entwicklung
    (eigene Darstellung unter Verwendung von Abbildungen von bzw. zu Indiana Achievement Wallet, Cornerstone OnDemand, OpenAI, area9learning)

    Technologie ist nicht alles

    Allerdings braucht es für den Erfolg von personalisiertem Lernen mehr als nur technische Lösungen. Es braucht auch die Unterstützung und Befähigung der an Lernprozessen beteiligten Personengruppen:

    • Lernende müssen in ihrer Fähigkeit zur Selbstregulation in Lernprozessen gestärkt werden;
      (mehr dazu in diesem Blogpost)
    • Bildungsverantwortliche müssen dabei unterstützt werden, ihre eigene Rolle in Richtung von Lernbegleitung, Lernberatung und Lerncoaching systematisch weiterzuentwickeln;
      (mehr dazu u.a. bei Perkhofer-Czapek & Potzmann, 2016)
    • im betrieblichen Kontext müssen Vorgesetzte bzw. Führungskräfte in die Lage versetzt werden, lern- bzw. entwicklungsförderlich zu führen.
      (mehr dazu in diesem Blogpost und in unserem Modul “Workplace Learning”)

      Referenz und Link zum Beitrag:

      Meier, C. (2023): 8.154 Vier Typen von Technologien zur Unterstützung von personalisierter Aus-, Fort- und Weiterbildung. In S. Laske, A. Orthey, & M. J. Schmid (Eds.), PersonalEntwickeln (Losebl.), 294. Ergänzungslieferung, Oktober 2023, S. 1–22. Hürth: Wolters Kluwer Deutschland.

      Der Beitrag ist über diese Seite verfügbar.


      Mehr zum Thema Skills-Tech-Lösungen in unserem Weiterbildungsmodul “Kompetenz- bzw. Skills-basierte Bildung / PE mit Skills-Tech”.

      Mehr zum Thema personalisierte KOmpetenzentwicklung mit ChatGPT & Co. in unserem WEiterbildungsmodul “Dialogorientierte Lern- & Assistenzsysteme”.

      Filed Under: Beiträge, Publications Tagged With: Chatbot, E-Learning / TEL, ITS, Lernplattform, Skills-Tech

      Divergente Denkaufgaben – Kreativste Menschen (noch) vor KI

      11. Oktober 2023 by Christoph Meier Leave a Comment

      Kreativität wird traditionell als eine dem Menschen vorbehaltene Fähigkeit betrachtet. Die rasante Entwicklung der Künstlichen Intelligenz (KI) hat jedoch zu generativen KI-Chatbots geführt, die (je nach Sichtweise) qualitativ hochwertige Kunstwerke produzieren können. Dies wirft die Frage nach den Unterschieden zwischen menschlicher und maschineller Kreativität auf.

      In einer aktuellen Studie haben Forschende der Universitäten Turku (Finnland) und Bergen (Norwegen) die Kreativität von Menschen (n= 256) mit der von drei aktuellen KI-Chatbots verglichen. Dabei haben sie den Alternative Use Task (AUT) verwendet, die bei solchen Studien am häufigsten verwendete divergente Denkaufgabe. Die Teilnehmenden wurden gebeten, ungewöhnliche und kreative Verwendungen für Alltagsgegenstände zu finden (Seil, Kartonschachtel, Bleistift, Kerze). Im Durchschnitt schnitten die KI-Chatbots besser ab als die menschlichen Teilnehmenden. Während die menschlichen Antworten auch Ideen von schlechter Qualität enthielten, lieferten die Chatbots im Allgemeinen kreativere Antworten.

      Allerdings: die besten menschlichen Ideen waren jedoch immer noch denen der Chatbots ebenbürtig oder sogar überlegen.

      Although AI chatbots performed better than humans on average, they did not consistently outperform the best human performers. Tere was only one instance in which an AI chatbot achieved the highest semantic distance score (Copy.Ai in response to pencil) and two instances where AI chatbots (ChatGPT3 and ChatGPT4 in response to box) achieved the highest subjective scores.
      (…)
      For example, in one session, ChatGPT4 responded to box with “cat amusement park,” while one human and ChatGPT3 responded with “cat playhouse,” which received lower creativity ratings.
      (…)
      In all other cases, the highest scores were achieved by humans. However, it is evident from Figs. 2, 3, 4, 5 and 6 that humans consistently achieved the lowest scores in the tasks. While AI chatbots typically responded with relatively high levels of creativity and some variability, human performance exhibited greater variation, as measured by both semantic distance and subjective ratings.
      Koivisto / Grassini, 2023, p. 7-8

      Diese Studie unterstreicht das Potenzial von künstlicher Intelligenz als Werkzeug zur Steigerung der Kreativität, aber sie unterstreicht auch die einzigartige und komplexe Natur menschlicher Kreativität, die mit KI-Technologie nur schwer nachzubilden oder zu übertreffen ist. Die Studie wirft aber auch wichtige Fragen über die Zukunft der kreativen Arbeit im Zeitalter von generativer KI auf.


      Koivisto, M., Grassini, S. Best humans still outperform artificial intelligence in a creative divergent thinking task. Sci Rep 13, 13601 (2023). https://doi.org/10.1038/s41598-023-40858-3


      Verwendete Werkzeuge für eine schnelle Übersetzung und Überarbeitung von Textpassagen:
      DeepL translator; DeepL write;
      GPT-4 hatte ich für eine knackige Überschrift angefragt, fand die Vorschläge aber zu stark vereinfachend / zu reisserisch.

      Filed Under: Fundstücke Tagged With: AI / KI

      Generative KI in der KVF-Ausbildung – BiKo 2023

      3. Oktober 2023 by Christoph Meier Leave a Comment

      Im Rahmen des Bildungskongresses der deutschen Versicherungswirtschaft haben wir in einem Forum die Konsequenzen von Entwicklungen im Bereich generative KI für die KVF-Ausbildung anhand von Thesen diskutiert. Mit Blick auf das Ausbildungspersonal standen Aspekte der Organisation, von Kultur und Minset sowie der technischen Infrastrukturen im Vordergrund.


      Rund 260 Bildungsverantwortliche hatten sich diese Woche für den Bildungskongress der deutschen Versicherungswirtschaft in Berlin eingefunden. Motto des Kongresses war: «Kommen. Gehen. Bleiben. Wie wir unsere Arbeitswelt gestalten.“ Themen waren u.a. der demografische Wandel und die damit verbundenen Herausforderungen für die Versicherungswirtschaft, Onboarding, Laufbahnentwicklung, hybrides Arbeiten, Führung, aber auch aktuelle technologische Entwicklungen wie generative KI.

      Im Rahmen einer Arbeitsgruppe des BWV hatten wir (Andrea Schanz, DEVK; Sascha Fauler, FOM Hochschule Bonn) im Vorfeld des Kongresses ein Thesenpapier zu den Folgen der Entwicklungen im Bereich generative KI für die KVF-Ausbildung formuliert. Dieses Thesenpapier haben wir in einem Kongress-Forum vorgestellt, diskutiert und weiter bearbeitet.

      Die Thesen im Überblick

      Hier ein kurzer Zusammenzug der Thesen aus dem Thesenpapier:

      Abb. 1: Die acht Thesen im Überblick (Bildquelle: BWV)

      Die Diskussion im Forum war weniger kontrovers, als wir vor einem ½ Jahr, als wir die Thesen formuliert haben, erwartet hatten.

      Vertiefung in Arbeitsgruppen

      Im Anschluss haben wir in drei Arbeitsgruppen einzelne Aspekte des Themas vertieft:

      1. Möglichkeiten der Nutzung von GPT&Co. in der KVF-Ausbildung durch Ausbildende und Auszubildende
      2. Möglichkeiten der Prüfungsvorbereitung mit ChatGPT
      3. Konsequenzen für die Qualifizierung des Ausbildungspersonals

      Der dritte Themenkomplex liegt mir persönlich am nächsten. Hier war der Ausgangspunkt für die Arbeitsphase folgender:

      Wir gehen davon aus, dass generative KI-Assistenzsysteme in absehbarer Zeit integraler Bestandteil der Arbeitswelt sein werden. Vor diesem Hintergrund streben wir an, dass

      • das Ausbildungspersonal die damit verbundenen Chancen, Limitationen und Herausforderungen versteht,
      • das Ausbildungspersonal in der Lage ist, Assistenzsysteme auf der Grundlage generativer KI zielführend und produktiv zu nutzen (für das Erzeugen von Lernmaterialien; für das Unterstützen von Lehr-Lernprozessen; für das Erzeugen von Prüfungsaufgaben; etc.).

      Was muss passieren, so unsere konkrete Fragestellung für die Arbeitsphase, damit dieses Zukunftsbild Realität werden kann?

      Konsequenzen für die Qualifizierung des Ausbildungspersonals

      In der Diskussion haben wir vor allem drei Themen-Facetten fokussiert: (1) Organisation; (2) Kultur & Mindset; (3) technische Infrastrukturen. Einige der Aspekte, die dabei zur Sprache kamen, sind die folgenden:

      Organisation

      • Einbindung von zentralen Akteuren im Verlauf der Einführung dieser Assistenzsysteme (Leitungsebenen, Bildungsverantwortliche, Betriebsrat, etc.);
      • Formulierung von und Orientierung an Leitlinien (z.B. human friendly automation);
      • Identifikation und Umsetzung von Anwendungsszenarien mit deutlichem Mehrwert für die Beteiligten (z.B. Erzeugen von Materialien);

      Kultur & Mindset

      • Geduld mitbringen und Sorgen der Beteiligten ernst nehmen (z.B. «Ist mein Job bedroht?»);
      • Rollenvorbilder / Botschafter einladen und gute Praxis kennenlernen;
      • Transparenz zur Nutzung dieser Werkzeuge fördern und den Austausch von Erfahrungen untereinander fördern;
      • Nutzung dieser Werkzeuge auch im privaten Umfeld unterstützen, um die Vertrautheit damit zu fördern;

      Technische Infrastruktur

      • Grosse Sprachmodelle (LLMs) / KI-Anwendungen für spezifische Anwendungsdomäne (z.B. Versicherungswirtschaft) optimieren;
      • LLMs / KI-Anwendungen kapseln bzw. in sicheren Umgebungen betreiben;
      • LLMs / KI-Anwendungen systematisch in die eigene IT-Infrastruktur integrieren.

      Die Resonanz auf das Kongress-Forum hat uns gezeigt, dass dieses Thema vielen Bildungsverantwortlichen unter den Nägeln brennt. Wir sind daher gespannt, wie sich die Diskussion innerhalb der Versicherungsbranche – aber auch darüber hinaus – weiter entwickeln wird.


      Thesenpapier des BWV zu generativer KI in der Berufsbildung KVF

      Filed Under: Beiträge Tagged With: AI / KI, Berufsbildung, Bildungsmanagement

      20 Jahre Towards Maturity / MindTools L&D Benchmark Report

      29. September 2023 by Christoph Meier Leave a Comment

      Kürzlich ist die 20. Ausgabe des Towards Maturity bzw. MindTools L&D Benchmark Reports erschienen. Er enthält einen Rückblick auf die Entwicklungen in den letzten 20 Jahren und interessante Übersichten nicht nur zu den eingesetzten Technologien, sondern auch zu den Kompetenzen in betriebsinternen L&D-Teams.


      In 2003 hat Laura Overton die erste Benchmarking Studie (“Towards Maturity Benchmark”) im Bereich des betrieblichen Bildungsmanagements durchgeführt. Die zentrale Frage damals war: “Was sind die wichtigsten Erfolgsfaktoren für Projekte und Initiativen im Bereich ‘digitales Lernen’ ?”

      Seit 2017 werden diese Benchmarking Studien von Emerald / MindTools for Business weitergeführt. Im Juli wurde der 20. Bericht veröffentlicht, der sich vor allem einem Rückblick auf 20 Jahre digitales Lernen in Unternehmen und Organisationen widmet: Learning and Development in organizations: reflecting on 20 years of research.

      Der knapp 40-seitige Bericht enthält eine Timeline mit wichtigen Wegmarken zum digitalen Lernen, einen Rückblick auf die Ausprägungen des ‘Learning Maturity Index’ über die letzten 20 Jahre, ein Kapitel mit Übersichten zu den eingesetzten Technologien, ein Kapitel über Social Media und ein Kapitel über Social Learning.

      Nutzung von Lern-Technologien

      Einige der Übersichten aus dem Kapitel zu den eingesetzten Technologien finde ich sehr interessant – nicht zuletzt mit Blick auf die Zeitspanne, die überblickt wird:

      Abb. 1: Lern-Technologien, die sich kontinuierlicher Popularität erfreuen (Quelle: MTfB 2023, S. 21)
      Abb. 2: Technologien, die sich zunehmender Popularität erfreuen (oben) und Technologien, die (bisher) keine weite Verbreitung gefunden haben (unten) (Quelle: MTfB 2023, S. 22)

      Entwicklungsformate: Präsenz – Blended – Online

      Da im Zusammenhang mit neuen (Lern-)Technologien immer wieder von “Revolution” und “radikalen Umbrüchen” die Rede ist, finde ich es hilfreich, wenn Veränderungen über längere Zeitreihen aufgezeigt werden können. Etwa dazu, wie sich der Anteil von Präsenzlernen gegenüber Online-Lernen verändert:

      Abb. 3: Anteile von Online- / Blended- / Präsenzlernen 2016-2023 (Quelle: MTfB 2023, S. 24)

      Kompetenzen der internen L&D-Teams

      Sehr interessant fand ich auch die nachfolgende Darstellung zu den verschiedenen Kompetenzen, über die L&D-Teams inhouse verfügen. Dabei werden verschiedene Reifegrade von L&D-Teams unterschieden (“Stage 1” etc.):

      Abb. 4: Ausprägung von Kompetenzen in L&D-Teams (Quelle: MTfB 2023, S. 25)

      Fazit: Technologien als Herausforderungen

      Die Autor:innen bilanzieren am Ende des Berichts unter anderem, dass es für Bildungsverantwortliche und ihre Organisationen eine grosse Herausforderung darstellt, neue Technologien zu verstehen, deren Potenzial für Bildung und Entwicklung einzuschätzen und dieses Potenzial dann auch zu heben:

      the biggest challenge and opportunity for L&D over the last 20 years has been related to technology. The data shows that organizations have been slow to keep up with rapid advances (…) It seems that many organizations haven’t had the capabilities in place to support the evolving learner – one who now cares more about being able to access resources at the point of need and not in a formal, classroom setting. These organizations have grappled since the beginning of this study with stakeholders who are reluctant to adapt to new ways of doing things. Part of the difficulty for organizations is that they don’t fully understand the potential of some technologies for learning such as social media
      MindTools for Business, Annual Benchmarking Report 2023, S. 34

      Ein Fazit, das mir auch mit Blick auf die Entwicklungen im Bereich generative KI zutreffend zu sein scheint.

      Filed Under: Fundstücke Tagged With: Bildungsmanagement, Lerntechnologien

      Generative KI und Folgen für Berufsarbeit & Berufsbildung

      24. September 2023 by Christoph Meier 2 Comments

      Unsere Arbeits- und Lernwelten verändern sich und die Zusammenarbeit mit “smarten Maschinen” (Assistenzsystemen auf Basis von generativer KI) wird zum “neuen Normal”. Damit wir dabei erfolgreich sind, benötigen wir mehr Wissen und Kompetenzen zu diesen Assistenzsystemen. Und dies wiederum erfordert Veränderungen bei Bildungsinstitutionen und Bildungsverantwortlichen.


      Die Veranstaltung “Fokus Berufsbildung” ist ein innovativer Fachkongress für die Schweizer Berufsbildung, organisiert vom Kaufmännischen Verband, yousty und EB Zürich. Für die diesjährige dritte Durchführung war ich eingeladen, einen Beitrag einzubringen. Das Rahmenthema lautete “Vom ‘Oh no!’ zum ‘Aha!’ – Positiv gelebte Fehlerkultur in der Berufsbildung.” Mein Beitrag stand unter dem Titel “Wird die Zukunft fehlerfrei? Wie KI Berufsarbeit und Berufsbildung verändert” angekündigt.

      Um die Leitfrage zu beantworten, habe ich etwas ausgeholt und folgende Punkte beleuchtet:

      • Unsere Arbeitswelt verändert sich (New Work und generative KI).
      • Die Zusammenarbeit mit “smarten Maschinen” (Assistenzsystemen auf Basis von generativer KI) wird zum “neuen Normal”.
      • Damit wir dabei erfolgreich sind, benötigen wir relevantes Wissen und Kompetenzen.
      • Diese Entwicklungen haben Folgen für Bildungsinstitutionen ebenso wie für Bildungsverantwortliche und erfordern Anpassungen.
      Abb. 1: Übersicht über die Themen des Beitrags

      Hier thesenartig die Kernpunkte meines Beitrags:

      • Generative KI und ‘smart assistants’ sind eine Facette von ‘New Work’. Mit Blick auf diese Veränderungen ist auch die Rede von ‘Human-robot Collaboration’ und von “Industrie 5.0”.
      • Studien zeigen, dass bereits viele Menschen Werkzeuge wir ChatGPT / GPT-4 in der täglichen Berufsarbeit einsetzen – allerdings wird oft nicht darüber gesprochen, weil die Menschen unsicher sind, ob das in Ordnung / erlaubt ist.
      • Es ist abzusehen, dass wir künftig noch intensiver mit Assistenzsystemen auf der Grundlage von generativer KI arbeiten werden (Stichwort Microsoft 365 Copilot).
      • Damit diese Zusammenarbeit mit ‘smarten’ Assistenzsystemen erfolgreich und zielführend ist, müssen einige Voraussetzungen gegeben sein. Insbesondere braucht es:
        • Transformations-Kompetenz (mehr dazu in diesem Dokument der OECD);
        • Wissen zu Funktionsweisen, Besonderheiten & Limitationen von LLMs & GPTs;
        • Expertise in der Gestaltung des Kooperationsprozesses mit ‘smarten’ Assistenzsystemen und
        • Sensibilität für damit verbundene ethische Herausforderungen und Fragen der Sicherheit / des Datenschutzes.
      • Diese Entwicklungen haben Konsequenzen für Bildungsinstitutionen und Bildungsverantwortliche:
        • ‘Smarte’ Assistenzsysteme auf der Grundlage von generativer KI müssen als integraler Bestandteil von Arbeits- und Lernwelten verstanden werden.
        • Es braucht Offenheit für den daraus resultierenden Veränderungsbedarf.
        • Es braucht Anpassungen beim Leistungsportfolio, insbesondere beim Angebotsportfolio, bei den Lehr-Lernformaten und bei Prüfungen bzw. Kompetenznachweisen.
        • Kompetenzen und Ressourcen müssen aufgebaut werden – sowohl auf der Seite der Bildungsinstitutionen als auch auf der Seite der Bildungsverantwortlichen:
          • KI-Kompetenzen von Lehrenden und Lernenden;
          • Lizenzierung von Produkten / Services im Bereich generative KI;
          • Optimierung von Produkten / Services im Bereich generative KI (beispielsweise für Prüfungs(vor)korrekturen);
          • Integration von Produkten / Services im Bereich generative KI in technische Lernarchitekturen (beispielsweise in Lernplattformen).

      Wird die Zukunft mit Assistenzsystemen fehlerfrei?

      Vor diesem Hintergrund bin ich dann wieder auf die mir gestellte Ausgangsfrage: “Wird die Zukunft fehlerfrei” zurückgekommen.

      Meine Antwort heute lautet: nein, wird sie nicht. Aktuell verfügbare Assistenzsysteme wie ChatGPT / GPT-4 sind nicht dafür optimiert, korrekte Ausgaben zu liefern. Sie sind dafür optimiert, Ausgaben zu liefern, die auf Wahrscheinlichkeiten von Wortfolgen basieren und mit hoher Wahrscheinlichkeit von Menschen gut bewertet würden. Wichtig ist deshalb, dass wir wissen, für welche Aufgaben diese Assistenzsysteme eine geeignete Unterstützung bieten können (vgl. dazu diese aktuelle Studie), dass wir die “Fingerfertigkeit” entwickeln, gut mit diesen Assistenzsystemen zu arbeiten und dass wir selbst die Qualitätsstandards für unsere Arbeit bestimmen und verfolgen.

      Und hier ein Auszug aus den Folien, die ich für meinen Beitrag genutzt habe:

      KI_ArbeitBerufsbildung_EB-Zuerich_2023-09-19_Vs-scil-blog

      Filed Under: Beiträge, Vorträge & Workshops Tagged With: AI / KI, Bildungsmanagement

      Durch die zerklüftete Technikfront navigieren: Nutzungsszenarien für generative KI und Arbeitsergebnisse

      18. September 2023 by Christoph Meier 2 Comments

      Eine Forschungsgruppe (u.a. HBS, MIT, BCG) hat die Lösung anspruchsvoller Aufgaben durch Berater:innen untersucht. Je nach Typ von Aufgabe führte die Arbeit mit oder ohne Unterstützung durch GPT-4 zu besseren Ergebnissen. Ein Fazit: Wir müssen unser Verständnis von generativen KI-Applikationen, deren Leistungsfähigkeit und sinnvollen Nutzungsszenarien kontinuierlich überprüfen bzw. anpassen.


      Vor einigen Monaten hatten bereits Wissenschaftler des MIT über deutlich erhöhte Arbeitsproduktivität bei der Nutzung von ChatGPT für verschiedene Arbeitsaufgaben (Textproduktion) berichtet (vgl. dazu dieser Blogpost). Jetzt hat eine Arbeitsgruppe verschiedener renommierter Hochschulen (u.a. Harvard Business School und MIT Sloan School of Management) sowie des Beratungsunternehmens Boston Consulting Group (BCG) die Ergebnisse weiterführender Untersuchungen publiziert:

      “Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality”.

      Zwei Aspekte der Publikation sind aus meiner Sicht besonders interessant:

      • die Konzeptualisierung der Grenzregion bei den Fähigkeiten von generativen KI-Anwendungen;
      • ausgewählte Ergebnisse der durchgführten empirischen Untersuchung.

      Zerklüfteter Grenzbereich der KI-Fähigkeiten

      Die Autor:innen stellen in ihrem Bericht heraus, dass der Möglichkeitsraum, innerhalb dessen generative KI-Anwendungen leistungsfähig sind und uns sinnvoll unterstützen können, nicht so einfach abzugrenzen ist:

      “Some unexpected tasks (like idea generation) are easy for AIs, while other tasks that seem to be easy for machines to do (like basic math) are challenges for some LLMs. This creates a “jagged Frontier,” where tasks that appear to be of similar difficulty may either be performed better or worse by humans using AI.»
      Dell’Acqua et al. (2023): Navigating the jagged technological frontier. HBS (pp. 3, 17)

      Im Bericht wird dieser Sachverhalt über die nachfolgende Grafik visualisiert:

      Abb. 1: Die zerklüftete Grenze der Fähigkeiten von generativen KI-Anwendungen
      (Bildquelle: Dell’Acqua et al. 2023, S. 27)

      Anlage der empirischen Untersuchung

      Für die empirische Untersuchung im Design eines Feldexperiments wurden hochqualifizierte Wissensarbeiter:innen rekrutiert: gut 750 Berater:innen des Beratungshauses BCG. Die Teilnehmenden sollten eine der beiden folgenden Aufgaben bearbeiten, die für den Arbeitsalltag von Berater:innen typisch sind, die aber unterschiedlich positioniert waren:

      • Entwicklung von neuen Produktideen
        (diese Aufgabe wurde als “innerhalb” des Leistungsvermögens von generativer KI klassifiziert)
        • Hier waren u.a. kreatives sowie analytisches Denken, Überzeugungskraft und schriftliches Ausdrucksvermögen gefordert.
      • Bearbeitung einer Strategie-Fallstudie (Analyse von Distributionskanälen eines Unternehmens und Ableitung von strategischen Empfehlungen)
        (diese Aufgabe wurde als “ausserhalb”(*) des Leistungsvermögens von generativer KI klassifiziert)
        • Hier waren u.a. die Auswertung von Interviews, von quantitativen Daten und überzeugende schriftliche Argumentation gefordert.

      (*) Ich habe in der Publikation keine explizite Aussage dazu gefunden, ob die Berater:innen eine Version von GPT-4 nutzen konnten, die hochgeladene Dateien analysieren kann (GPT-4 Code Interpreter – verfügbar seit Mitte Juli 2023). Ich vermute aber, dass dies nicht der Fall war. Dieser Aspekt verdeutlicht, wie stark die Grenze dessen, welche Aufgaben generative KI unterstützen kann, aktuell im Fluss ist (vgl. auch den Hinweis auf eine der Schlussfolgerungen des Autorenteams am Ende dieses Blogposts).

      Die Bearbeitung dieser Aufgaben erfolgte in drei verschiedenen Bedingungen:

      • Bearbeitung der Aufgaben OHNE Unterstützung durch generative KI (GPT-4);
      • Bearbeitung der Aufgaben MIT Unterstützung durch generative KI (GPT-4);
      • Bearbeitung der Aufgaben MIT Unterstützung durch generative KI (GPT-4) UND zusätzlich einer Arbeitshilfe zu Prompt Engineering.

      Ergebnisqualität – abhängig vom Nutzungsszenario

      Bei der Aufgabenstellung “Entwicklung von neuen Produktideen” (innerhalb des Leistungsvermögens von generativer KI) zeigte sich, dass die qualitativ besten Ergebnisse in der Bedingungen MIT Unterstützung durch generative KI (GPT-4) UND Arbeitshilfe zu Prompt Engineering erzielt wurden (rote Fläche bzw. rote Mittelwertslinie):

      Abb. 2: Auftrag innerhalb des Leistungsvermögens von KI – Leistungsergebnisse in den verschiedenen untersuchten Bedingungen
      (Bildquelle: Dell’Acqua et al. 2023, S. 28)

      Bei der Aufgabenstellung “Analyse von Distributionskanälen und Ableitung von strategischen Empfehlungen” zeigte sich ein anderes Bild. Hier wurden die besten Ergebnisse in der Bedingungen OHNE Unterstützung durch generative KI (GPT-4) erreicht:

      Abb. 3: Auftrag ausserhalb des Leistungsvermögens von KI – Leistungsergebnisse in den verschiedenen untersuchten Bedingungen
      (Bildquelle: Dell’Acqua et al. 2023, S. 33)

      Die Autor:innen interpretieren diesen Befund so, dass bei der Verwendung von generativen KI-Applikationen die Gefahr besteht, sich vorschnell auf die von der KI gelieferten (und u.U. nicht korrekten bzw. nicht sinnvollen) Ergebnisse zu verlassen.

      Die Dinge sind im Fluss…

      Drei Schlussfolgerungen der Autor:innen scheinen mir besonders wichtig:

      (1)
      “Our results show that this generation of LLMs are highly capable of causing significant increases in quality and productivity, or even completely automating some tasks, but the actual tasks that AI can do are surprising and not immediately obvious to individuals or even to producers of LLMs themselves. Because this frontier is expanding and changing, the overall results suggest that AI will have a large impact on work, one which will increase with LLM capabilities, but where the impacts occur will be uneven.” (S. 4)

      (2)
      “We found that the utility of AI can fluctuate over the course of a professional’s workflow, with some tasks falling inside while others fall outside of the frontier.” (S. 17)

      (3)
      “As the boundaries of AI capabilities continue to expand, often exponentially, it becomes incumbent upon human professionals to recalibrate their understanding of the frontier and for organizations to prepare for a new world of work combining humans and AI.” (S. 19)
      Dell’Acqua et al. (2023): Navigating the jagged technological frontier. HBS Working Paper.

      Kurz gesagt: die Dinge sind im Fluss und wir müssen unser Verständnis von generativen KI-Applikationen, deren Leistungsfähigkeit und sinnvollen Nutzungsszenarien kontinuierlich überprüfen bzw. anpassen.


      Dell’Acqua, F., McFowland, E., Mollick, E., & et al. Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality. Harvard Business School Technology & Operations Mgt. Unit Working Paper No. 24-013, 15.09.2023.

      Filed Under: Fundstücke Tagged With: AI / KI

      Lernräume als pädagogische Agenten: 10. scil Trend- & Community Day 2023

      13. September 2023 by Christoph Meier Leave a Comment

      Im Mittelpunkt der Veranstaltung standen verschiedene Typen von Lernräumen (physische, hybride, virtuelle, symbolische bzw. smarte) in verschiedenen Bildungskontexten (Schule, Hochschule, Berufsbildung, betriebliche Weiterbildung). Die (Mitarbeit an) Konzeption und Orchestrierung von Lernräumen und Lernlandschaften ist eine Aufgabe für Bildungsverantwortliche, die häufig nicht systematisch wahrgenommen wird.


      Lernräume als pädagogische Agenten

      Lernräume gelten als architektonische Verkörperungen von Bildungsphilosophien, als “gebaute Pädagogik, als „pädagogische Agenten“. Lernräume eröffnen Möglichkeiten und setzen Beschränkungen. Lernräume sind eine zentrale Ressource, mit der Bildungsverantwortliche arbeiten.

      Die Diskussion um Lernräume und Lernraumkonzepte wird an vielen Stellen geführt – immer wieder auch mit dem Bezug zur Digitalisierung unserer Lebens-, Arbeits- und Lernwelten (dokumentiert z.B. hier von der Bundeszentrale für politische Bildung in Deutschland oder hier im Kontext der Hochschulentwicklung).

      Als im Frühjahr 2022 das SQUARE als jüngstes Gebäude der Universität St.Gallen eröffnet wurde, war für uns bei SCIL klar, dass wir hier eine Veranstaltung zum Thema Lernräume durchführen wollen. Denn SQUARE steht für die Idee einer modernen Universität und die Gesamtheit der curricularen, extracurricularen und informellen Lernformen nicht nur an einer Hochschule, sondern auch in der Gesellschaft. Mehr zu SQUARE findet sich hier.

      Soweit zum Hintergrund für unseren 10. scil Trend- & Community Day, den wir am 07.09.2023 im SQUARE@HSG durchgeführt haben. Dabei waren Teilnehmende und Alumni unserer Weiterbildungsprogramme, Projektpartner und Vertreter:innen verschieden Bildungskontexte – insgesamt gut 60 Personen.

      Orientierende Konzepte

      Wir sind als Verantwortliche für Bildung bzw. Personalentwicklung zwar viel in Lehr-Lernräumen unterwegs. Aber in der Regel verfügen wir nicht über ein entwickeltes begriffliches Instrumentarium, um Fragen der Gestaltung solcher Räume bzw. des Zusammenspiels von Räumen und Bildung / Entwicklungsarbeit systematisch anzugehen. Für den Einstieg in den Tag habe ich deshalb einige orientierende Konzepte eingebracht:

      • Typen von Lehr-Lernräumen (mit Blick auf eine Hochschule);
        • Lehr-Räume,
        • Funktionsräume (z.B. Labore),
        • Räume für informelles Lernen,
        • Verbindungs- / Zwischenräume,
        • Ruheräume,
        • Maker-Spaces / Studios,
        • Galerien & Expo-Bereiche.
      • Gestalteter Raum (englisch “room”, optimiert für spezifische Aufgaben) vs. gestaltbarer Raum (englisch “space”, durch die Beteiligten veränderbar);
      • Raum-Zonen bzw. Raum-Landschaften;
      • “Affordances” von Räumen (angelegte Möglichkeiten bzw. Potenziale), z.B. im Hinblick auf
        • Zugänglichkeit und Optionen für Beteiligung,
        • Schutz vor Ablenkung und Störung,
        • Fokussierung von Wahrnehmung und Interaktionen,
        • Bündelung von Ressourcen wie Möbeln, Flipcharts, Geräten, etc.),
        • innere Differenzierung und Zonen für verschiedene Aktivitäten,
        • Gestaltbarkeit bzw. Veränderbarkeit für verschiedene Beteiligungsformen und Aktivitäten.

      Mit dieser ersten Orientierung sind wir dann in die Fachbeiträge gestartet.

      ChatGPT als pädagogischer Agent – neue Lernräume?

      Portrait Sabine Seufert
      Prof. Dr. Sabine Seufert,
      Institut für Bildungsmanagement und Bildungstechnologien, Universität St.Gallen

      In ihrem Einstiegsbeitrag hat Sabine Seufert das Konzept der Räume aufgegriffen und aufgezeigt, welche kognitiven Räume mit Assistenzsystemen wie z.B. ChatGPT eröffnet werden können:

      • Arbeitsräume,
      • Coaching-Räume,
      • Entedecker-Räume,
      • Daten-Räume und
      • persönliche Lernräume.
      Abb. 1: Die durch Assistenzsysteme wie ChatGPT eröffneten kognitiven Räume

      Zum Abschluss ihres Beitrags zeigte Sabine Seufert zwei Entwicklungspfade (Spuren) für die Überprüfung von Kompetenzen im Bereich Mensch-Maschine-Kollaboration auf:

      • zum einen “Assessment as learning” (Prompts, erzeugte Artefakte und Reflexionen dazu);
      • zum anderen kompetenzbasierte Bewertungen, Simulationen mit digital Twins und Reflexionen dazu.

      Im Anschluss hatten wir einen ersten grösseren Aktivitätswechsel und zwei Optionen: eine erste kurze Erkundung von SQUARE anhand des eingangs vorgeschlagenen Orientierungsrahmens; und eine Poster-Präsentation von Lily Kruse, Studentin im Master-Programm “Begabungsforschung und Kompetenzentwicklung an der Universtität Leipzig zum Thema “Entwicklung von Teamkompetenzen in Virtual Reality”.

      Abb. 2: Die Optionen am Vormittag

      Schmetterlingspädagogik – Schule ohne Unterricht und zugehörige Raumkonzepte

      Stefan Ruppaner ist leitender Rektor der Alemannenschule Wutöschingen. Die Gemeinschaftsschule umfasst die Schulstufen Grundschule, Sekundarstufe I und Sekundarstufe II und wurde 2019 für ihr Bildungskonzept mit dem Deutschen Schulpreis ausgezeichnet. In seinem beeindruckenden Bericht zeigte Stefan Ruppaner, wie eine öffentliche Schule auch funktionieren kann: hochgradig eigenverantwortlich und selbstreguliert, altersdurchmischt und auch stark digitalisiert. Unterstützt wird der Schulbetrieb ohne “Unterricht”, ohne Lehrbücher und ohne Klassenzimmer im herkömmlichen Sinn durch ein ausgeklügeltes Raumkonzept. Der Raum als 3. Pädagoge ist hier Programm und die Schule verfügt über verschiedene, funktionsspezifisch gestaltete Räume: Marktplatz, Lernateliers, Co-Working Spaces, Räume für ruhiges Arbeiten, Coaching-Räume, Meditationsräume, Schulgarten, etc.

      Abb. 3: Beispiele für Räume der Alemannenschule in Wutöschingen
      (Bildquelle: Alemannenschule Wutöschingen)
      Stefan Ruppaner,
      Alemannenschule Wutöschingen

      Virtuelle 3D-Lernräume als Orte gemeinsamen Lernens an Hochschulen

      Prof. Rolf Kruse,
      Fachhochschule Erfurt

      Ausgangspunkt für den Beitrag von Rolf Kruse, Inhaber der Professur für Digitale Medien und Gestaltung an der Fachhochschule Erfurt, waren die Anforderungen an neue Lehr-/Lernszenarien an Hochschulen. Es geht unter anderem darum, weniger zu dozieren, mehr zu moderieren und die Hochschule als Ort der Kooperation und Partizipation zu etablieren.

      XR-Technologien wie AR / MR / VR ermöglichen das Eintauchen in Lerninhalte (z.B. eine Szenerie mit Mammuts), die freie Bewegung (Kopf, Hände, Körper) und die Interaktion mit vergegenständlichten Lerninhalten. Ermöglicht werden dadurch insbesondere die spielerische Erarbeitung von Wissenskomplexen sowie entdeckendes und problembasiertes Lernen.

      Abb. 4: Beispiele für virtuelle 3D-Lernräume
      (Bildquelle: WU Wien / Immersive Learning Lab FH Erfurt)

      Am Ende seines Beitrags ging Rolf Kruse auch auf die Herausforderungen ein, die beim Etablieren von virtuellen 3D-Lernräumen an Bildungseinrichtungen zu überwinden sind. Hier hat er insbesondere die folgenden Punkte hervorgehoben:

      • starre Organisationen und begrenzte Ressourcen,
      • begrenzte Kompetenzen im Hinblick auf die Gestaltung von Räumen und digitalen Medien,
      • unausgereifte Werkzeuge und schliesslich
      • fehlende positive Beispiele.

      Und er verwies für Interessierte auf diese Folgeveranstaltung des uniVERSEty-Netzwerks im November.

      Development of innovative Learning Spaces at NTNU

      Mit dem Beitrag von Aina Nedal von der Technisch-Naturwissenschaftlichen Universität Norwegen (NTNU) in Trondheim blieben wir im Bildungskontext Hochschule. Aina Nedal berichtete über ein strategisch ausgerichtetes Vorhaben der NTNU mit dem Ziel, eine innovativere, variablere und stärker aktivierende und auf Exploration ausgerichtete Lehrpraxis an der Hochschule zu etablieren.

      Die Umsetzung dieser Initiative erfolgte als interdisziplinäres Projekt unter Beteiligung von verschiedenen Bereichen und Expert:innengruppen:

      • Liegenschaften bzw. Immobilien,
      • Raumplanung bzw. Administration,
      • Bibliothek,
      • Hochschuldidaktik,
      • Lehr-Lern-Unterstützung,
      • AV- & IT-Services,
      • Fakultät.

      Die nachfolgenden Bilder zeigen einige der neu gestalteten Lehr- und Lernräume:

      Abb. 5: Beispiele für neu gestaltete Lernräume an der NTNU (Bildquelle: NTNU)

      Die Programmevaluation ergab, dass die “active learning spaces” sehr stark nachgefragt werden und dass die Lehrpersonen stärker auf aktivierende Lehrformen setzen. Eine wichtige Lernerfahrung war unter anderem, dass die Fähigung der Lehrpersonen, mit diesen neuen Räumen sicher und produktiv zu arbeiten, früher und stärker hätte gefördert werden sollen.

      Aina Nedal, Ph.D.,
      Norwegian University of Science and Technology (NTNU)

      Hybride Lernräume in der Führungsentwicklung

      Ambros Scope, Ph.D.,
      Zürich Versicherungen

      Mit dem Beitrag von Ambros Scope, Head Leadership & Future of Work bei Zürich Versicherungen, wechselten wir in den Bildungskontext betriebliche Weiterbildung. “Zukunft gestalten mit hybriden Lernräumen in der Führungskräfte-Entwicklung” – das war sein Thema.

      Die Konzeption und Umsetzung eines Trainingsraums für hybride Präsenztrainings (“Hybrid Training Room”) steht im Kontext der HR-Strategie bzw. der ‘Employee Promise” von Zürich Versicherungen. Zu den Erfolgsfaktoren gehören u.a. die folgenden Punkte:

      • Unterstützen von Diversität und Inklusion,
      • Ermöglichen von FlexWork und hybridem Arbeiten,
      • Wahrnehmung von Technologie als Ermöglicher,
      • Modernisierte Trainingsangebote,
      • Online Trainingsangebote.

      Das (teilweise) Arbeiten aus dem Home-Office heraus und das Arbeiten mit verteilten Teams wird auch künftig Teil der Rahmenbedingungen für Führungskräfte sein. Das hybride Arbeiten wird im Hybrid Learning Ansatz der Zurich Schweiz daher umfassend berücksichtigt und durch folgende Punkte vorgelebt:

      1. Inhalte – z.B. Führen von hybriden Teams;
      2. Didaktisches Vorgehen – Mehrwöchige hybride Lernreisen mit asynchronen Web Based Trainings, synchroner Interaktion in der Grossgruppe, Vertiefung in Kleingruppen und individuellem Coaching in der Anwendung;
      3. Infrastruktur – Für jeden Bedarf optimal eingerichtete Trainingsräume.

      Leitendes Prinzip der Umsetzung des hybriden Trainingsraums war die Orientierung an einem Human Centered Design. Eine konkrete Ausprägung war die bestmögliche Integration der von andernorts Teilnehmenden in die Gesamtgruppe im Sinne von Teilhabe und Beteiligungsmöglichkeiten. Das konsequente Verfolgen des Hybrid Learning Ansatz führt dazu, dass Zurich Schweiz pro Jahr alle Führungskräfte und einen grossen Teil der Belegschaft mehrmals in ihren internen Trainings erreichen kann.

      Die nachfolgende Abbildung zeigt den resultierenden Trainingsraum schematisch und aus der Perspektive eines Trainers bzw. einer Trainerin:

      Abb. 6: Raum für hybride Präsenztrainings
      (Bildquelle: Scope / Zürich Versicherungen)

      Lernen in kollaborativen virtuellen Räumen

      Der nächste Beitrag brachte uns in den Bildungskontext Berufsbildung. Die Umsetzung von Virtual Reality in der beruflichen Bildung im Fachbereich Einzelhandel ist ein Gemeinschaftsvorhaben der Erich-Bracher-Schule in Kornwestheim, der Würth Industrie Service und des Lehrstuhls Wirtschaftspädagogik II der Universität Konstanz (Begleitforschung).

      Im Lernfeld “Waren präsentieren” für Einzelhandelskaufleute geht es u.a. um Folgendes:

      “Die Schülerinnen und Schüler platzieren und präsentieren Waren kundengerecht, verkaufswirksam und betriebswirtschaftlich sinnvoll.”
      Bildungsplan Einzelhandelskaufleute

      In der Vergangenheit wurden entsprechende Aufträge von den Auszubildenden über Skizzen auf Papier umgesetzt. Seit dem Schuljahr 2021/22 können Schüler:innen der EBS hierfür einen virtuellen Supermarkt nutzen, in dem sie sich mit VR-Brillen bewegen und agieren.

      Die Einbettung der Arbeitsphasen in der VR-Umgebung erfolgt auf der Grundlage des Modells der vollständigen Handlung. Die Phasen 4-6 (Ausführen, Kontrollieren und Bewerten) erfolgen im virtuellen Raum (vgl. Abb. 7).

      Abb. 7: Virtueller Supermarkt (vor der Bestückung); didaktisches Leitprinzip vollständige Handlung und Einbindung von VR; ein Ergebnis der Begleitforschung
      (Bildquelle: EBS / Würth / Uni-Konstanz)

      Im Rahmen der Begleitforschung durch die Universität Konstanz wurden von März bis Juli 2022 die Lern- und Arbeitsergebnisse von jeweils zwei Klassen in den Berufen Einzelhandelskaufmann/frau bzw. Verkäufer:innen mit Kontrollklassen verglichen (Pretest, unterrichtsbegleitende Befragung, Posttest). Dabei zeigte sich, dass die Lernenden in der Bedingung “VR-Training” nicht nur eine signifikant stärkere kognitive Aktivierung aufwiesen, sondern auch signifikant bessere Ergebnisse im Fachtest erzielten (vgl. Abb. 7).

      Jannik Ehret & Sven Kaufmann, EBS Kornwestheim;
      Christopher Groene,
      Würth Industy Services;
      David Kablitz & Dr. Matthias Conrad,
      Universität Konstanz

      Bühler Energy Center – Auftanken & Lernen

      Andreas Bischof,
      Bühler

      Mit dem letzten Fachbeitrag des Tages blieben wir nahe am Bildungskontext Berufsbildung, schauten aber auch darüber hinaus. Andreas Bischof, Leiter Berufsbildung bei Bühler AG in Uzwil, stellte das vor wenigen Wochen eröffnete Bühler Energy Center vor.

      Das Bühler Energy Center ist ein Raum zum Auftanken und Lernen – persönlich wie auch beruflich. Das im Juni 2023 eröffnete moderne Gebäude befindet sich an der Schnittstelle der Application & Training Center, des CUBIC Innovation Campus sowie der Produktion von Bühler. Es führt Aktivitäten im Zusammenhang mit Health & Lifestyle (u.a. Ernährungsberatung und Arztpraxis / Health Port), lebenslangem Lernen (inkl. Berufsbildung) sowie Prototyping & Produktion unter einem Dach zusammen.

      Abb. 8: Impressionen aus dem Bühler Energy Center
      (Bildquelle: Bühler)

      Ganz im Sinne des Leitbilds für Lernen und Entwicklung (u.a. selbstbestimmt im Hinblick auf Zeit, Inhalt und Ort) sind sehr unterschiedliche Lernräume Teil des Bühler Energy Centers.

      Die Haltung der Verantwortlichen bei Bühler brachte Andreas Bischof abschliessend mit einem Verweis auf Pipi Langstrumpf auf den Punkt: “We have never tried that before, so I am sure it will be fine!”

      Mitarbeit an Konzeption und Orchestrierung als Aufgabe für Bildungsverantwortliche

      Die Konzeption und Gestaltung von Lernräumen bzw. räumlichen Lernlandschaften wird häufig nicht als Aufgabe für Bildungsverantwortliche gesehen. Gleichzeitig sind sie aber gefordert, mit dem verfügbaren “Raum-Material” die jeweiligen Bildungs- bzw. Entwicklungsziele zu verfolgen und zu erreichen. Mit dem SCIL Trend- & Community Day 2023 haben wir aufgezeigt, dass Konzeption und Orchestrierung von Lernräumen / physischen Lernlandschaften (bzw. die Mitarbeit an entsprechenden Projekten) sehr wohl eine relevante Aufgabe für Bildungsverantwortliche darstellt. Die Einbindung der Bildungsverantwortlichen und ihren spezifischen Kompetenzen ist ein wichtiger Erfolgsfaktor für die an diesem Tag vorgestellten Projekte.


      Ausblick: 11. Trend- & Community Day 2024

      Der 11. SCIL Trend- & Community Day findet am 20. September 2024 statt. Dann werden wir wieder im Weiterbildungszentrum Holzweid der Universtität St.Gallen zu Gast sein. Das Rahmenthema haben wir noch nicht definiert – wir werden dazu informieren.

      Filed Under: Beiträge Tagged With: Bildungsmanagement, Lernräume

      • Go to page 1
      • Go to page 2
      • Go to page 3
      • Go to page 4
      • Go to Next Page »

      Primary Sidebar

      Lizenz Blogbeiträge

      Creative Commons Lizenzvertrag
      Unsere Blogbeiträge sind lizenziert unter einer Creative Commons Namensnennung - Weitergabe unter gleichen Bedingungen 4.0 International Lizenz.

      Tag Cloud

      70:20:10 adaptive Lernumgebungen AI / KI Analytics (Teaching~ / Learning~) Augmentation Berufsbildung Bildungsmanagement Blended Learning Change Management Coaching Digitale Arbeitswelt Digitale Bildung Digitale Kompetenzen Digitale Transformation Digitalisierung E-Learning / TEL Entwicklungsförderliche Führung Evaluation Führungskräfteentwicklung Hochschulbildung Hochschullehre Informelle Lernformen Kompetenz- & Skills-Management Kompetenzmodell Kuratieren Learning Design Learning Professionals Lern- / Trainingsmethoden Lernende Organisation Lernen in / mit VR, AR, XR Lernkultur Lernmedien Lernplattform Lernräume mobile learning MOOC Professionelle Kompetenzentwicklung Ro/Bots for learning Social Media Strategieentwicklung und Portfolio-Management Trends Trendstudie Video-basiertes Lernen Wertbeitrag / Learning Value Management Zukunftsorientierte Kompetenzentwicklung

      Neueste Beiträge

      • SCIL-Blog ist umgezogen
      • Studie “GenKI in L&D / PE” – Ergebnisse und Handlungsfelder
      • AI in L&D – Arbeitsberichte Taylor & Vinauskaite
      • Generative KI in der Bildung – Beitrag für BeLEARN / dip
      • Selbstorganisiertes Lernen mit CustomGPTs fördern, Teil 2

      Neueste Kommentare

      • Christoph Meier bei Selbstorganisiertes Lernen mit CustomGPTs fördern, Teil 1
      • Michael Wechner bei Selbstorganisiertes Lernen mit CustomGPTs fördern, Teil 1
      • Sven Hallwirth bei Selbstorganisiertes Lernen mit CustomGPTs fördern, Teil 1
      • KI-Tools 3.0: NotebookLM® – MatthiasHeil.de bei Vom Blogpost zum ‘Talk radio’ mit NotebookLM
      • GenKI und Produktivität von Lehrpersonen | digithek blog bei GenKI und Produktivität von Bildungsverantwortlichen / Lehrpersonen

      Archive

      • 2025
        • Dezember 2025
        • November 2025
        • Oktober 2025
        • September 2025
        • August 2025
        • Juli 2025
        • Juni 2025
        • Mai 2025
        • März 2025
        • April 2025
        • Februar 2025
        • Januar 2025
      • 2024
        • Dezember 2024
        • November 2024
        • Oktober 2024
        • September 2024
        • August 2024
        • Juli 2024
        • Juni 2024
        • Mai 2024
        • März 2024
        • April 2024
        • Februar 2024
        • Januar 2024
      • 2023
        • Dezember 2023
        • November 2023
        • Oktober 2023
        • September 2023
        • August 2023
        • Juli 2023
        • Juni 2023
        • Mai 2023
        • März 2023
        • April 2023
        • Februar 2023
        • Januar 2023
      • 2022
        • Dezember 2022
        • November 2022
        • Oktober 2022
        • September 2022
        • August 2022
        • Juli 2022
        • Juni 2022
        • Mai 2022
        • März 2022
        • April 2022
        • Februar 2022
        • Januar 2022
      • 2021
        • Dezember 2021
        • November 2021
        • Oktober 2021
        • September 2021
        • August 2021
        • Juli 2021
        • Juni 2021
        • Mai 2021
        • März 2021
        • April 2021
        • Februar 2021
        • Januar 2021
      • 2020
        • Dezember 2020
        • November 2020
        • Oktober 2020
        • September 2020
        • August 2020
        • Juli 2020
        • Juni 2020
        • Mai 2020
        • März 2020
        • April 2020
        • Februar 2020
        • Januar 2020
      • 2019
        • Dezember 2019
        • November 2019
        • Oktober 2019
        • September 2019
        • August 2019
        • Juli 2019
        • Juni 2019
        • Mai 2019
        • März 2019
        • April 2019
        • Februar 2019
        • Januar 2019
      • 2018
        • Dezember 2018
        • November 2018
        • Oktober 2018
        • September 2018
        • August 2018
        • Juli 2018
        • Juni 2018
        • Mai 2018
        • März 2018
        • April 2018
        • Februar 2018
        • Januar 2018
      • 2017
        • Dezember 2017
        • November 2017
        • Oktober 2017
        • September 2017
        • August 2017
        • Juli 2017
        • Juni 2017
        • Mai 2017
        • März 2017
        • April 2017
        • Februar 2017
        • Januar 2017
      • 2016
        • Dezember 2016
        • November 2016
        • Oktober 2016
        • September 2016
        • August 2016
        • Juli 2016
        • Juni 2016
        • Mai 2016
        • März 2016
        • April 2016
        • Februar 2016
        • Januar 2016
      • 2015
        • Dezember 2015
        • November 2015
        • Oktober 2015
        • September 2015
        • August 2015
        • Juli 2015
        • Juni 2015
        • Mai 2015
        • März 2015
        • April 2015
        • Februar 2015
        • Januar 2015
      • 2014
        • Dezember 2014
        • November 2014
        • Oktober 2014
        • September 2014
        • August 2014
        • Juli 2014
        • Juni 2014
        • Mai 2014
        • März 2014
        • April 2014
        • Februar 2014
        • Januar 2014
      • 2013
        • Dezember 2013
        • November 2013
        • Oktober 2013
        • September 2013
        • August 2013
        • Juli 2013
        • Juni 2013
        • Mai 2013
        • März 2013
        • April 2013
        • Februar 2013
        • Januar 2013
      • 2012
        • Dezember 2012
        • November 2012
        • Oktober 2012
        • September 2012
        • August 2012
        • Juli 2012
        • Juni 2012
        • Mai 2012
        • März 2012
        • April 2012
        • Februar 2012
        • Januar 2012

      Kategorien

      • Allgemein
      • Aufträge, Projekte & Studien
      • Beiträge
      • Fundstücke
      • Publications
      • Stichworte
      • Vertiefung
      • Vorträge & Workshops

      Meta

      • Anmelden
      • Feed der Einträge
      • Kommentar-Feed
      • WordPress.org
      Suche

       

      Social Media

      SCIL

      Universität St.Gallen

      Gehe direkt zu

      IBB-HSG
      SCIL Newsletter
      Login

      Kontakt

      swiss competence centre for innovations in learning (SCIL)
      Universität St.Gallen (HSG)
      St. Jakob-Strasse 21
      9000 St. Gallen

      +41712243155

      scil-info@unisg.ch

      Location

       

      From insight to impact.

       

      Akkreditierung


      Mitglied von


      Copyright © 2025 Universität St.Gallen, Schweiz

      • Kontakt
      • Datenschutz
      • Cookie-Richtlinie (EU)
      Cookie-Zustimmung verwalten
      Um Ihnen ein optimales Erlebnis zu bieten, verwenden wir Technologien wie Cookies, um Geräteinformationen zu speichern bzw. darauf zuzugreifen. Wenn Sie diesen Technologien zustimmen, können wir Daten wie das Surfverhalten oder eindeutige IDs auf dieser Website verarbeiten. Wenn Sie Ihre Zustimmung nicht erteilen oder zurückziehen, können bestimmte Merkmale und Funktionen beeinträchtigt werden.
      Funktional Immer aktiv
      Der Zugriff oder die technische Speicherung ist unbedingt für den rechtmäßigen Zweck erforderlich, um die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Abonnenten oder Nutzer ausdrücklich angefordert wurde, oder für den alleinigen Zweck der Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz.
      Vorlieben
      Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Voreinstellungen erforderlich, die nicht vom Abonnenten oder Nutzer beantragt wurden.
      Statistiken
      Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt. Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Aufforderung, die freiwillige Zustimmung Ihres Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht zu Ihrer Identifizierung verwendet werden.
      Marketing
      Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.
      Optionen verwalten Dienste verwalten Verwalten Sie {vendor_count} Lieferanten Lesen Sie mehr über diese Zwecke
      Voreinstellungen anzeigen
      {title} {title} {title}