• Skip to primary navigation
  • Skip to main content
  • Skip to primary sidebar
SCIL

SCIL

swiss competence center for innovations in learning

  • Aktuelles: SCIL Blog
  • Kompetenzzentrum SCIL
  • SCIL Module
  • Mein Konto
    • Search
    • Social Media, Newsletter
Home2023Archives for November 2023

Archives for November 2023

Generative KI und Folgen für Berufsarbeit verstehen

20. November 2023 by Christoph Meier Leave a Comment

ChatGPT & Co sind auf dem Weg, zu ständig verfügbaren persönlichen Assistenzsystemen zu werden – sowohl im Arbeitsleben als auch darüber hinaus. Eine erfolgreiche Zusammenarbeit mit diesen Assistenzsystemen ist an Voraussetzungen gebunden. So müssen wir wissen, wie diese Systeme funktionieren, damit wir einschätzen können, wie wir sie für welche Aufgaben einsetzen können.


Für meine eigenen Bemühungen, diese Entwicklungen zu verstehen und die Folgen einschätzen zu können, habe ich in den letzten Monaten viele Ressourcen angeschaut – Blogposts, Kurzvideos, Studienberichte, etc. Drei Quellen, die ich besonders hilfreich finde, sind die folgenden:

  • Stephen Wolframs Blogpost “What is ChatGPT Doing … and Why Does it Work?”
    Stephen Wolfram ist Physiker, Informatiker und Mathematiker und hat unter anderem die Software Mathematica sowie die Suchmaschine Wolfram Alpha entwickelt. Sein ausführlicher Blogpost ist mittlerweile auch als Buch verfügbar. Sein Zugang ist sehr technisch und er erläutert sehr detailliert die Funktionsweisen von LLMs bzw. GPTs wie ChatGPT. Vieles davon verstehe ich nicht, manches, insbesondere manche Abbildungen, finde ich für mich hilfreich.
  • Die Unternehmensberatung McKinsey hat das Thema Generative KI im letzten Jahr in verschiedenen eigenen Untersuchungen und Berichten aufgegriffen. Dabei sind immer auch die Folgen für die Arbeits- und Geschäftswelt im Blick. Ein Jahr nach der Veröffentlichung von ChatGPT hat McKinsey Mitte November 2023 eine Sammlung von Artikeln zu generativer KI zusammengestellt: “12 must-reads for 12 months of gen AI breakthroughs”. Dabei sind sowohl Artikel, die die Technologie erläutern, als auch Artikel mit Ergebnissen aus Befragungen und Visualisierungen dazu. Für mich eine wichtige Quelle.
  • Für die Forschungsförderung der gewerkschaftsnahen Hans Böckler-Stifung hat der Kulturwissenschaftler Michael Seemann eine Literaturstudie zu KI und LLMs erstellt, in der er ChatGPT erläutert und Folgen für die Arbeitswelt skizziert: “Künstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft”. Diese Studie ist sehr gut lesbar und bietet aus meiner Sicht eine gute Einführung in das Thema.
Abb.1: Drei Quellen zu generativer KI und ChatGPT

In diesem Post stelle ich für mich verschiedene Aussagen der Studie von Seemann zusammen. Es geht mir dabei nicht um Vollständigkeit, sondern um ein Festhalten von Punkten, die ich nicht aus dem Blick verlieren möchte.

In der Einleitung schreibt Seemann unter anderem:

Die Science Fiction, aber auch unsere kollektive Zukunftserwartung hatte viele Szenarien zu künstlicher Intelligenz auf dem Zettel. Aber dass KI aus-gerechnet im Kreativbereich so früh, so enorme Fortschritte machen würde, stand nicht auf der Liste. (…) Diese Zukunft ist nun aber da und bringt (…) unsere Vorstellungen von Arbeit durcheinander. Es ist gar nicht so lange her, dass sich Journalistinnen um die Zukunft der Kraftwagenfahrerinnen sorgten (…). Nun müssen sie um ihre eigenen Stellen bangen (…), während Kraftwagenfahrer*innen händeringend gesucht werden (…)
Seemann 2023, S. 6

Kernpunkte

Seemann stellt seinem Bericht die folgenden Punkte als Zusammenfassung voran (Zitat):

  • Large Language Models (LLMs) sind eine bahnbrechende, neue Technologie. Obwohl LLMs nur versuchen das jeweils nächste Wort eines Textes statistisch vorherzusagen, erlangen sie dadurch die Fähigkeit auf komplexe Konversationen zu reagieren, Anweisungen auszuführen, Denkaufgaben zu lösen und gut lesbare Texte zu schreiben. Noch sind sie für viele Zwecke ungeeignet und produzieren immer wieder Fehler, aber von einer rasanten Weiterentwicklung ist auszugehen.
  • Die Frage, ob und was LLMs von dem, was sie ausgeben, „verstehen“ ist fachlich umstritten und leidet an unzureichenden Metriken und nicht gesicherten Indikatoren. (…)
  • Studien über Arbeitsplatzverlust und Produktivitätsgewinne durch LLMs sind in der Frühphase und leiden an bereits oft kritisierten methodischen Mängeln und sollten trotz ihrer Empirie als weitgehend spekulativ angesehen werden. Gewinnbringender scheint, über Strukturveränderungen (…) nachzudenken (…)
  • Der Einzug von LLMs in die Unternehmen wird die Machtverhältnisse in der Wirtschaft neu sortieren. (…)
  • Der Einzug von LLMs in die Arbeitswelt wird auf zwei Wegen stattfinden: einerseits werden LLMs vom Management an verschiedenen Stellen zur Kostenreduktion eingesetzt werden. Zum anderen werden Mitarbeiter*innen bei ihrer täglichen Arbeit von sich aus auf LLMs – im Zweifel heimlich – zurückgreifen.
  • Der Einsatz von LLMs wird unterschiedliche Berufe auf drei verschiedene Arten treffen: Manche Berufe werden verschwinden, oder zumindest existenziell bedroht sein (Disruption). Andere Berufe werden durch LLMs nur im Randbereich tangiert (Integration). Einige Berufe werden nicht verschwinden, aber sich komplett neu erfinden müssen (Transformation).
Seemann (2023): Künstliche Intelligenz… , S. 5.

Erläuterungen zu Begriffen und Modellen

Auf Begriffserläuterungen zu KI (Künstliche Intelligenz), NLP (Natural Language Processing), KNN (Künstliche Neuronale Netze, LLM (Large Language Models), GPT (Generative Pretrained Transformers), Tokens, Parameter und Kontext-Fenster folgen ein kurzer Abriss zur KI-Forschung sowie Erläuterungen zum Trainings-Prozess von LLMs und zu Transformer-Modellen.

Zu LLMs:

Am Ende dieses langen Prozesses [des Trainings eines Sprachmodells, CM] ist in den Embeddings [Vektoren, CM] die Komplexität von sprachlichen Äußerungen nicht nur auf Wort- oder Satzebene, sondern auch auf Konzept- und Ideen-Ebene gespeichert. Es entwickelt sich eine 1000-dimensionale Landkarte (bei GPT-3.5 sind es 12.288 Dimensionen) der Sprache. In dieser Landkarte ist hinterlegt, wie sich „Rot“ zu „Vorhang“ verhält, „Liebe“ zu „Haus“ und „Zitronensäurezyklus“ (…) semantisch ähnliche Wörter [liegen] nahe beieinander und semantisch unähnliche sind weiter entfernt.
Seemann 2023, S. 17-18

Zu Transformer-Modellen:

„Der technologische Durchbruch, der die aktuell erfolgreichen generative KIs wie ChatGPT, aber auch Bildgeneratoren wie Midjourney (…) ermöglicht hat, wurde 2017 durch (…) Transformer-Modelle ermöglicht. Das ist eine Architektur für KNN [künstliche neuronale Netze, CM] , die jeder versteckten Ebene („Feed-Forward-Ebene“) eine sogenannte Aufmerksamkeits-Ebene zur Seite stellt (…). Die Aufmerksamkeits-Ebene assistiert der versteckten Ebene, indem sie den jeweiligen Kontext des zu bearbeitenden Tokens nach Relevanz sortiert und entsprechend gewichtet. Für jeden Token im Kontext-Fenster wird die Relevanz jedes anderen Tokens berechnet und diese in seinen Embeddings vermerkt.“ (S. 19)
Seemann 2023, S. 19

Fähigkeiten von LLMs – zielgerichtet trainiert und emergent:

Die unstrittigen Fähigkeiten und Unzulänglichkeiten machen den Umgang mit LLMs zu einer nicht trivialen Navigationsaufgabe. Bevor man diese Systeme in irgendeinem Bereich zum Einsatz bringt, empfiehlt es sich nicht nur dringend, die Systeme und ihre Funktionsweise genau zu studieren, sondern auch, sich praktisch mit ihnen vertraut zu machen. Erst mit der Zeit entwickelt man ein Gespür dafür, was ein bestimmtes Modell leisten kann, wo seine Grenzen liegen und wo man sehr aufpassen muss, nicht auf den oft sehr selbstbewussten Ton des LLM hereinzufallen.
(…)
In verschiedenen Versuchsreihen beim Testen von LLMs fiel den Google-Forscherinnen auf, dass sich das Verhalten des Modells ab einer bestimmten Parameteranzahl sprunghaft änderte. So konnte das bestreffende Modell auf einmal sogenanntes „few-shot prompting“ (…) „Step-by-step reasoning“ (…) tauchte plötzlich einfach so auf, ohne, dass dem LLM diese Fähigkeit explizit beigebracht wurde. (…) Auch (…) das Kontextverständnis von Wörtern in Sätzen, arithmetische Aufgaben zu lösen oder sich in virtuellen Räumen zurechtfinden werden als emergente Fähigkeiten genannt. Alle diese Eigenschaften traten modell-übergreifend im Bereich zwischen 10^22 und 10^24 Parametern auf. Die Modelle scheinen den Forscherinnen zufolge ab dieser Größe eine Art Kipppunkt erreicht zu haben, der es ihnen ermöglicht, auf einer höheren Komplexitätsstufe Lösungen für Aufgaben zu finden.
Seemann 2023, S. 29 und 31

Stochastische Papageien oder mehr?

Im Kontext der Diskussion um LLMs und GPTs wird immer wieder angeführt, sie würden Verständnis von Inhalten lediglich simulieren, da sie ja nur – basierend auf Wahrscheinlichkeitsrechnungen – nächste Tokens produzieren. In diesem Zusammenhang findet sich immer wieder auch die Charakterisierung dieser Modelle als “stochastische Papageien”. Und damit wird (bewusst oder unbewusst) unterstellt, dass man LLMs und GPTs und die darauf basierenden Anwendungen nicht ernst nehmen muss. Seemann stellt diese Sicht in Frage. Dafür zieht er (konkurrierende) sprachphilosophische Positionen heran.

Position 1

„Ohne tatsächlichen Zugang zur Welt kann ein hinreichend intelligentes System zwar Verständnis simulieren, aber wenn es darauf ankommt, zeigt sich doch, dass es zum echten Verständnis mehr als nur Mustererkennung in sprachlichen Äußerungen braucht. Es braucht den Rückverweis auf die Welt, auf die Dinge, auf die Realität.“
Seeemann 2023, S. 36

Position 2 (französische Sprachphilosophie – u.a. Barthes, Foucault, Derrida)

Worte gewinnen ihre Bedeutung nicht durch die Beziehung zur Welt, sondern durch ihre Beziehung zu anderen Worten. Dementsprechend gibt es auch keine Bedeutung im eigentlichen Sinne, kein „transzendentales Signifikat“, sondern Bedeutung ist nur ein Effekt der Zeichen und ihrer ständigen Weiterverweisung. (S. 37)
(…)
Man muss der Philosophie Derridas nicht in jeder Einzelheit folgen, um zu sehen, wie relevant diese Gedanken für das Verständnis der Funktionsweise von LLMs sind. Das Eingebundensein jedes Begriffes in ein System und das Spiel von Differenzen beschreibt den aus vieldimensionalen Embedding-Vektoren gebildeten latenten Raum von LLMs sehr treffend. Der ständige Aufschub von Bedeutung durch die Aktualisierung gegenwärtiger Sprachverwendung, lässt sich gut auf den Vorgang der Next-Word-Vorhersage anwenden. (S. 39)
(…)
Derridas Konzept von der Sprache bedeutet nicht, dass die Welt außerhalb der Sprache für das Denken irrelevant ist. Nur ist uns Menschen diese physische Welt immer nur symbolisch vermittelt zugänglich, also selbst wiederum als Text. Nach Derrida könnte man nun folgern, dass die Maschine tatsächlich nichts versteht von dem, was sie spricht. Damit hätte man seinerseits das Problem aber auch nur verschoben, denn dasselbe würde Derrida über uns Menschen sagen. Ihm ist „Verstehen“ ein per se suspektes Konzept. (…) Vermutlich brauchen wir für die Andersheit des „Verständnisses“, das LLMs zeigen, neue Begriffe. Wir müssten die überkommenen Semantiken menschlichen Verständnisses aufschnüren und ausdifferenzieren. Hannes Bajohr hat z. B. vorgeschlagen, die Bedeutungen, die LLMs erfassen, „dumme Bedeutung“ zu nennen (Bajohr 2023a). Er meint damit Bedeutungen, die ohne den Rückgriff auf Welterfahrung oder ein Bewusstsein gebildet werden. (S. 39-40)
Seemann 2023

Seemann nimmt zwar nicht eindeutig Stellung für die eine oder andere Position. Aber seine Schlussfolgerung signalisiert eine grössere Nähe zur Perspektive der französischen Sprachphilosophie: er ist sich nicht sicher, ob menschliche Weisen des Verstehens den maschinellen Weisen des Verstehens auf Dauer überlegen sein werden.

Auswirkungen auf die Arbeitswelt

In diesem Abschnitt spricht Seemann u.a. eine Reihe von verschiedenen Punkten an (S. 47-50):

  • Konzentration des KI-Markets aufgrund der hohen Anforderungen an Ressourcen bei Entwicklung und Betrieb von Modellen;
  • Auslagerung von Click-Working zur Optimierung der Modelle (RLHF) in Niedriglohn-Länder;
  • Mögliche Stärkung einer Tendenz zu einer 2-Klassen-Gesellschaft:
    „Da die generativen KIs zwar nicht gut genug sind, um menschliche Arbeit zu ersetzen, aber sich viele Leute menschliche Arbeit sowieso nicht leisten können, würden die sozial Schwachen zukünftig mit KIs abgespeist werden, während die, die es sich leisten können, sich weiterhin von Menschen bedienen, behandeln und beraten lassen (Hanna/Bender 2023).“

Meta-Effekte und Strukturveränderungen

Über die aus seiner Sicht nur wenig belastbare Studienlage zu Auswirkungen auf Berufsarbeit hinaus sind für Seemann insbesondere Strukturveränderungen wichtig. Hier führt er folgende Punkte an (S. 58-61):

  • Urheberrechte und Marktmacht von Beschäftigtengruppen
    „Die Befürchtung [der Writers Guild of America, CM] war aber nicht einfach, dass Hollywood sich seine Skripte von ChatGPT generieren lassen würde, sondern vielmehr, dass sich das Studio-Management von LLMs die Handlungsstruktur und das Basisskript generieren lassen und den angestellten Autorinnen dann nur noch die Überarbeitung bzw. Ausgestaltung der Details überlassen würden. Selbst wenn das LLM nur unbrauchbaren Quatsch liefern würde, verlören die Autorinnen das Urheberrecht an dem Drehbuch und man könnte sie mit einem Bruchteil des Geldes abspeisen (Broderick 2023).“
  • Deskilling
    „Automatisierung [führt] in der Realität oft dazu, dass bestimmte Arbeitsprozesse auch mit weniger Qualifizierung verrichtet werden (…). Dieses sogenannte „Deskilling“ führt dann zu einer höheren Austauschbarkeit der jeweiligen Arbeitenden und in Folge zu allgemeinen Lohneinbußen in dem Bereich.“
  • Aufgefressene Produktivitätsgewinne?
    „Während also die individuelle Produktivität durch LLMs steigen mag, wird sie vielleicht dadurch zunichte gemacht, dass alle Arbeitenden ihre Arbeitszeit dafür aufwenden müssen, sich gegen neue Formen von Spam, Phishing und Desinformationen zu wehren und sich durch immer ausufernden Informationsmüll zu wühlen.“
  • Untergrabene Integrität von Kommunikation?
    • Misstrauen von Lehrpersonen gegenüber den Ausarbeitungen von Lernenden / Studierenden;
    • Secret Cyborg-Phänomen: „Much of the value of AI use comes from people not knowing you are using it.“ (Ethan Mollick);Automation Bias: “Studien weisen (…) darauf hin, dass Menschen computergestützte Vorschläge deutlich unkritischer akzeptieren und übernehmen, als es angemessen wäre.“
    • Aufwand für Kommunikation ist immer auch ein Teil der Kommunikation. Z.B. persönlicher Brief / persönliche Email. Was passiert, wenn dieser Aufwand gegen Null tendiert? (S. 61)

Zukunftsszenarien zur Berufsarbeit

Seemann unterscheidet drei Szenarien für die Auswirkungen von generativer KI auf Berufsarbeit:

  • Disruption: existenzielle Bedrohung von Berufsarbeit, beispielsweise für Beschäftigte in Call-Centern oder Übersetzer:innen;
  • Integration: Nutzung der neuen Werkzeuge im Arbeisprozess, beispielsweise von medizinischem Personal, Pflegepersonal oder Immobilienmakler:innen;
  • Transformation: radikale Veränderung der Berufsarbeit, beispielsweise bei Medienschaffenden, Lehrpersonen, in der Wissenschaft, in Beratungoder bei Mitarbeitenden in Verwaltungen.

Seemann skizziert diese drei Zukunftsszenarien anhand jeweils einer Berufsgruppe:

Disruption – Beispiel Übersetzer:innen

Seemann sieht hier eine Berufsgruppe in Auflösung. Maschinell erstellte Übersetzungen werden für einen grossen Teil der Übersetzungsaufgaben genutzt – für Gebrauchstexte und technische Dokumentationen ebenso wie für die meisten Bücher. Ausnahmen sind Kunst- und Literaturübersetzungen. Übersetzer:innen entwickeln sich in verschiedene neue Aufgabenprofile hinein:

  • Lektorat – Überarbeitung bzw. Feinschliff von maschinell übersetzten Texten;
  • Prompt-Übersetzungen;
  • Beratung im Bereich KI-basierte Übersetzung, Qualitätssicherung und Modell-Training.

Integration – Beispiel Krankenpflege

Diesem Szenario zufolge bleibt der Kern der Berufsarbeit intakt und KI-basierte Werkzeuge werden in den Arbeitsprozess integriert. Beispiele sind Notizsysteme auf der Grundlage von gesprochener Sprache, die zeitglich zu manuell durchgeführten Arbeiten an Patient:innen geführt werden. Oder KI-basierte Systeme für eine personalisierte Zusammenstellung der Ernährung von Patient:innen. Oder Simultanübersetzungen, so dass auch Fachkräfte ohne gute Kenntnis der deutschen Sprache in der Pflege arbeiten können.

(…) die Arbeit am Körper ist weiterhin eine menschliche Arbeit, der Einsatz der Hände ist nicht nur eine Frage von mechanischer Kraft und feinmotorischer Sensibilität, sondern auch eine der Empathie, Zuwendung und des Mitgefühls: etwas, was die Maschinen nicht leisten können.
Seemann 2023, S. 67

Transformation – Studierende, Lehrpersonen & Wissenschaftler:innen

In diesem Szenario skizziert Seeman u.a. Entwicklungen wie die folgenden (S. 69-74):

  • starke Zunahme mündlicher Prüfungen gegenüber schriftlichen Prüfungsformen;
  • Lernunterstützung durch personalisierte, omnikompetente maschinelle Tutoren;
  • nur noch wenige Vorlesungen, dafür mehr betreute Kolloquien;
  • “Publikations-Explosion” und Zusammenbruch des Peer-Review-Systems in der Wissenschaft;
  • Transformation des Review-Prozesses für wissenschaftliche Arbeiten:
    • alle eingereichten Publikationen werden in eine generische Standard-Sprache übersetzt und dabei auch anonymisiert;
    • automatisierte / maschinelle Plausibilitätsprüfung;
    • Review von kommentierten Zusammenstellungen zu Bündeln von Publikationen durch menschliche Reviewer;
    • Überprüfung von Beobachtungen / Überlegungen mit Unterstützung von LLMs;
    • Bestätigung der Bewertung der Original-Einreichung durch die Peer-Reviewer.

Seemann, Michael (2023): Künstliche Intelligenz, Large Language Models, ChatGPT und die Arbeitswelt der Zukunft. Working Paper Forschungsförderung, Nr. 304, September 2023. Düsseldorf: Hans-Böckler-Stiftung.

Filed Under: Beiträge Tagged With: AI / KI, Digitale Transformation

ChatGPT & Co. in Arbeits- & Lernwelten (Empower People 2023)

15. November 2023 by Christoph Meier Leave a Comment

Im Rahmen der Veranstaltung «Empower People 2023» der FH Kärnten haben wir Assistenzsysteme auf Basis generativer KI zum Thema gemacht – mit einem Impuls, einer Pulsmessung und Gruppendiskussionen. Ein Fazit: es gibt viel Orientierungsbedarf zu Assistenzsystemen auf Basis generativer KI.


Empower People…

«Empower People» nennt sich die Veranstaltung der «people experience community» und der FH Kärnten, die dieses Jahr zum zweiten Mal durchgeführt wurde. Motto der Veranstaltung war «Empowerment durch innovative Lern- und Entwicklungskonzepte». Die Organisator:innen – Uschi Liebhart, Michael Kosutnik und Christian Mörtl – hatten mich eingeladen, den Abend mit Inhalt zu füllen. Das habe ich gerne gemacht und einen Impuls, eine kurze Pulsmessung sowie eine moderierte Diskussionsphase vorbereitet.

… durch Assistenzsysteme auf Basis generativer KI

Der Titel für meinen Impuls war «ChatGPT & Co. als persönliche Assistenzsysteme in Arbeits- & Lernwelten». Mein Ausgangspunkt waren die Veränderungen in unserer Arbeitswelt (Fokus generative KI) und die Frage danach, worauf wir als Bildungsverantwortliche Menschen vorbereiten sollen bzw. wofür wir sie befähigen sollen.

Die kurze Antwort lautet: auch auf das Zusammenarbeiten mit «smarten» Assistenzsystemen auf der Basis von generativer KI. Aus meiner Sicht wird dies zum «neuen Normal» in Arbeits- und Lernwelten. Ganz gleich, ob wir mit Texten arbeiten, mit Bildern, mit Videos, mit Sound / Musik, mit Computer-Code, mit Dateien und Daten – Assistenzsysteme auf Basis von generativer KI werden verfügbar sein und uns dabei unterstützen können.

Potenziale – und Herausforderungen

Damit verbunden ist das Potenzial für eine deutlich Erhöhung unserer Arbeitsproduktivität. Allerdings unter Voraussetzungen:

  • wir kennen die Funktionsprinzipien, die Möglichkeiten und auch die Limitationen dieser As-sistenzsysteme (z.B. «one token at a time» oder Bias und Halluzinationen);
  • wir sind uns bewusst, dass diese Assistenzsysteme sich mehr oder weniger kontinuierlich weiterentwickeln; was heute (nicht) funktioniert hat, kann morgen schon wieder etwas anders sein – und zwar besser oder schlechter;
  • wir gestalten den Kooperationsprozess mit den Assistenzsystemen in einer zielführenden Weise (z.B. mit dem Assistenzsystem in der Rolle eines Praktikanten);
  • wir verfügen über die erforderliche Fingerfertigkeit in der Anleitung der Assistenzsysteme (z.B. Prompting);
  • wir gewährleisten sichere Umgebungen für die Arbeit mit diesen Assistenzsystemen (z.B. gekapselte Umgebungen oder Berücksichtigung von Risiken bei der Nutzung von Plugins für GPTs).

Für uns als Verantwortliche für Bildung und Personalentwicklung in den verschiedenen Kontexten (Schule, Hochschule, Berufsbildung, betriebliche Weiterbildung, etc.) sind damit verschiedene Aufgabenbereiche verbunden:

  • Sicherstellen, dass wir selbst mit diesen Lösungen vertraut sind;
  • Mitarbeit an geeigneten Rahmenbedingungen;
  • Unterstützung und Befähigung von Anwender:innen.

Vertrautheit mit «smarten» Assistenzsystemen

Als Verantwortliche für Bildung und Personalentwicklung können wir nur dann wirksam an der Gestaltung von Rahmenbedingungen und an Befähigungsprogrammen arbeiten, wenn wir selbst diese neuartigen Assistenzsysteme gründlich verstehen. Wir müssen Funktionsprinzipien, Möglichkeiten und Limitationen kennen und wir brauchen Erfahrung in der Arbeit mit diesen Assistenzsystemen. Ohne dass wir uns selbst die Finger schmutzig machen, wird es nicht gehen.

Mitarbeit an Rahmenbedingungen

Ein wichtiger Aspekt ist hier der Zugang zu diesen Lösungen. Beispielsweise über Lizenzen oder auch über intern verfügbare, gekapselte Lösungen. Timm Friebe von ENBW hat kürzlich im Education Newscast mit Thomas Jenewein geschildert, wie dies bei ENBW umgesetzt wird. Ich erlebe in Workshops immer wieder, dass Teilnehmende – weil sie keinen Zugang zu den aktuell leistungsfähigsten Versionen dieser Assistenzsysteme haben – mit frei verfügbaren (und in der Regel deutlich weniger leistungsfähigen) Versionen arbeiten und diese dann (aus meiner Sicht vorschnell) als «nicht ernst zu nehmen» abtun.

Unterstützung / Befähigung von Anwender:innen

Zentraler Aufgabenbereich ist natürlich die Befähigung von anderen für die Nutzung von bzw. für die Arbeit mit diesen Assistenzsystemen. Je nach Kontext stehen Lernende, Studierende, Beschäftigte, Führungskräfte oder andere Zielgruppen im Fokus.

Hier geht es um

  • Funktionsprinzipien, Möglichkeiten, Limitationen und Risiken;
  • verfügbare Produkte bzw. Services sowie deren Besonderheiten;
  • geeignete und weniger geeignete Einsatz- bzw. Nutzungsszenarien;
  • Fingerfertigkeit in der Arbeit mit diesen Lösungen (u.a. Prompting);
  • Gestaltung der Zusammenarbeit (Kooperationsprozess);
  • Sensibilisierung für ethische und sicherheitstechnische Herausforderungen.

Wo stehen wir aktuell?

Im Rahmen der Veranstaltung haben wir auch eine kurze Pulsmessung durchgeführt. Zwei Fragen habe ich gestellt:

  • Welche Typen von Assistenzsystemen auf Basis generativer KI sind bekannt & werden genutzt?
  • Wie Assoziationen und Befindlichkeiten sind mit der Nutzung verbunden?

Die Pulsmessung, bei 85 von ca. 100 Teilnehmenden an der Veranstaltung geantwortet haben, zeigt, dass bislang vor allem genKI-Applikationen für die Arbeit mit Texten bekannt sind und genutzt werden. Bild-Generatoren folgen mit deutlichem Abstand an zweiter Stelle. Es wird deutlich, dass viele das Spektrum der verfügbaren Assistenzsysteme nicht kennen.

Abb. 1: Ergebnis Pulsmessung – bekannte & genutzte Typen von Applikationen

Bei der zweiten Frage ging es darum, welche Assoziationen und Befindlichkeiten sich mit der Nutzung von Assistenzsystemen auf Basis generativer KI verbinden. Im Vordergrund, so zeigen die Ergebnisse, stehen die Wahrnehmung, produktiver zu sein und das Gefühl, gestärkt bzw. befähigt zu sein. Aber auch die Aussagen «fühlt sich an wie schummeln» und «ich vermisse klaren Vorgaben» fanden viel Zustimmung. Hier spielt vermutlich eine Rolle, dass etwa die Hälfte der Teilnehmenden an der Online-Veranstaltung Studierende der FH Kärnten waren.

Abb. 2: Ergebnis Pulsmessung – Assoziationen zu und Befindlichkeiten bei der Nutzung

Entwicklungsdynamik als Herausforderung

Im Feld der generativen KI-Awendungen herrscht aktuell eine enorm hohe Entwicklungsdynamik. Verfügbare Produkte und Services entwickeln sich schnell weiter. Laufend kommen neue Player und neue Produkte / Services hinzu. Das ist für alle Beteiligten sehr herausfordernd. Und es unterstreicht, wie wichtig es ist, Wissen zu, Verständnis für und Kompetenz in der zielorientierten Nutzung diese Lösungen aufzubauen.

Aus meiner Sicht sind dies gute Gründe für Verantwortliche in Bildung / Personalentwicklung, dieses Themenfeld systematisch anzugehen.

Hier noch die wichtigsten Folien aus meinem Impuls zur Veranstaltung:

2023-11-21_Empower-People_SCIL_ChatGPTCo_Vs-SCIL-Blog


Die hier angesprochenen Herausforderungen für Bildungsverantwortliche adressieren wir systematisch im Rahmen unserer Arbeit an der SCIL Academy und insbesondere in unseren Weiterbildungsprogrammen «Bildungsmanagement» und «Lerndesign». Mehr dazu hier.

Filed Under: Beiträge, Vorträge & Workshops Tagged With: AI / KI, Bildungsmanagement

Alle werden Chef:in sein? Arbeiten und Lernen mit GPTs

11. November 2023 by Christoph Meier Leave a Comment

Seit kurzem sind persistente, spezifische konfigurierte (bzw. gepromptete) Assistenten verfügbar, die bei vielfältigen Aufgaben unterstützen können. Auch beim Lernen. Bildungsverantwortliche und Bildungsinstitutionen sollten dazu orientiert sein und gegebenenfalls Entwicklungsmassnahmen ableiten.


Diese Woche war ich zu Vorträgen und Workshops zum Thema generative KI in der Bildung eingeladen. Zum einen bei der jährlichen Tagung der SPAS (Schweizerische Plattform der Ausbildungen im Sozialbereich), zum anderen im Rahmen des dritten Digital Day der Kantonsschule Freudenberg / Liceo Artistico in Zürich.

Beide Male habe ich die folgende Argumentationslinie zugrunde gelegt:

  • unsere Arbeitswelt verändert sich, insbesondere durch (generative) KI und Mensch-Maschine Kollaboration;
  • die Zusammenarbeit mit KI-basierten Assistenzsystemen wird zum neuen Normal (z.B. Microsoft 365 Copilot);
  • Bildungsinstitutionen und Bildungsverantwortliche sind nicht nur gefordert, veränderungsfähig zu sein, Wissen zu Assistenzsystemen auf Basis generativer KI aufzubauen, Expertise in der Gestaltung von Mensch-Maschine-Interaktionen zu entwickeln und ethische Herausforderungen zu berücksichtigen. Sie sind auch gefordert, Bildung im Zeitalter von generativer KI zu gestalten.

Custom GPTs – spezifisch konfigurierte Assistenten

Für den Beitrag zum Digital Day der Kantonsschule hatten folgenden Titel vereinbart: “Alle werden Chef:in sein? Herausforderungen für Bildungsverantwortliche bei der Vorbereitung auf die Arbeit in Mensch-Maschine-Tandems”. Und zwar schon vor einigen Monaten. Mit den Ankündigungen von OpenAI im Rahmen der ersten OpenAI-Entwickler-Konferenz am 06.11. hat dieser Titel, der ursprünglich eher provokativ gemeint war, eine unerwartete Aktualität erhalten.

In einem zugehörigen Blog-Artikel (Introducing GPTs) hat OpenAI erläutert, was es mit den neu verfügbaren “custom versions” von GPT auf sich hat:

We’re rolling out custom versions of ChatGPT that you can create for a specific purpose—called GPTs. GPTs are a new way for anyone to create a tailored version of ChatGPT to be more helpful in their daily life, at specific tasks, at work, or at home—and then share that creation with others. For example, GPTs can help you learn the rules to any board game, help teach your kids math, or design stickers. Anyone can easily build their own GPT—no coding is required. You can make them for yourself, just for your company’s internal use, or for everyone.
OpenAI, Introducing GPTs, 6.11.2023

Beispiel Feedback-Wizard

In seinem Online-Artikel “Almost an Agent: What GPTs can do” hat Ethan Mollick detailliert beschrieben, wie er ausgehend von diesen neuen Möglichkeiten einen “Feedback Wizard” bzw. “Writing Coach” erstellt hat. Dieser Coach gibt Studierenden Feedback zu einem Textentwurf, den sie auf Aufforderung hochladen bzw. einstellen. Hier ein Beispiel für ein daraus resultierendes Feedback:

Abb. 1: Feedback zu einem studentischen Text (Bildquelle: E. Mollick)

Mollick teilt in seinem Beitrag auch den sehr ausführlichen Prompt, den er für diesen Wizard erstellt hat (ca. 1 Seite Umfang).

Hier ein Blick auf die Benutzeroberfläche, auf der man diese spezifischen GPTs erstellen kann – allerdings mit einem anderen Anwendungsfall:

Abb. 2: Konfiguration eines Custom-GPT (Bildquelle: SCIL)

Praktikanten für beliebige Aufgaben

Die Möglichkeit, für spezifische Aufgaben optimierte Assistenten zu nutzen, bietet Forefront.ai seit einigen Monaten an. Jetzt gibt es solche Assistenten auch bei OpenAI – und zusätzlich eben die Möglichkeit, eigene Assistenten zu erstellen und hinzuzufügen:

Wir bewegen uns also in eine Welt hinein, in der wir zahlreiche, für spezifische Aufgaben konfigurierte und zunehmend leistungsfähige Assistenten nutzen können, um vielfältige Aufgaben an sie zu delegieren. Wichtig ist dabei, dass wir von “Assistenten” oder besser noch von “Praktikanten” sprechen:

“This first round of primitive AI agents like ChatGPT and Dalle are best thought of as universal interns. It appears that the millions of people (…) are using these AIs to do the kinds of things they would do if they had a personal intern: write a rough draft, suggest code, summarize the research, review the talk, brainstorm ideas, make a mood board, suggest a headline, and so on. As interns, their work has to be checked and reviewed. And then made better. It is already embarrassing to release the work of the AI interns as is. You can tell, and we’ll get better at telling. Since the generative AIs have been trained on the entirety of human work — most of it mediocre — it produces “wisdom of the crowd”-like results. They may hit the mark but only because they are average.”
Kevin Kelly auf https://www.noahpinion.blog/p/interview-kevin-kelly-editor-author, 07.03.2023
(Hervorhebungen CM)

Was dies für (Berufs-)Arbeit und Beschäftigung bedeutet, darüber wird vielerorts diskutiert (u.a. Hamilton et al. 2023). Ein Zukunftsszenario ist, dass künftig ein wichtiger Teil beruflicher Arbeit darin besteht, die Arbeit von solchen Assistenten zu orchestrieren. Die Implikationen für die Personalentwicklung erkunden wir im Rahmen einer aktuellen SCIL Entwicklungspartnerschaft. Hier möchte ich mögliche Folgen für Aus-, Fort- und Weiterbildung ansprechen.

Private Hauslehrer für alle?

In einer vielzitierten Studie hat Benjamin Bloom (1984) aufgezeigt, wie viel lernwirksamer individuelle tutorielle Betreuung im Vergleich zu klassischem Frontalunterricht ist (vgl. Referenz unten). Sugata Mitra hat mit seinen Experimenten und mit seiner Initiative zu “Hole-in-the-Wall” ab 1999 gezeigt, wie Lernen in Regionen ohne ausreichende Bildungsinfrastruktur bereits durch das Bereitstellen eines Computers mit Zugang zum Internet gefördert werden kann (intrinsische Lernmotivation vorausgesetzt). Ethan Mollick hat vor wenigen Monaten ein einem ausführlichen Beitrag (“Assigning AI – Seven Ways of Using AI in Class”) gezeigt, wie ChatGPT als privater Lern-Tutor genutzt werden kann. Ein solcher Prompt kann an Lernende weitergegeben werden und diese können damit eigenständig in beliebig viele Lerndialoge zu beliebigen Themen eintreten.

– – –

Hier der in deutscher Sprache nachgebaute Tutor-Prompt aus der Publikation von Ethan und Lilach Mollick. Ich habe den Prompt ausprobiert und mir ein Thema aus dem Bereich des maschinellen Lernens (Verlustfunktionen) erläutern lassen. Ich war beeindruckt, nicht zuletzt von den Fragen, die mir der Assistent gestellt hat, um mein Verständnis der dargestellten Sachverhalte zu überprüfen.

– – –

Hohe metakognitive Anforderungen

So vielversprechend diese Möglichkeiten klingen – es gibt wichtige Limitationen, die beachtet werden müssen. So kann es nach wie vor sein, dass der KI-Tutor halluziniert oder fachlich nicht auf der Höhe ist. Dies stellt eine Herausforderung für die Lernenden bzw. Nutzer:innen dar. Diese müssen in der Lage sein, einzuschätzen, für welche Themen der KI-Tutor gut einzusetzen ist, für welche eher nicht und worauf bei den Ausgaben des Tutors zu achten ist. Dies erfordert eine hohe metakognitive Kompetenz. Lernende begeben sich in ein Lernsetting, lassen sich von einem KI-Tutor Sachverhalte erläutern und müssen gleichzeitig beobachten, ob es Hinweise für Fehlleistungen des Tutors gibt (bzw. müssen gegebenenfalls die Ausgaben des Tutors eigenständig prüfen). Dazu muss man erst mal in der Lage sein bzw. das muss trainiert werden…

Folgen für Bildungsverantwortliche und Bildungsinstitutionen

Damit ich nicht missverstanden werde und weil die Frage in Vorträgen immer wieder gestellt wird: ich denke nicht, dass Lehrpersonen oder Bildungsinstitutionen durch künstliche Intelligenz ersetzt werden oder ersetzt werden sollten. Ich denke vielmehr, dass wir verfügbare Technologien dafür nutzen sollten, mehr, flexibleres, fokussierteres und selbstbestimmteres Lernen zu ermöglichen. Dazu braucht es kompetente Lehrpersonen / Trainer:innen / Bildungsverantwortliche / Personalentwickler:innen in einer beratenden, coachenden und begleitenden Rolle. Und dazu braucht es auch Verantwortliche auf Seiten der Bildungsinstitutionen, die diese Entwicklungen zum Anlass nehmen, die bisherige Positionierung, das bisherige Leistungsportfolio und die bisherigen Infrastrukturen für Lernen und Entwicklung zu hinterfragen bzw. gegebenenfalls weiterzuentwickeln.


Bloom, B. S. (1984). The 2 Sigma Problem: The search for methods of group instruction as effective as one-to-one tutoring. Educational Researcher, 13(6), 4–16.

Hamilton, A., Wiliam, D., & Hattie, J. (2023, August 8). The future of AI in education: 13 things we can do to minimize the damage. Retrieved from https://media.licdn.com/dms/document/media/D4D1FAQG6MTH86GkffQ/feedshare-document-pdf-analyzed/0/1699581799142?e=1700697600&v=beta&t=lbViT4B0KwzjnEzKRbHbSddSklAkHHYJ1GqmeSZT1xE

Bildquelle Beitragsbild: OpenAI

Filed Under: Beiträge, Vorträge & Workshops Tagged With: AI / KI, Bildungsmanagement, Digitalisierung, Learning Professionals

Personalentwicklung für das Arbeiten mit generativer KI

7. November 2023 by Christoph Meier Leave a Comment

ChatGPT & Co sind auf dem Weg, zu ständig verfügbaren persönlichen Assistenzsystemen für vielfältige Aufgaben zu werden. Die neue SCIL Entwicklungspartnerschaft “Generative KI und Personalentwicklung” greift damit verbundene Themen auf.


ChatGPT & Co sind auf dem Weg, zu ständig verfügbaren persönlichen Assistenzsystemen für vielfältige Aufgaben zu werden. Eine erfolgreiche Zusammenarbeit mit diesen Systemen ist an Voraussetzungen gebunden. Hier tut sich ein wichtiges Arbeitsfeld für Bildung und Personalentwicklung auf. Ein Themenfeld, das wir im Rahmen unserer neuen SCIL Entwicklungspartnerschaft angehen.

SCIL Entwicklungspartnerschaften

Die SCIL Innovationskreise und Entwicklungspartnerschaften greifen aktuelle Herausforderungen im Handlungsfeld Bildungsmanagement und Personalentwicklung auf. In einer geschlossenen Runde werden im Zeitraum von 9-12 Monaten Herausforderungen analysiert, Bestandsaufnahmen erstellt, Konzepte erarbeitet und Lösungen erprobt. Mehr dazu hier.

Letzte Woche sind wir mit einem ganztägigen Kick-off in die SCIL Entwicklungspartnerschaft 2023-24 gestartet. Rahmenthema ist: “Generative KI und Personalentwicklung – Befähigung für erfolgreiche Zusammenarbeit mit smarten Assistenzsystemen”. Beteiligt sind Personalentwickler:innen, L&D-Expert:innen, KI-Expert:innen und Spezialist:innen für HR, Transformation und Innovation von sieben schweizerischen Unternehmen: AXA Versicherungen, Baloise Group, Post-CH, Postfinance, SBB, Swisscom und Zurich Versicherungen.

Orientierung im Themenfeld

Ein wichtiger Arbeitspunkt für das Kick-off war eine Orientierung im Themenfeld generative KI und Befähigung für die erfolgreiche Zusammenarbeit mit KI-basierten Assistenzsystemen wie z.B. Microsoft 365 CoPilot. Ein Ausgangspunkt hierzu war für uns das nachfolgend skizzierte Themen-Tableau:

Abb. 1: Themenfelder zu Arbeiten mit generativer KI und Bildung / Personalentwicklung (Bildquelle: SCIL)

Die für L&D bzw. PE zentralen Themenfelder sind in dieser Skizze im Zentrum repräsentiert:

  • Funktionsprinzipien und Besonderheiten von generativer KI;
  • Nutzungsszenarien für Apps basierend auf generativer KI;
  • Gestaltung der Zusammenarbeit mit diesen Apps / Assistenzsystemen;
  • Kompetenzen für die erfolgreiche Arbeit mit generativer KI;
  • Themen für Entwicklungsangebote (Optimierungs-Prinzipien, Prompting, etc.);
  • Geeignete Entwicklungsformate (Trainings, Selbstlerneinheiten, Circles, etc.);
  • Lernressourcen für verschiedene Entwicklungsformate (Videos, Guides, Cheat Sheets, etc.);

Arbeitsfelder für L&D / PE

Vor diesem Hintergrund lassen sich aus unserer Sicht drei zentrale Arbeitsfelder für L&D bzw. PE herausstellen (vgl. auch Abbildung 2):

  • Scoping & Partnering:
    Was sind Aufgaben für L&D bzw. PE und welche Themen sollten abgegrenzt bzw. durch Kooperationspartner bearbeitet werden?
  • Entwicklungs- & Veränderungsbegleitung:
    Wie verändern sich berufliche Aufgaben? Welche Kompetenzen braucht es? Wie diese Kompetenzen entwickeln? Wie die Veränderung begleiten?
  • Anpassung von eigenen Leistungsprozessen:
    Welche neuen Möglichkeiten bzw. Erfordernisse ergeben sich für L&D / PE im Hinblick auf Content-Erstellung oder das Ermöglichen von personalisierten Lernumgebungen?
Abb. 2: Aufgaben für L&D / PE (Bildquelle: SCIL)

Arbeitsthemen der Entwicklungspartnerschaft

Im Rahmen des Kick-off haben wir für die erste Arbeitsphase im Rahmen der Entwicklungspartnerschaft vier Themen priorisiert:

  • Generative KI im Arbeitsfeld und strategische Personalplanung;
  • Systematische Exploration von Use Cases für das Arbeiten mit GenKI-Apps;
  • Inhalte für eine Lernumgebung zum Thema «Arbeiten mit GenKI» ;
  • Kuratieren von Lernressourcen / Lerngelegenheiten mit GenKI-Apps.

Diese Themen werden wir in den nächsten Monaten im Rahmen von vier Arbeitsgruppen verfolgen. Ich freue mich auf die gemeinsame Arbeit…

Filed Under: Beiträge Tagged With: AI / KI, Bildungsmanagement, Personalentwicklung

Primary Sidebar

Lizenz Blogbeiträge

Creative Commons Lizenzvertrag
Unsere Blogbeiträge sind lizenziert unter einer Creative Commons Namensnennung - Weitergabe unter gleichen Bedingungen 4.0 International Lizenz.

Tag Cloud

70:20:10 adaptive Lernumgebungen AI / KI Analytics (Teaching~ / Learning~) Augmentation Berufsbildung Bildungsmanagement Blended Learning Change Management Coaching Digitale Arbeitswelt Digitale Bildung Digitale Kompetenzen Digitale Transformation Digitalisierung E-Learning / TEL Entwicklungsförderliche Führung Evaluation Führungskräfteentwicklung Hochschulbildung Hochschullehre Informelle Lernformen Kompetenz- & Skills-Management Kompetenzmodell Kuratieren Learning Design Learning Professionals Lern- / Trainingsmethoden Lernende Organisation Lernen in / mit VR, AR, XR Lernkultur Lernmedien Lernplattform Lernräume mobile learning MOOC Professionelle Kompetenzentwicklung Ro/Bots for learning Social Media Strategieentwicklung und Portfolio-Management Trends Trendstudie Video-basiertes Lernen Wertbeitrag / Learning Value Management Zukunftsorientierte Kompetenzentwicklung

Neueste Beiträge

  • SCIL-Blog ist umgezogen
  • Studie “GenKI in L&D / PE” – Ergebnisse und Handlungsfelder
  • AI in L&D – Arbeitsberichte Taylor & Vinauskaite
  • Generative KI in der Bildung – Beitrag für BeLEARN / dip
  • Selbstorganisiertes Lernen mit CustomGPTs fördern, Teil 2

Neueste Kommentare

  • Christoph Meier bei Selbstorganisiertes Lernen mit CustomGPTs fördern, Teil 1
  • Michael Wechner bei Selbstorganisiertes Lernen mit CustomGPTs fördern, Teil 1
  • Sven Hallwirth bei Selbstorganisiertes Lernen mit CustomGPTs fördern, Teil 1
  • KI-Tools 3.0: NotebookLM® – MatthiasHeil.de bei Vom Blogpost zum ‘Talk radio’ mit NotebookLM
  • GenKI und Produktivität von Lehrpersonen | digithek blog bei GenKI und Produktivität von Bildungsverantwortlichen / Lehrpersonen

Archive

  • 2025
    • Dezember 2025
    • November 2025
    • Oktober 2025
    • September 2025
    • August 2025
    • Juli 2025
    • Juni 2025
    • Mai 2025
    • März 2025
    • April 2025
    • Februar 2025
    • Januar 2025
  • 2024
    • Dezember 2024
    • November 2024
    • Oktober 2024
    • September 2024
    • August 2024
    • Juli 2024
    • Juni 2024
    • Mai 2024
    • März 2024
    • April 2024
    • Februar 2024
    • Januar 2024
  • 2023
    • Dezember 2023
    • November 2023
    • Oktober 2023
    • September 2023
    • August 2023
    • Juli 2023
    • Juni 2023
    • Mai 2023
    • März 2023
    • April 2023
    • Februar 2023
    • Januar 2023
  • 2022
    • Dezember 2022
    • November 2022
    • Oktober 2022
    • September 2022
    • August 2022
    • Juli 2022
    • Juni 2022
    • Mai 2022
    • März 2022
    • April 2022
    • Februar 2022
    • Januar 2022
  • 2021
    • Dezember 2021
    • November 2021
    • Oktober 2021
    • September 2021
    • August 2021
    • Juli 2021
    • Juni 2021
    • Mai 2021
    • März 2021
    • April 2021
    • Februar 2021
    • Januar 2021
  • 2020
    • Dezember 2020
    • November 2020
    • Oktober 2020
    • September 2020
    • August 2020
    • Juli 2020
    • Juni 2020
    • Mai 2020
    • März 2020
    • April 2020
    • Februar 2020
    • Januar 2020
  • 2019
    • Dezember 2019
    • November 2019
    • Oktober 2019
    • September 2019
    • August 2019
    • Juli 2019
    • Juni 2019
    • Mai 2019
    • März 2019
    • April 2019
    • Februar 2019
    • Januar 2019
  • 2018
    • Dezember 2018
    • November 2018
    • Oktober 2018
    • September 2018
    • August 2018
    • Juli 2018
    • Juni 2018
    • Mai 2018
    • März 2018
    • April 2018
    • Februar 2018
    • Januar 2018
  • 2017
    • Dezember 2017
    • November 2017
    • Oktober 2017
    • September 2017
    • August 2017
    • Juli 2017
    • Juni 2017
    • Mai 2017
    • März 2017
    • April 2017
    • Februar 2017
    • Januar 2017
  • 2016
    • Dezember 2016
    • November 2016
    • Oktober 2016
    • September 2016
    • August 2016
    • Juli 2016
    • Juni 2016
    • Mai 2016
    • März 2016
    • April 2016
    • Februar 2016
    • Januar 2016
  • 2015
    • Dezember 2015
    • November 2015
    • Oktober 2015
    • September 2015
    • August 2015
    • Juli 2015
    • Juni 2015
    • Mai 2015
    • März 2015
    • April 2015
    • Februar 2015
    • Januar 2015
  • 2014
    • Dezember 2014
    • November 2014
    • Oktober 2014
    • September 2014
    • August 2014
    • Juli 2014
    • Juni 2014
    • Mai 2014
    • März 2014
    • April 2014
    • Februar 2014
    • Januar 2014
  • 2013
    • Dezember 2013
    • November 2013
    • Oktober 2013
    • September 2013
    • August 2013
    • Juli 2013
    • Juni 2013
    • Mai 2013
    • März 2013
    • April 2013
    • Februar 2013
    • Januar 2013
  • 2012
    • Dezember 2012
    • November 2012
    • Oktober 2012
    • September 2012
    • August 2012
    • Juli 2012
    • Juni 2012
    • Mai 2012
    • März 2012
    • April 2012
    • Februar 2012
    • Januar 2012

Kategorien

  • Allgemein
  • Aufträge, Projekte & Studien
  • Beiträge
  • Fundstücke
  • Publications
  • Stichworte
  • Vertiefung
  • Vorträge & Workshops

Meta

  • Anmelden
  • Feed der Einträge
  • Kommentar-Feed
  • WordPress.org
Suche

 

Social Media

SCIL

Universität St.Gallen

Gehe direkt zu

IBB-HSG
SCIL Newsletter
Login

Kontakt

swiss competence centre for innovations in learning (SCIL)
Universität St.Gallen (HSG)
St. Jakob-Strasse 21
9000 St. Gallen

+41712243155

scil-info@unisg.ch

Location

 

From insight to impact.

 

Akkreditierung


Mitglied von


Copyright © 2025 Universität St.Gallen, Schweiz

  • Kontakt
  • Datenschutz
  • Cookie-Richtlinie (EU)
Cookie-Zustimmung verwalten
Um Ihnen ein optimales Erlebnis zu bieten, verwenden wir Technologien wie Cookies, um Geräteinformationen zu speichern bzw. darauf zuzugreifen. Wenn Sie diesen Technologien zustimmen, können wir Daten wie das Surfverhalten oder eindeutige IDs auf dieser Website verarbeiten. Wenn Sie Ihre Zustimmung nicht erteilen oder zurückziehen, können bestimmte Merkmale und Funktionen beeinträchtigt werden.
Funktional Immer aktiv
Der Zugriff oder die technische Speicherung ist unbedingt für den rechtmäßigen Zweck erforderlich, um die Nutzung eines bestimmten Dienstes zu ermöglichen, der vom Abonnenten oder Nutzer ausdrücklich angefordert wurde, oder für den alleinigen Zweck der Übertragung einer Nachricht über ein elektronisches Kommunikationsnetz.
Vorlieben
Die technische Speicherung oder der Zugriff ist für den rechtmäßigen Zweck der Speicherung von Voreinstellungen erforderlich, die nicht vom Abonnenten oder Nutzer beantragt wurden.
Statistiken
Die technische Speicherung oder der Zugriff, der ausschließlich zu statistischen Zwecken erfolgt. Die technische Speicherung oder der Zugriff, der ausschließlich zu anonymen statistischen Zwecken verwendet wird. Ohne eine Aufforderung, die freiwillige Zustimmung Ihres Internetdienstanbieters oder zusätzliche Aufzeichnungen von Dritten können die zu diesem Zweck gespeicherten oder abgerufenen Informationen allein in der Regel nicht zu Ihrer Identifizierung verwendet werden.
Marketing
Die technische Speicherung oder der Zugriff ist erforderlich, um Nutzerprofile zu erstellen, um Werbung zu versenden oder um den Nutzer auf einer Website oder über mehrere Websites hinweg zu ähnlichen Marketingzwecken zu verfolgen.
Optionen verwalten Dienste verwalten Verwalten Sie {vendor_count} Lieferanten Lesen Sie mehr über diese Zwecke
Voreinstellungen anzeigen
{title} {title} {title}