Über Jochen Robes (weiterbildungsblog.de) bin in auf drei interessante Artikel aufmerksam geworden (wieder einmal vielen Dank nach Frankfurt!) …
Torsten Kleinz, freier Journalist aus Köln, schreibt im Blog “Algorithmenethik” (Teil des Projekts “Ethik der Algorithmen” der Bertelsmann-Stiftung) sehr kenntnisreich über die Zusammenarbeit von Menschen und Bots bei Wikipedia:
- Wächter des Weltwissens – wie Automaten Wikipedia beschützen
- “Kollege Roboter” – wie Menschen und Automaten in der Wikipedia zusammenarbeiten
- Wo Algorithmen Wikipedia-Autoren ersetzen, ergänzen und motivieren
Algorithmen bzw. Bots helfen beim Kampf gegen Vandalen, Saboteure und Manipulatoren in Wikipedia, erledigen Routineaufgaben (und entlasten damit Wikipedia-Autoren) und ersetzen sogar zunehmend Autoren auf der Schwesterplattform Wikidata:
“Eine von Bots geschriebene Wikipedia ist keine Zukunftsmusik. Während die deutsche und englische Sprachausgabe jeweils auf zehn Prozent Beiträge von Bots kommen, ist der Anteil gerade in kleineren Sprachausgaben wesentlich höher. Spitzenreiter ist die Wikipedia-Ausgabe in der philippinischen Sprache Cebuano, die auf eine Botaktivität von nahezu hundert Prozent kommt.”
So interessant das ist, hat das etwas mit unserer Arbeit als Learning Professionals zu tun?
Vielleicht noch nicht heute oder morgen. Aber wenn Learning Professionals zum Beispiel als Kuratoren für zunehmend grössere Sammlungen von (offenen) Lernressourcen verantwortlich zeichnen, dann werden sie Hilfe von Bots beim Überprüfen und Aktualisieren von Links, beim Integrieren von Hinweisen auf relevante Ressourcen aus der Nutzer-Community und vielleicht auch beim Entdecken neuer relevanter Inhalte sehr wohl zu schätzen wissen.
Schreiben Sie einen Kommentar