
- GMLS als Abkürzung (Biblionetz:w03717)
Generative Machine-Learning-Systeme werden genutzt, um Aufgaben ohne viel Eigenleistung rasch zu erledigen.
- GMLS als Werkzeug (Biblionetz:w03718)
Generative Machine-Learning-Systeme werden genutzt, um Aufgaben besser / vertiefter zu erledigen.
- GMLS als Tutor:in (Biblionetz:w03719)
Generative Machine-Learning-Systeme werden als Tutor:in genutzt, das bei Aufgaben begleitet und nachfragt.
Die eingesetzten Systeme sind somit spezifisch für Lernsituationen konfiguriert und zeigen didaktisch motivierte Verhaltensweisen.
- GMLS als Lernbegleiter:in (Biblionetz:w03720)
Ein generatives Machine-Learning-System wird als Lernbegleiter:in genutzt, das einen längerfristig begleitet.
Im Unterschied zu 'GMLS als Tutor:in' ist ein GMLS als Lernbegleiter:in über eine längere Zeit und über verschiedene Themenbereiche im Einsatz und kann sich dadurch ein individuelles (kognitives und emotionales) Modell der nutzenden Person aufbauen. (Ja, der heilige Gral aller Intelligent-Tutorin-Fans (Biblionetz:w01453) - ich sage damit nicht, dass solche Systeme heute schon existieren.)
- GMLS als Therapeut:in (Biblionetz:w03721)
Ein generatives Machine-Learning-System wird als Gesprächspartner:in für persönliche Probleme genutzt.
Dieser Einsatzzweck ist nicht auf schulisches Lernen ausgerichtet, bisherige Berichte und Erhebungen zeigen aber, dass GMLS von Lernenden häufig so genutzt werden.
[...]
KI-Anwendungen der generativen Künstlichen Intelligenz bedienen sich journalistischer Inhalte und geben diese in gewünschter Form wieder (z.B. in KI-Chatbots). [...]
Ist sich der Bundesrat bewusst, dass Bezahlschranken teilweise nicht ausreichen, um Inhalte und damit das Geschäftsmodell der Medienschaffenden zu schützen, da diese durch künstliche Intelligenz umgangen werden?
Quelle: Interpellation 24.3616 "Medien und künstliche Intelligenz, Hervorhebung von mir
Diesen Donnerstag wurde das Thema in einem ganzseitigen Artikel in der NZZ (Biblionetz:t32002) aufgenommen:
KI-Anwendungen der generativen Künstlichen Intelligenz bedienen sich journalistischer Inhalte und geben diese in gewünschter Form wieder (z.B. in KI-Chatbots). [...]
Ist sich der Bundesrat bewusst, dass Bezahlschranken teilweise nicht ausreichen, um Inhalte und damit das Geschäftsmodell der Medienschaffenden zu schützen, da diese durch künstliche Intelligenz umgangen werden?
Quelle: Interpellation 24.3616 "Medien und künstliche Intelligenz, Hervorhebung von mir
[...]
Perplexity, eine Konversations-Suchmaschine, die auf dem Open-AI-Modell GPT-3.5 basiert, geht noch weiter. Es klaut sich seine Informationen auch hinter den härtesten Bezahlschranken zusammen. Petra Gössi macht einen sehr spezifischen Test. Sie fragt die Maschine nach der Diskussion um das Verwaltungs- und Sicherheitsgebäude Kaltbach. Die Frage, ob sich der Kanton Schwyz einen Neubau für fast 140 Millionen Franken leisten soll, beschäftigt ausserhalb des Kantons kaum jemanden. Ausser den lokalen und regionalen Medien berichtet niemand darüber. Perplexity fackelt nicht lange. Nach wenigen Sekunden liefert die KI-Anwendung eine Zusammenfassung aller Pro- und Contra-Argumente. Die Hauptquelle ist offensichtlich der «Einsiedler Anzeiger». Die Online-Inhalte der Regionalzeitung sind streng passwortgeschützt und dürften eigentlich nur zahlenden Kundinnen und Kunden zugänglich sein. Doch beinahe der gesamte Inhalt des Artikels ist in der Antwort von Perplexity zu lesen.
Quelle: NZZ vom 26.09.24, Seite 9, Hervorhebung von mir
Weder in der Interpellation von Petra Gössi noch im NZZ-Artikel wird erklärt, wie genau die KI die härtesten Bezahlschranken überwinden können soll (Biblionetz:a01557). Ich habe den Verdacht, dass die Crawler der Chatbot-Unternehmen gar keine Bezahlschranken überwinden müssen, weil die Medienunternehmen den Bots von Suchmaschinen oft bereitwillig den Content zur Verfügung stellen, um in Suchen gefunden zu werden. Somit kann es gut sein, dass die Chatbot-Crawler genauso leicht zum Content der Zeitungen kommen.
Ich habe deshalb sowohl Petra Gössi als auch die eine Autorin auf LinkedIn gefragt, wie denn Chatroboter die Bezahlschranken technisch überwinden würden. Bisher hat mir erst Christina Neuhaus geantwortet und eigentlich meinen Verdacht bestätigt:
Perplexity, eine Konversations-Suchmaschine, die auf dem Open-AI-Modell GPT-3.5 basiert, geht noch weiter. Es klaut sich seine Informationen auch hinter den härtesten Bezahlschranken zusammen. Petra Gössi macht einen sehr spezifischen Test. Sie fragt die Maschine nach der Diskussion um das Verwaltungs- und Sicherheitsgebäude Kaltbach. Die Frage, ob sich der Kanton Schwyz einen Neubau für fast 140 Millionen Franken leisten soll, beschäftigt ausserhalb des Kantons kaum jemanden. Ausser den lokalen und regionalen Medien berichtet niemand darüber. Perplexity fackelt nicht lange. Nach wenigen Sekunden liefert die KI-Anwendung eine Zusammenfassung aller Pro- und Contra-Argumente. Die Hauptquelle ist offensichtlich der «Einsiedler Anzeiger». Die Online-Inhalte der Regionalzeitung sind streng passwortgeschützt und dürften eigentlich nur zahlenden Kundinnen und Kunden zugänglich sein. Doch beinahe der gesamte Inhalt des Artikels ist in der Antwort von Perplexity zu lesen.
Quelle: NZZ vom 26.09.24, Seite 9, Hervorhebung von mir
Die Verlage senken die Schranken unter anderem deshalb selbst, damit Google auf sie zugreifen und die sogenannten Snippets herstellen kann. Ohne Snippets kein Traffic per Google-Suche...
Quelle: LinkedIn
Ja, funktionierende unabhängige Medien sind wichtig für die Demokratie und die digitale Transformation bedroht das bisherige Geschäftsmodell von traditionellen Medienunternehmen, generative Maschine-Learning-Systeme noch stärker (Biblionetz:a01289). Unter dem Stichwort Leistungsschutzrecht (Biblionetz:w02369) versuchen Medienunternehmen in verschiedenen Ländern schon länger mehr oder weniger erfolglos, Technologiegiganten zur Zahlung der Contentnutzung zu bewegen. Ich nehme die aktuelle Diskussion als eine Neuauflage der Leistungsschutzrechts-Diskussion wahr.
An dieser Neuauflage stört mich, dass sowohl Petra Gössi als auch die NZZ insinuieren, die "KI" hätte seltsame Zauberkräfte, um "härteste Bezahlschranken" zu überwinden. In meiner aktuellen Wahrnehmung hat sich technisch praktisch nichts geändert, es bleibt weiterhin ein ökonomisches und juristisches Thema - die "KI" hat diesbezüglich keine neuen Zauberkräfte.
Warum stört mich das? Es schient mir angesichts der aktuellen Bedeutungszunahme von machine learning (Biblionetz:w02863) einerseits relevant, dass die Potenziale und Herausforderung dieser Technologie möglichst realistisch beschrieben und weder in die eine noch in die andere Richtung verklärt werden. Andererseits erwarte ich sowohl von Politik als auch von Medienunternehmen ehrliche Argumentationen, insbesondere, wenn es um die Bedeutung von Medienunternehmen für die Information der Öffentlichkeit geht.
-- BeatDoebeli - 29 September 2024
@ENDE
@ANFANG 14 July 2025 WarumSchreibenMenschenBeiLinkedInLinksNichtInsPostingSondernInEinenKommentar Warum schreiben Menschen bei LinkedIn Links nicht ins Posting sondern in einen Kommentar?
Bei LinkedIn (Biblionetz:w02520) sieht man oft Beiträge/Postings bei denen die Autor:innen einen Link auf eine externe Website nicht direkt in ihrem Beitrag erwähnen, sondern im Beitrag schreiben "Den Link findet man in den Kommentaren" und dann tatsächlich ihren eigenen Beitrag kommentieren und in diesem Kommentar dann den Link erwähnen.
Dieses Vorgehen ist für Leserinnen und Leser des Beitrag eher mühsam, denn es erfordert einen zusätzlichen Klick und Aufwand, um den Link zu finden. Warum machen Autorinnen und Autoren auf LinkedIn sowas? Ich habe die folgenden drei Gründe dafür gehört:
Quelle: LinkedIn
- Angst vor dem LinkedIn-Algorithmus
Es gibt Gerüchte, dass LinkedIn Beiträge mit Links auf externe Websites weniger Reichweite zugesteht als solchen ohne externe Links. Um dieser (vermeintlichen) Abstrafung zu entgehen, wird der Link in die Kommentare verbannt.
- Verhindern des Trackings
LinkedIn ersetzt in Beiträgen URLs ab einer gewissen Länge automatisch durch Short-URLs von LinkedIn selbst. Da diese auf einen Server von LinkedIn zeigen, kann LinkedIn tracken, wie oft der Link aufgerufen wird. Zudem ist die Ursprungsadresse nicht mehr im Beitrag erkennbar. Um dies zu verhindern, wird der Link erst in einem Kommentar des eigenen Beitrags erwähnt, da dort kein Kürzungsalgorithmus mehr greift.
- Erhöhen der eigenen Reichweite
Aus der Überlegung, dass das Öffnen der Kommentare eines Beitrags und das Klicken innerhalb eines Kommentars sowohl die Verweildauer als auch die Klickanzahl innerhalb eines Beitrags erhöht und Linkedin dies als Zeichen der Attraktivität des Beitrags werten und ihn so mehr Menschen anzeigen könnte, wird dieses Vorgehen gewählt.

I have studied this issue for more than a decade, and co-authored two books squarely focused on it—Only Humans Need Apply and Working with AI, if you must know. But I am still quite uncertain about how the AI vs. humans story will end, or even what some of the middle chapters will look like. Or even whether we are at the beginning, middle, or end of the narrative. Or whether my outlook is optimistic, pessimistic, or just paranoid. Or, most importantly, whether the most likely outcome is large-scale automation or larger-scale augmentation.
Da steht ein weltbekannter Experte hin und sagt: "Ich habe keine Ahnung, wie das weitergehen wird."
Dieses Zugeben des Nichtwissens scheint mir bedeutsam. Wir sollten öfters hinstehen und sagen «Wir wissen es (noch) nicht.»
Im Umkehrschluss sollten wir dann aber auch (vor-)schnelle Antworten auf grosse Fragen entsprechend kritisieren. Konkret im Wissenschaftsbereich betrifft dies z.B. die beiden Metastudien, die bezüglich Lernförderlichkeit von GMLS publiziert und in den sozialen Medien anfänglich unkritisch geteilt und bejubelt, dann aber methodisch heftigst kritisiert worden sind (es ist ein Symptom dieser Überforderung, dass ich die beiden Studien und die methodische Kritik daran noch nicht im Biblionetz erfasst habe,,,(Update siehe unten)). (Stichworte: slow science - fast science Wir sollten darauf hinweisen, dass es methodisch gar nicht möglich ist, in so kurzer Zeit saubere Metastudien zu produzieren und dass sowohl die technische Entwicklung als auch der Umgang der Menschheit sich mit GMLS derzeit noch so rasch entwickelt, dass jegliche Studien nur Momentaufnahmen sind, die bei der Publikation bereits von der technischen und gesellschaftlichen Entwicklung überholt worden sind.
In meiner überholten traditionellen Arbeitsweise versuche ich diese Entwicklung für mich zu fassen, indem ich ihr ein Biblionetzobjekt mit dazu gehörendem Permalink verpasse: Generative Machine-Learning-Systeme überfordern derzeit alle (Biblionetz:a01568)
* 
- Biblionetz:t32349 Deng, R. et al. (2024) Does ChatGPT enhance student learning?
- Biblionetz:t32459 Weidlich, J. et al. (2025) ChatGPT in education: An effect in search of a cause
- Biblionetz:t32540 Wang, J. & Fan, W. (2025) The effect of ChatGPT on students’ learning performance, learning perception, and higher-order thinking
- Biblionetz:t32541 Bergenholtz, C. (2025) Comment to the Wang & Fan metatudy on ChatGPT
- Biblionetz:t32568 Bartoš, F; Martinková,, P & Wagenmakers, E. J. (2025) Adjusting for Publication Bias Reveals No Evidence for the Effect of ChatGPT on Students’ Learning Performance, Learning Perception, and Higher-Order Thinking

Pre-empathische Zusammenarbeit bedeutet: Ich mache mir bei meinem Arbeitsschritt vorausschauende Gedanken darüber, was eine ANDERE Person, nämlich ein mit mir zusammenarbeitender Mensch, SPÄTER für den nächsten Arbeitsschritt brauchen wird, und richte mein Handeln danach aus.
(Quelle: Band 1, Seite 36)
Im Anschluss an Jörans Referat wurde in kleineren Gruppen zu verschiedenen Themen des digitalen Zusammenarbeitens. Ich habe meinen Workshop dem Umgang mit der Notificationflut gewidmet und die Teilnehmenden als erstes gefragt, wie sie zu Hause reagieren, wenn während des gemeinsamen Nachtessens das Telefon klingelt.



In Getting Things Done (GTD) ist die individuelle Arbeit der Normalfall, der gelegentlich von Zusammenarbeit unterbrochen wird. Große Teile der GTD-Methoden zielen darauf ab, möglichst viele Freiräume für die ungestörte individuelle Arbeit zu schaffen.
und
Für mich, der in einem hochgradig kollaborativen Team arbeitet, wirkt Getting Things Done heute wie ein Versuch, die Auswirkungen von Digitalisierung und Kollaboration zu bändigen und nicht mit, sondern trotz der neuen Entwicklungen produktiv zu arbeiten.
Für mich stellt sich das insbesondere in meiner Rolle als Vorgesetzter als Dilemma dar:



- Zu technisch: Um mit dem Begriff Deep Learning etwas anfangen zu können, also z.B. zu verstehen, was denn der Unterschied zu Nicht-Deep-Learning ist, müssten Leserinnen und Leser deutlich mehr Verständnis von der Funktionsweise von maschinellem Lernen haben, als sich in der zur Verfügung stehenden Zeit vermitteln lässt.
- Nicht notwendig für weitere Erkenntnisse: Der Begriff ist nicht notwendig, um über Potenziale und Herausforderungen von maschinellem Lernen diskutieren zu können und schon gar nicht für die Nutzung von generativen Machine-Learning-Systemen (GMLS). Es reicht in diesem Zusammenhang zu erklären, dass Computer in den letzten Jahren massiv leistungsfähiger wurden und ihnen massiv mehr Daten zur Verfügung stehen, um mittels Statistik Muster in diesen Daten erkennen und daraus etwas ableiten zu können.
Ich habe so meine Verdachtsmomente, warum der Begriff trotzdem so häufig verwendet und erklärt wird:
- Veraltetes Verständnis von Didaktik: Die Autor:innen gehen davon aus, dass eine seriöse Publikation zu einem Thema doch die wesentlichen Fachbegriffe enthalten muss, statt sich zu überlegen, welche Begriffe man dem Publikation wirklich zumuten soll und wo didaktische Reduktion sinnvoll wäre.
- Glitzernde Begriffe zur Aufwertung des Themas: Auch wenn das fast nicht mehr nötig wäre, klingt KI und deep learning fancier als "Statistische Auswertungen aus grossen Datenmengen" oder "Mustersuche mit mathematischen Modellen".
- Aufwertung des eigenen Expertenstatus: Wer mit solchen Begriffen um sich wirft, erweckt oberflächlich den Eindruck, Experte oder Expertin auf diesem Thema zu sein. Mir scheint, dass viele Erklärungen des Begriff in solchen Publikationen eher zeigen, dass es Einäugige unter Blinden sind.

<eval> canvas.clear(); // Zeichenfläche löschen turtle.home(); boolean isUp = false; for(int i = 0; i < 18; i++){ turtle.penColor(i*10+50,0,250-10*i); turtle.penWidth(8); turtle.forward(20); turtle.right(20); isUp = !isUp; if(isUp) turtle.penUp(); else turtle.penDown(); } </eval> <canvas></canvas>Es genügen die Tags
<eval> / </eval>für Programmcode und
<canvas> / </canvas>für den Outputbereich. Derzeit unterstützt die Programming-Extension folgende Programmiersprachen:
- JAVA
- SQL
- Scheme
- Prolog
- Pascal
- JavaScript
- XSLT
- XPATH

- Florian Nuxoll schilderte vor wenigen Tagen auf LinkedIn, dass ihn seine Schüler:innen fragen, ob ein Text oder Arbeitsauftrag von ihm alleine oder mit Hilfe eines GMLS entstanden sei. Seinen ohne GMLS-Hilfe verfassten Texten würden sie mehr Aufmerksamkeit schenken als denjenigen, die er unter Mithilfe eines GMLS geschrieben hat, obwohl er letztere Texte selbst als besser einschätzt.
- Das kürzlich erschienene Paper Evidence of a social evaluation penalty for using AI von Reif, Larrick und Soll (Biblionetz:t32542) berichtet davon, dass in einer Studie Menschen, die GMLS einsetzen von anderen als weniger kompetent und motiviert wahrgenommen werden. (siehe auch den Bericht bei heise.de (Biblionetz:t32544)
- Ein gestern in der New York Times erschienener Artikel (Biblionetz:t32545) berichtet davon, dass Studierende zunehmend bemerken, dass ihre Professor:innen GMLS sowohl für Unterrichtsmaterial als auch für Feedback zu eingereichten Arbeiten nutzen und darüber gar nicht glücklich sind.
-
Jessica Dehler hat mich auf das Paper AI or Human? Evaluating Student Feedback Perceptions in Higher Education (Biblionetz:t32550) aufmerksam gemacht, in welchem Studierende der EPFL untersucht wurden, ob sie maschinelles Feedback von menschlichem Feedback unterscheiden können und welches davon sie präferierten. Die Studierenden präferierten menschliches Feedback gegenüber maschinellem Feedback.




Number of topics: 10