29 September 2024 - Version 1
Im Juni 2024 hat die Schwyzer Ständerätin den Bundesrat in einer Interpellation (Biblionetz:t32003) gefragt:
[...]
KI-Anwendungen der generativen Künstlichen Intelligenz bedienen sich journalistischer Inhalte und geben diese in gewünschter Form wieder (z.B. in KI-Chatbots).
[...] Ist sich der Bundesrat bewusst, dass Bezahlschranken teilweise nicht ausreichen, um Inhalte und damit das Geschäftsmodell der Medienschaffenden zu schützen, da diese durch künstliche Intelligenz umgangen werden?
Diesen Donnerstag wurde das Thema in einem ganzseitigen Artikel in der NZZ (Biblionetz:t32002) aufgenommen:
[...]
Perplexity, eine Konversations-Suchmaschine, die auf dem Open-AI-Modell GPT-3.5 basiert, geht noch weiter. Es klaut sich seine Informationen auch hinter den härtesten Bezahlschranken zusammen.
Petra Gössi macht einen sehr spezifischen Test. Sie fragt die Maschine nach der Diskussion um das Verwaltungs- und Sicherheitsgebäude Kaltbach. Die Frage, ob sich der Kanton Schwyz einen Neubau für fast 140 Millionen Franken leisten soll, beschäftigt ausserhalb des Kantons kaum jemanden. Ausser den lokalen und regionalen Medien berichtet niemand darüber.
Perplexity fackelt nicht lange. Nach wenigen Sekunden liefert die KI-Anwendung eine Zusammenfassung aller Pro- und Contra-Argumente. Die
Hauptquelle ist offensichtlich der «Einsiedler Anzeiger». Die Online-Inhalte der Regionalzeitung sind streng passwortgeschützt und dürften eigentlich nur zahlenden Kundinnen und Kunden zugänglich sein. Doch beinahe der gesamte Inhalt des Artikels ist in der Antwort von Perplexity zu lesen.
Quelle: NZZ vom 26.09.24, Seite 9, Hervorhebung von mir
Weder in der Interpellation von Petra Gössi noch im NZZ-Artikel wird erklärt, wie genau die KI die härtesten Bezahlschranken überwinden können soll. Ich habe den Verdacht, dass die Crawler der Chatbot-Unternehmen gar keine Bezahlschranken überwinden müssen, weil die Medienunternehmen den Bots von Suchmaschinen oft bereitwillig den Content zur Verfügung stellen, um in Suchen gefunden zu werden. Somit kann es gut sein, dass die Chatbot-Crawler genauso leicht zum Content der Zeitungen kommen.
Ich habe deshalb sowohl Petra Gössi als auch die eine Autorin auf LinkedIn gefragt, wie denn Chatroboter die Bezahlschranken technisch überwinden würden. Bisher hat mit erst Christina Neuhaus geantwortet und eigentlich meinen Verdacht bestätigt:
Die Verlage senken die Schranken unter anderem deshalb selbst, damit Google auf sie zugreifen und die sogenannten Snippets herstellen kann. Ohne Snippets kein Traffic per Google-Suche...
Quelle: LinkedIn
Ja, funktionierende unabhängige Medien sind wichtig für die Demokratie und die digitale Transformation bedroht das bisherige Geschäftsmodell von traditionellen Medienunternehmen, generative Maschine-Learning-Systeme noch stärker (Biblionetz:a01289). Unter dem Stichwort Leistungsschutzrecht (Biblionetz:w02369) versuchen Medienunternehmen in verschiedenen Ländern schon länger mehr oder weniger erfolglos, Technologiegiganten zur Zahlung der Contentnutzung zu bewegen. Ich nehme die aktuelle Diskussion als eine Neuauflage der Leistungsschutzrechts-Diskussion wahr.
An dieser Neuauflage stört mich, dass sowohl Petra Gössi als auch die NZZ insinuieren, die "KI" hätte seltsame Zauberkräfte, um "härteste Bezahlschranken" zu überwinden. In meiner aktuellen Wahrnehmung hat sich technisch praktisch nichts geändert, es bleibt weiterhin ein ökonomisches und juristisches Thema - die "KI" hat diesbezüglich keine neuen Zauberkräfte.
Warum stört mich das? Es schient mir angesichts der aktuellen Bedeutungszunahme von machine learning (Biblionetz:w02863) einerseits relevant, dass die Potenziale und Herausforderung dieser Technologie möglichst realistisch beschrieben und weder in die eine noch in die andere Richtung verklärt werden. Andererseits erwarte ich sowohl von Politik als auch von Medienunternehmen ehrliche Argumentationen, insbesondere, wenn es um die Bedeutung von Medienunternehmen für die Information der Öffentlichkeit geht.
Zum Kommentieren ist eine Registration notwendig.
Seit bald zwei Jahren folgt im Bereich generativer Machine-Learning-Systeme (Biblionetz:w02833) eine Schlagzeile der nächsten: Computer können jetzt Musik komponieren! Computer können jetzt auch Videos erstellen! und - aktuell - Computer können ein PDF in einen Podcast verwandeln!
Ich glaube die Menschheit muss sich noch daran gewöhnen, dass sich künftig mit immer geringerem Aufwand aus einem Datenhaufen X ein Datenhaufen Y generieren lässt, wobei X und Y alles sein können, was wir digital darstellen können.
Ich werde mir bald jeglichen Text zu einem Hörspiel umwandeln lassen können, ich werde mir jedes Video zusammenfassen lassen können. Diese Vorstellung braucht Zeit. "Mach mir X zu einem Gedicht", "Mach mir aus X einen Lückentext", "Mach mir aus X ein Diagramm", "Mach mir aus X ein Erklärvideo", "Mach mir aus X eine Prüfung"
Aktuell lassen wir uns oft noch überraschen, wenn so etwas möglich ist. Alle berichten darüber, alle bauen es in den nächsten Vortrag, den nächsten Weiterbildungskurs und die nächste Festtagsrede ein und es gibt sicher bald ein EdTech-Startup dazu - jede GMLS-Sau wird mit Sicherheit durchs Dorf getrieben.
Wir sollten uns aber an diese Tatsache gewöhnen. Es ist möglich. Es wird alltäglich.
Statt bei jedem GMLS-Fortschrittchen in hektisches Geschrei auszubrechen, sollten wir einen Schritt zurücktreten und stattdessen rundsätzlichere Fragen stellen:
Welche Qualität hat Y? Ja, ich kann alles durch machine learning generieren lassen. Aber welche Qualität hat der Output? Haben wir die Kompetenz, diese Qualität einschätzen und beschreiben zu können? (Diese Frage hängt natürlich auch mit der Frage zusammen, welche Qualität X hat und erfordert ein Grundverständnis der Funktionsweise von GMLS…)
Rechtfertigt die rasche und kostengünstige Verfügbarkeit von Y die evtl. schlechtere Qualität? Das maschinell generierte Y ist vermutlich schneller und kostengünstiger generiert als manuell. Manchmal ist das computergenerierte Ergebnis bereits besser als wenn Menschen es hergestellt hätten. Oft ist es aber qualitativ schlechter. Wir müssen uns nun fragen, ob die rasche und kostengünstige Verfügbarkeit von Y die evtl. schlechtere Qualität rechtfertigt oder nicht. Konkret: Das Feedback eines GMLS ist derzeit vermutlich schlechter als das einer guten Lehrperson. Das Feedback eines GMLS ist jedoch rascher und öfter verfügbar als das einer Lehrperson. Wann wollen wir künftig rasch schlechteres Feedback und wann ist es sinnvoll, auf besseres menschliches Feedback zu warten?
Was bedeutet das für die Allgemeinbildung? Die zunehmende allgegenwärtige Verfügbarkeit von "mach mir aus X Y"-Generatoren verändert, was künftig durch Menschen erledigt und was automatisiert werden wird. Es ist somit zentral, dass wir im Bildungsbereich nicht primär drauf achten, wie GMLS gegenwärtige Bildungsziele und -prozesse fördern kann, sondern uns als erstes fragen, wie solche Systeme die Ziele der Allgemeinbildung verändern werden.
P.S.
Auf der Produktebene ist die neue Podcast-Funktion von Google Notebook namens NotebookLM (Biblionetz:w03659) schon verblüffend. Ich habe ein noch nicht publiziertes Buchkapitel von mir zu GMLS in der Bildung verpodcastet. Das Ergebnis überzeugt sowohl von der Text-to-Speech-Umsetzung als auch vom Aufgreifen meiner Konzepte, Strukturen und Beispiele im Buchkapitel:
17 September 2024 - Version 1
Derzeit werden allerorten empirische Untersuchungen durchgeführt, wie gut generative Machine-Learning-Systeme (Biblionetz:w02833) sich zum Lernen eignen. Zur Einordnung: GMLS in der Bildung (Biblionetz:w03434), Lernen MIT GMLS.
Da viele dieser Untersuchungen ähnlich aufgebaut sind, habe ich mir die Grundstruktur solcher Evaluationen aufgezeichnet :
In vielen Untersuchungen wird ein speziell fürs Lernen oder gar speziell für ein Thema gebautes oder konfiguriertes GMLS untersucht. Es werden meist drei Gruppen von Proband:innen gebildet:
Gruppe A: Lernende ohne GMLS-Unterstützung (die Kontrollgruppe)
Gruppe B: Lernende mit adaptierter GMLS-Unterstützung (die Treatment-Gruppe)
Gruppe C: Lernen mit allgemeiner GMLS-Unterstützung
Es wird also nicht nur das Verhalten von Lernenden mit und ohne speziell erstelltem/konfiguriertem GMLS verglichen, sondern mit Hilfe der Gruppe C wird auch untersucht, ob Lernende mit einem speziell erstelltem/konfiguriertem GMLS besser abschneiden als mit einem allgemein verfügbaren Standardprodukt.
Die speziell erstellten/konfigurierten GMLS unterscheiden sich von Standardprodukten meist durch spezifische (zusätzliche) Trainingsdaten (z.B. fach- oder themenspezifisches Material) und/oder spezifische didaktische Anweisungen an das GMLS (z.B. die Aufforderung, nur Hinweise, nicht aber die Lösung für Probleme zu verraten).
Die Leistungen der Lernenden werden sodann in zwei oder drei Untersuchungen geprüft:
T1: Leistungsmessung vor der Versuchsphase (wo man im Idealfall identische Leistungen in allen drei Gruppen erhofft)
T2: Leistungsmessung nach der Versuchsphase unter Zuhilfenahme des GMLS (die Lernenden der Gruppen B und C dürfen also in ihrer Gruppe verfügbare Werkzeug weiterhin verwenden).
T3: Leistungsmessung nach der Versuchsphase, aber ohne Zuhilfenahme des GMLS (alle drei Gruppen lösen die Aufgaben ohne GMLS).
Eine Leistungsmessung T3 (die zeitlich durchaus praktisch zeitgleich wie T2 stattfinden kann) soll prüfen, ob die Lernenden auch bessere Leistungen als zum Zeitpunkt T1 zeigen, wenn sie das neue Werkzeug nicht mehr zur Verfügung haben. Damit soll meist geprüft werden, ob die Lernenden dank GMLS auch gelernt haben, entsprechende Probleme ohne GMLS zu lösen.
Beispiele solcher Untersuchungen
Peter Kießling, Florian Funke, Sven Hofmann (2024). Entwicklung und Evaluation einer KI-Assistenz zur didaktisch-pädagogischen Unterstützung des Lernprozesses mit Programmieraufgaben Biblionetz:t31890
15 September 2024 - Version 2
Zum ersten Mal hatte ich die Frage WieVieleBildschirmeBrauchtDerMensch in diesem Blog im Jahr 2006 gestellt. Damals sah es auf meinem privaten Pult so aus:
2011 wollte ich dann MehrPlatz und ich hatte im Büro zwei Monitore nebeneinander (2 * 1920 " 1200):
2012 gab es zwar nicht mehr Bildschirme (ich war der Meinung NunHabeIchGenuegendBildschirmFlaeche), aber die Idee, sie im Portrait-Format aufzustellen, um den Kopf nicht mehr so stark hin und her drehen zu müssen. Zu Hause und im Büro je 2 24-Zöller hochformatig mit insgesamt 2400 * 1920 Pixeln (schön unterteilt in vier virtuelle Bildschirme):
2015 hat sich nichts an der Hardware geändert, aber ich hatte DisplayFusion als Verwaltungssoftware für meine vielen Monitore entdeckt.
Erst die Corona-Pandemie bzw. das damit verbundene Dauer-Home-Office hat im Jahr 2020 bei mir wieder zu einer Zunahme der Bildschirmzahl geführt - drei externe am Notebook und ein vierter für den Raspberry Pi, der unter anderem den Load und das Logfile von https://www.LernenTrotzCorona.ch anzeigen musste:
So und nun Mitte 2024 gibt es erneut mehr Pixel, allerdings nicht mehr Bildschirme. Ich habe die drei 24-Zöller mit einer Auflösung von je 1920 * 1200 ersetzt durch drei 25-Zöller mit einer Auflösung von je 2560 * 1440. Die Bildschirme sind hochkant nicht breiter als die bisherigen, aber etwas höher. Trotzdem ist die Pixeldichte spürbar grösser geworden und ich werkle jetzt mit einer Auflösung von 4320 * 2560 vor mich hin:
P.S.: Im lebe damit, dass meine beiden softwareentwickelnden Kollegen im Büro ohne externe Bildschirme arbeiten und alles auf ihren kleinen Retina-Displays entwickeln…
Technische Details: Die Dockingstation D6000 von Dell speist 2 Bildschirme via DisplayLink-Grafikkarten in der Dockingstation und ein Bildschirm wird via Alternate Display Port über USB-C von der internen Grafikkarte mit Pixeln versorgt. Gekostet haben mich die drei Bildschirme gebraucht je CHF 50. Noch mehr technische Details siehe hier).
Zum Kommentieren ist eine Registration notwendig.
07 September 2024 - Version 1
Vielleicht ist diese Argumentation ja mal für jemanden nützlich:
Portraitseiten von Mitarbeitenden sind im Forschungskontext zentral für eine Hochschule, denn meist kennen (und suchen) andere Menschen primär Mitarbeitende und nicht pauschal die Hochschule. Es ist somit sinnvoll, wenn die Profilseiten der Mitarbeitenden einer Hochschule rasch und einfach abgerufen werden können.
Profilseiten von Mitarbeitenden werden aber nicht nur via Suchmaschine oder per Verlinkung von anderen Webseiten aufgerufen. Oft werden solche Links auch manuell kommuniziert und eingetippt.
Drei Begründungen für kurze URLs ohne technischen Ballast:
Cognitive Load: Wenn ich jemandem im Gespräch sagen will, wie die URL einer Portrait-Seite lautet, dann will ich sagen können: hochschule.tld/vorname-nachname. Sonst muss ich nämlich auswendig wissen, ob es /person/, /personen/, /people/ oder sonstwie heisst.
Platzbedarf: Portrait-URLs stehen mitunter auf Folien und oder Berichten. Kurze URLS benötigen weniger Platz und machen weniger Probleme beim Umbruch.
Tippaufwand / Vertippgefahr: Wenn solche URLs auf Folien stehen, werden sie abgetippt. Auch hier sind kurze URLS wünschenswert.