Archiv

Kategorien

Mehr als 0 und 1

Letzte Postings

für gesamten Blog
@ANFANG 29 September 2024 KannEineKIHaertesteBezahlschrankenUeberwinden Kann eine KI 'die härtesten Bezahlschranken überwinden'? Im Juni 2024 hat die Schwyzer Ständerätin den Bundesrat in einer Interpellation (Biblionetz:t32003) gefragt:

[...]
KI-Anwendungen der generativen Künstlichen Intelligenz bedienen sich journalistischer Inhalte und geben diese in gewünschter Form wieder (z.B. in KI-Chatbots). [...]
Ist sich der Bundesrat bewusst, dass Bezahlschranken teilweise nicht ausreichen, um Inhalte und damit das Geschäftsmodell der Medienschaffenden zu schützen, da diese durch künstliche Intelligenz umgangen werden?
 
Quelle: Interpellation 24.3616 "Medien und künstliche Intelligenz, Hervorhebung von mir

Diesen Donnerstag wurde das Thema in einem ganzseitigen Artikel in der NZZ (Biblionetz:t32002) aufgenommen:

[...]
Perplexity, eine Konversations-Suchmaschine, die auf dem Open-AI-Modell GPT-3.5 basiert, geht noch weiter. Es klaut sich seine Informationen auch hinter den härtesten Bezahlschranken zusammen.

Petra Gössi macht einen sehr spezifischen Test. Sie fragt die Maschine nach der Diskussion um das Verwaltungs- und Sicherheitsgebäude Kaltbach. Die Frage, ob sich der Kanton Schwyz einen Neubau für fast 140 Millionen Franken leisten soll, beschäftigt ausserhalb des Kantons kaum jemanden. Ausser den lokalen und regionalen Medien berichtet niemand darüber.

Perplexity fackelt nicht lange. Nach wenigen Sekunden liefert die KI-Anwendung eine Zusammenfassung aller Pro- und Contra-Argumente. Die Hauptquelle ist offensichtlich der «Einsiedler Anzeiger». Die Online-Inhalte der Regionalzeitung sind streng passwortgeschützt und dürften eigentlich nur zahlenden Kundinnen und Kunden zugänglich sein. Doch beinahe der gesamte Inhalt des Artikels ist in der Antwort von Perplexity zu lesen.
Quelle: NZZ vom 26.09.24, Seite 9, Hervorhebung von mir

Weder in der Interpellation von Petra Gössi noch im NZZ-Artikel wird erklärt, wie genau die KI die härtesten Bezahlschranken überwinden können soll. Ich habe den Verdacht, dass die Crawler der Chatbot-Unternehmen gar keine Bezahlschranken überwinden müssen, weil die Medienunternehmen den Bots von Suchmaschinen oft bereitwillig den Content zur Verfügung stellen, um in Suchen gefunden zu werden. Somit kann es gut sein, dass die Chatbot-Crawler genauso leicht zum Content der Zeitungen kommen.

Ich habe deshalb sowohl Petra Gössi als auch die eine Autorin auf LinkedIn gefragt, wie denn Chatroboter die Bezahlschranken technisch überwinden würden. Bisher hat mit erst Christina Neuhaus geantwortet und eigentlich meinen Verdacht bestätigt:

Die Verlage senken die Schranken unter anderem deshalb selbst, damit Google auf sie zugreifen und die sogenannten Snippets herstellen kann. Ohne Snippets kein Traffic per Google-Suche...
Quelle: LinkedIn

Ja, funktionierende unabhängige Medien sind wichtig für die Demokratie und die digitale Transformation bedroht das bisherige Geschäftsmodell von traditionellen Medienunternehmen, generative Maschine-Learning-Systeme noch stärker (Biblionetz:a01289). Unter dem Stichwort Leistungsschutzrecht (Biblionetz:w02369) versuchen Medienunternehmen in verschiedenen Ländern schon länger mehr oder weniger erfolglos, Technologiegiganten zur Zahlung der Contentnutzung zu bewegen. Ich nehme die aktuelle Diskussion als eine Neuauflage der Leistungsschutzrechts-Diskussion wahr.

An dieser Neuauflage stört mich, dass sowohl Petra Gössi als auch die NZZ insinuieren, die "KI" hätte seltsame Zauberkräfte, um "härteste Bezahlschranken" zu überwinden. In meiner aktuellen Wahrnehmung hat sich technisch praktisch nichts geändert, es bleibt weiterhin ein ökonomisches und juristisches Thema - die "KI" hat diesbezüglich keine neuen Zauberkräfte.

Warum stört mich das? Es schient mir angesichts der aktuellen Bedeutungszunahme von machine learning (Biblionetz:w02863) einerseits relevant, dass die Potenziale und Herausforderung dieser Technologie möglichst realistisch beschrieben und weder in die eine noch in die andere Richtung verklärt werden. Andererseits erwarte ich sowohl von Politik als auch von Medienunternehmen ehrliche Argumentationen, insbesondere, wenn es um die Bedeutung von Medienunternehmen für die Information der Öffentlichkeit geht.

@ENDE

@ANFANG 22 September 2024 BoahAusXLaesstSichJetztYGenerieren Boah, aus X lässt sich jetzt Y generieren!

Seit bald zwei Jahren folgt im Bereich generativer Machine-Learning-Systeme (Biblionetz:w02833) eine Schlagzeile der nächsten: Computer können jetzt Musik komponieren! Computer können jetzt auch Videos erstellen! und - aktuell - Computer können ein PDF in einen Podcast verwandeln!

Ich glaube die Menschheit muss sich noch daran gewöhnen, dass sich künftig mit immer geringerem Aufwand aus einem Datenhaufen X ein Datenhaufen Y generieren lässt, wobei X und Y alles sein können, was wir digital darstellen können.

  • X = Texte (Bücher, Aufsätze, Portfolios, Prüfungsantworten, …) Bilder, Töne, Videos, Proteinsequenzen, …
  • Y = Texte (Aufsätze, Zusammenfassungen, Lückentexte, Prüfungen,..), Bilder, Töne, Videos, 3D-Modelle, …

Ich werde mir bald jeglichen Text zu einem Hörspiel umwandeln lassen können, ich werde mir jedes Video zusammenfassen lassen können. Diese Vorstellung braucht Zeit. "Mach mir X zu einem Gedicht", "Mach mir aus X einen Lückentext", "Mach mir aus X ein Diagramm", "Mach mir aus X ein Erklärvideo", "Mach mir aus X eine Prüfung"

Aktuell lassen wir uns oft noch überraschen, wenn so etwas möglich ist. Alle berichten darüber, alle bauen es in den nächsten Vortrag, den nächsten Weiterbildungskurs und die nächste Festtagsrede ein und es gibt sicher bald ein EdTech-Startup dazu - jede GMLS-Sau wird mit Sicherheit durchs Dorf getrieben.

Wir sollten uns aber an diese Tatsache gewöhnen. Es ist möglich. Es wird alltäglich.

Statt bei jedem GMLS-Fortschrittchen in hektisches Geschrei auszubrechen, sollten wir einen Schritt zurücktreten und stattdessen rundsätzlichere Fragen stellen:

  • Welche Qualität hat Y?
    Ja, ich kann alles durch machine learning generieren lassen. Aber welche Qualität hat der Output? Haben wir die Kompetenz, diese Qualität einschätzen und beschreiben zu können? (Diese Frage hängt natürlich auch mit der Frage zusammen, welche Qualität X hat und erfordert ein Grundverständnis der Funktionsweise von GMLS…)
     
  • Rechtfertigt die rasche und kostengünstige Verfügbarkeit von Y die evtl. schlechtere Qualität?
    Das maschinell generierte Y ist vermutlich schneller und kostengünstiger generiert als manuell. Manchmal ist das computergenerierte Ergebnis bereits besser als wenn Menschen es hergestellt hätten. Oft ist es aber qualitativ schlechter. Wir müssen uns nun fragen, ob die rasche und kostengünstige Verfügbarkeit von Y die evtl. schlechtere Qualität rechtfertigt oder nicht.
    Konkret: Das Feedback eines GMLS ist derzeit vermutlich schlechter als das einer guten Lehrperson. Das Feedback eines GMLS ist jedoch rascher und öfter verfügbar als das einer Lehrperson. Wann wollen wir künftig rasch schlechteres Feedback und wann ist es sinnvoll, auf besseres menschliches Feedback zu warten?
     
  • Was bedeutet das für die Allgemeinbildung?
    Die zunehmende allgegenwärtige Verfügbarkeit von "mach mir aus X Y"-Generatoren verändert, was künftig durch Menschen erledigt und was automatisiert werden wird. Es ist somit zentral, dass wir im Bildungsbereich nicht primär drauf achten, wie GMLS gegenwärtige Bildungsziele und -prozesse fördern kann, sondern uns als erstes fragen, wie solche Systeme die Ziele der Allgemeinbildung verändern werden.

P.S.

Auf der Produktebene ist die neue Podcast-Funktion von Google Notebook namens NotebookLM (Biblionetz:w03659) schon verblüffend. Ich habe ein noch nicht publiziertes Buchkapitel von mir zu GMLS in der Bildung verpodcastet. Das Ergebnis überzeugt sowohl von der Text-to-Speech-Umsetzung als auch vom Aufgreifen meiner Konzepte, Strukturen und Beispiele im Buchkapitel:

@ENDE

@ANFANG 17 September 2024 EvaluationsstrukturLernenMitGMLS Evaluationsstruktur 'Lernen mit GMLS' Derzeit werden allerorten empirische Untersuchungen durchgeführt, wie gut generative Machine-Learning-Systeme (Biblionetz:w02833) sich zum Lernen eignen. Zur Einordnung: GMLS in der Bildung (Biblionetz:w03434), Lernen MIT GMLS.

Da viele dieser Untersuchungen ähnlich aufgebaut sind, habe ich mir die Grundstruktur solcher Evaluationen aufgezeichnet :

In vielen Untersuchungen wird ein speziell fürs Lernen oder gar speziell für ein Thema gebautes oder konfiguriertes GMLS untersucht. Es werden meist drei Gruppen von Proband:innen gebildet:

  • Gruppe A: Lernende ohne GMLS-Unterstützung (die Kontrollgruppe)
  • Gruppe B: Lernende mit adaptierter GMLS-Unterstützung (die Treatment-Gruppe)
  • Gruppe C: Lernen mit allgemeiner GMLS-Unterstützung

Es wird also nicht nur das Verhalten von Lernenden mit und ohne speziell erstelltem/konfiguriertem GMLS verglichen, sondern mit Hilfe der Gruppe C wird auch untersucht, ob Lernende mit einem speziell erstelltem/konfiguriertem GMLS besser abschneiden als mit einem allgemein verfügbaren Standardprodukt.

Die speziell erstellten/konfigurierten GMLS unterscheiden sich von Standardprodukten meist durch spezifische (zusätzliche) Trainingsdaten (z.B. fach- oder themenspezifisches Material) und/oder spezifische didaktische Anweisungen an das GMLS (z.B. die Aufforderung, nur Hinweise, nicht aber die Lösung für Probleme zu verraten).

Die Leistungen der Lernenden werden sodann in zwei oder drei Untersuchungen geprüft:
  • T1: Leistungsmessung vor der Versuchsphase (wo man im Idealfall identische Leistungen in allen drei Gruppen erhofft)
  • T2: Leistungsmessung nach der Versuchsphase unter Zuhilfenahme des GMLS (die Lernenden der Gruppen B und C dürfen also in ihrer Gruppe verfügbare Werkzeug weiterhin verwenden).
  • T3: Leistungsmessung nach der Versuchsphase, aber ohne Zuhilfenahme des GMLS (alle drei Gruppen lösen die Aufgaben ohne GMLS).

Eine Leistungsmessung T3 (die zeitlich durchaus praktisch zeitgleich wie T2 stattfinden kann) soll prüfen, ob die Lernenden auch bessere Leistungen als zum Zeitpunkt T1 zeigen, wenn sie das neue Werkzeug nicht mehr zur Verfügung haben. Damit soll meist geprüft werden, ob die Lernenden dank GMLS auch gelernt haben, entsprechende Probleme ohne GMLS zu lösen.

Beispiele solcher Untersuchungen

  • Peter Kießling, Florian Funke, Sven Hofmann (2024).
    Entwicklung und Evaluation einer KI-Assistenz zur didaktisch-pädagogischen Unterstützung des Lernprozesses mit Programmieraufgaben
    Biblionetz:t31890

@ENDE

@ANFANG 19 July 2024 SpassMitGraphen Spass mit Graphen

Diesen Sommer nehme ich mir wieder mal etwas Zeit, um an der Funktionalität des Biblionetzes herumzubasteln (etwas, wozu ich im normalen Arbeitsalltag bereits seit längerem nicht mehr komme).

Fokus der Sommeraktion sind die Graphen im Biblionetz, d.h. die Grafiken, die versuchen Zusammenhänge von Begriffen oder Publikationen oder Personen zu visualisieren. Seit vielen Jahren benutze ich dazu die Bibliothek GraphViz (Biblionetz:w01582). Früher habe ich damit serverseitig PNG-Bilder generieren lassen, seit einigen Jahren sind es SVG-Grafiken. Diese Grafiken werden einerseits eingebettet in einzelne Biblionetzseiten angezeigt, andererseits gibt es die Möglichkeit, die Grafik auch bildschirmfüllend anzuzeigen.

So weit, so gut. Die Interaktionsmöglichkeiten mit SVG-Grafiken sind im Biblionetz aber etwas beschränkt. So lassen sie sich zoomen und auf einzelne verlinkte Objekte klicken, mehr ist da aber nicht. Für mehr Interaktivität bei Graphen habe ich bereits vor einigen Jahren die Bibliothek vis.js ins Biblionetz integriert und z.B. bei Begriffsnetzwerken verwendet. Bisherige Vorteile gegenüber SVG-Grafiken: Einzelne Knoten liessen sich verschieben und die Graphen waberten lustig auf der Seite umher (mehr visuelles Gimmick als aktueller Nutzen),.

Zitationsgraphen

In den vergangenen Tagen habe ich nun die Nutzung von vis.js im Biblionetz massiv ausgebaut. So sind nun auch Zitationsgraphen neu auch mit vis.js implementiert. In einem einfachen Fall (Biblionetz:b07160) sieht das so aus (über die Darstellungsdetails lässt sich streiten):

graphspass01.png
Zitationsgraph als SVG
graphspass02.png
Zitationsgraph als vis.js-Objekt
(Hier nur Screenshot)

Interessanter wird es bei grösseren Zitationsgraphen, denn hier zeigen sich Unterschiede bei den verfügbaren Layout-Algorithmen der beiden Bibliotheken als auch interaktive Funktionen, die ich derzeit nur bei vis.js habe. Hier ein etwas grösserer Graph als SVG-Grafik (Screenshot):


Zitationsgraph von Biblionetz:b07000 als SVG

Der gleiche Graph gerendert von vis.js (Auch wieder nur ein Screenshot):


Zitationsgraph von Biblionetz:b07000 als vis.js-Objekt

Ich finde es schon nur spannend, wie unterschiedlich die beiden Bibliotheken den identischen Graphen rendern (mehr dazu später). Der Mehrwert von vis.js zeigt sich jedoch, dass man nun beim Hovern mit der Maus über einzelne Objekte dessen Verbindungen besser sehen kann:


Zitationsgraph von Biblionetz:b07000 als vis.js-Objekt mit einem fokussierten Objekt

Leider scheint der vis.js-Layout-Algorithmus (oder meine Parameter) noch Probleme zu haben bei gewissen Graphen. So wird z.B. ein Buch mit vielen Verweisen so dargestellt (der Algorithmus hat viele leere Y-Ebenen eingebaut und die Objekte praktisch an zwei Polen gruppiert) :


Zitationsgraph von Biblionetz:b00710 als vis.js-Objekt mit extrem unbrauchbarem Layout

Auch bei Graphen, bei denen es nicht so extrem ist, liefert Graphviz meist kompaktere Ergebnisse als visjs, da Graphviz explizit eine Funktion bietet, um Objekte in Graphen näher zusammenrücken zu lassen. Eine Variante wäre, die Positionen der Objekte mit Graphviz errechnen zu lassen, aber dann als visjs-Objekt darzustellen. Machbar, aber benötigt Zeit zur Implementation…

Begriffsnetze und Tagclouds

Begriffsnetze und Tagclouds werden im Biblionetz schon seit längerem als vis.js-Objekte dargestellt. Nun habe ich die Funktionalität dieser Objekte erweitert.


Begriffsnetz des BEgriffs work-life-balance (Biblionetz:w03440) als vis.js-Objekt

Neu kann man nun auf in der Grossansicht des Graphen auf einen Begriff lange drauf klicken und das Biblionetz fügt danach das Begriffsnetzwerk dieses Begriffs zur ursprünglichen Grafik hinzu. Derzeit allerdings noch suboptimal: Der ganze Graph wird neu gelayoutet, statt dass die neuen Knoten zum bisherige Layout hinzugefügt werden und die neuen Knoten unterscheiden sich vom Aussehen nicht von den bisherigen. Alles implementierbar, nur: Woher die Zeit dafür nehmen…


Begriffsnetz des BEgriffs work-life-balance (Biblionetz:w03440) nachdem der Begriff Arbeitslosigkeit expandiert worden ist

Was ebenfalls noch fehlt: Ein Hinweis darauf, dass eine Grafik grad aufbereitet wird - grössere Graphen brauchen mit vis.js recht lange, bis sie dargestellt werden.

Technisches Detail

Bei dieser Erweiterung habe ich das mir bisher unbekanntes SQL-Konstrukt =IN= entdeckt. Bisher waren meine Graphen in der Grösse u.a. deshalb beschränkt, weil meine Datenbank bei zu vielen OR-Klauseln bei der Extraktion der Verbindungen zwischen Objekten reklamiert hat. Durch Verwendung des IN-Operators können nun meine Graphen massiv grösser werden… (was die Anzeige einer Fortschrittsanzeige beim Darstellen noch dringlicher macht) wink

Hier noch interessante Websites, die mir bei dieser Tätigkeit in den letzten Tagen begegnet sind:

@ENDE

@ANFANG 18 July 2024 WarumGMLSundNichtEinfachLLM Warum GMLS und nicht einfach LLM? Vor einiger Zeit habe ich beschlossen, möglichst auf den Begriff "künstliche Intelligenz" (Biblionetz:w00039) zu verzichten und stattdessen andere Begriffe zu verwenden (für eine Begründung siehe warum wir den Begriff KI vermeiden sollten oder auch Biblionetz:a01540).

Aktuell sieht mein Begriffsverständnis folgendermassen aus:



(Erklärung der Grafik als Video)

Weshalb habe ich den neuen Begriff Generative Machine-Learning-Systeme (Biblionetz:w02833) erfunden, statt einfach den bestehenden Begriff der Large Language Models zu verwenden? Hier meine Überlegungen:

  • LLM sind nicht gleich GMLS: Der Begriff "Large Language Model" bezeichnet streng genommen nur ein Modell und nicht ein Gesamtsystem. Somit ist z.B. GPT-4 ein LLM, ChatGPT aber nicht (ChatGPT nutzt ein LLM als Bestandteil).

  • Nutzung statt Funktionsweise: LLM bezeichnet eine Methode, wie etwas erreicht wird. GMLS beschreibt den Output eines Systems (es generiert etwas). Es ist gut möglich, dass künftig auch generierende Systeme entwickelt werden, die unter der Haube anders funktionieren (kein LLM verwenden). Für den Bildungskontext ist mir die Anwendung solcher Systeme wichtiger als die Funktionsweise.

  • Unerwünschte Assoziationen: Mit dem Begriff "Large Language Model" verbindet sich oft die falsche Annahme, dass es nur um Texte geht, weil "Language" im Alltagsverständnis meist etwas mit Text zu tun hat. Der Begriff GMLS vermeidet diese Assoziation zur reinen Textproduktion.

  • Betonung des Algorithmischen: Das "Generieren" im Begriff GMLS betont, dass Computer Medien sind, bei denen nicht einfach das wiedergegeben wird, was im Medium gespeichert wurde (anders als bei Büchern, Videos etc.). Der Begriff "Modell" kann auch als "Abbild" verstanden werden. Mir ist wichtig aufzuzeigen, dass GMLS mehr machen als "Abbilden".

  • Verortung: Mit dem Begriff "generative Machine-Learning-Systeme" wird bereits im Begriff deutlich:
    • a) Es handelt sich um eine Anwendung von machine learning
    • b) Es gibt noch andere Anwendungen von machine learning

  • Im Bildungskontext will ich aufzeigen, dass "Generieren" nur eine Anwendung von machine learning ist und wir uns ebenfalls auf das "Analysieren" und "Voraussagen" konzentrieren müssen.

@ENDE

@ANFANG 04 January 2024 InformationsflutPegelstandanzeige Die Informationsflut-Pegelstandanzeige Kürzlich habe ich mir meine persönliche Informationsflut-Pegelstandsanzeige gebaut. Einerseits als technische Spielerei, damit ich mich wieder einmal mit Webechnologien wie REST-APIs etc. auseinandersetze und andererseits weil ich erleben wollte, wie sich diese Facette von quantified self (Biblionetz:w02356) anfühlt.

pegelstand01.png
Veralteter Screenshot meiner Informationsflut-Pegelstandsanzeige

Technische Aspekte

Umgesetzt habe ich diese Pegelstandsanzeige als zwei Sensoren in meinem Smarthome-System (Home Assistant), das bei mir zu Hause auf einem Raspberry Pi läuft.

Mailcounter

Da meine berufliche Mail über die Microsoft-Cloud läuft, habe ich via Power Automate von Microsoft einen Mechanismus zusammengestellt, der alle 5 Minuten per Rest-API-Aufruf meinem Raspberry Pi mitteilt, wie viele Mails sich derzeit in meiner Inbox befinden.

pegelstand02.png
Veralteter Screenshot meiner Informationsflut-Pegelstandsanzeige

Der bei Microsoft Flow genannte Ablauf wird alle 5 Minuten ausgelöst und holt sich über einen https-Aufruf beim MS-Graph ein json-Object, das die Anzahl Mails in meiner Inbox enthält:

https://graph.microsoft.com/v1.0/me/mailFolders/inbox/totalItemCount

Im nächsten Schritt wird die benötigte Zahl aus dem json-Objekt extrahiert und im letzten Schritt als REST-API-Aufruf meinem Home-Assistant-Instanz weitergereicht:

https://meine-geheime-homeassistant-adresse.org:port/api/states/input_number.mailcounter

Den Rest der graphischen Aufbereitung sowie der Speicherung einer History übernimmt alles Home Assistant.

Tabcounter

Den Tabcounter habe ich als selbst zusammengestiefelte kleine Chrome-Extension umgesetzt. (Viel musste ich nicht selbst programmieren, ich konnte die bestehende Chrome-Extension HA-Cinema-Time anpassen, indem ich einfach an der passenden Stelle chrome.tabs.query() einsetzen und den Code an passender Stelle auf meinem Computer deponieren musste.

Nun meldet mein Chrome-Browser bei jedem Öffnen und Schliessen eines Tabs die aktuelle Zahl meiner offenen Chrome-Tabs an meine Home-Assistant-Instanz.

Technisch war das Gebastel für mich lehrreich und hat mir wieder einmal gezeigt, wie standardisierte Schnittstellen zur Mächtigkeit der Digitalisierung beitragen, indem neue Systeme mit vergleichsweise geringem Aufwand als Puzzles aus bestehenden Bestandteilen zusammengesetzt werden können (sprich: Das Rad muss nicht dauernd neu erfunden werden).

Inhaltliche Aspekte

Ich finde die Pegelstandanzeige für mich persönlich interessant und hilfreich. Sie ergänzt mein Bauchgefühl, ob ich grad von Informationen geflutet oder ob ich ihr einigermassen Herr werde. Von zeit zu Zeit reserviere ich mir explizit Zeit, um die beiden Pegel zu senken, da dienen die Anzeigen als simple, aber erfolgreiche Motivationshilfe.

Da Arbeitskolleg:innen manchmal wissen möchten, wie stark ich grad belastet bin, habe ich mir schon überlegt, ob ich diese Pegelstandanzeigen auch automatisiert meiner Wochenplan-Mail beilegen sollte. Das ist aber vermutlich aus verschiedenen Gründen keine gute Idee:
  • Die Zahl meiner Mails in der Inbox und offener Browser-Tabs sagt sehr wenig über meine echte Arbeitslast aus und lässt sich vor allem nicht mit den Zahlen anderer Menschen vergleichen:
    • Inboxen können leicht durch alle möglichen Notifications und Newsletter verstopft werden, wenn man diese nicht konsequent abmeldet.
    • Auch ohne Newsletter etc. benötigt nicht jede Mail und jedes Browser-Tab den gleichen Verarbeitungsaufwand. Die reine Zahl an Mails und Tabs sagt somit sehr wenig über den effektiven Arbeitsberg aus.
  • Relevant ist eigentlich nicht die absolute Zahl, sondern die Veränderung in jüngerer Vergangenheit: Es ist nicht wichtig, wie viele Mails oder Tabs insgesamt noch auf mich warten, sondern ob mehr Informationsobjekte reinkommen als ich verarbeiten kann. Somit müsste ich eigentlich keine Pegelstandanzeigen versenden sondern Steigungsindikatoren.
  • Und als letztes lässt sich aus den Zahlen auch nicht ablesen, ob ich Mails und Tabs aus Faulheit oder Überlastung nicht verarbeitet habe.

Fazit: Ich werde die Pegelstandanzeigen weiterhin nutzen, aber nur für mich privat.

@ENDE

@ANFANG 06 December 2023 FremdeinschaetzungICTliteracy Sind Fremdeinschätzungen von ICT-literacy zuverlässig? Diese Woche ist die neueste Auflage der Pisa-Studie erschienen (Biblionetz:w03097). Das grosse öffentliche Interesse richtet sich auf die Lese- und Mathematikkompetenzen der 9. Klässler:innen. Ich habe mich - nicht überraschenderweise - auf die Kapitel der Länderberichte gestürzt, die sich mit dem digitalen Zeugs beschäftigen:

Dabei bin ich u.a. an folgender Passage aus dem Deutschen Länderbericht hängengeblieben:

Darüber hinaus nehmen Schulleitungen in Deutschland die technische und pädagogische Kompetenz der Lehrkräfte für den Einsatz digitaler Geräte mit über 92 Prozent signifikant häufiger als ausreichend wahr als Schulleitungen im OECD-Durchschnitt (88 %). International wird folglich die technisch-pädagogische Kompetenz der Lehrkräfte von den Schulleitungen überwiegend als ausreichend empfunden.

Das klingt doch erfreulich - oder? Gemäss dieser Einschätzungen wissen Lehrkräfte in der OECD, wie man digitale Medien technisch und pädagogisch einsetzt, grössere Weiterbildungsinitiativen sind damit eigentlich überflüssig, oder?

Ich will ja den Lehrkräften nicht zu nahetreten und ihnen Kompetenzen absprechen, aber diese Einschätzung von Schulleitungen widerspricht sowohl meiner direkten als auch meiner indirekten Erfahrung mit Lehrkräften. Auf die Gefahr hin, armchair-reasoning zu betreiben, wage ich zu behaupten: Nein, viele Lehrkräfte wissen weder technisch noch pädagogisch, wie man digitale Medien sinnvoll einsetzen kann. (Daran sind sie meistens nicht selbst schuld).

Wie kommet es denn dazu, dass Schulleitungen in einer PISA-Befragung eine solche Einschätzung abgeben? Ich habe drei Hypothesen:

  • H1: Die Schulleitungen haben selbst wenig Ahnung davon, was man eigentlich technisch und pädagogisch bezüglich Digitalisierung als Lehrperson wissen müsste (eine Art Dunning-Kruger-Effekt (Biblionetz:t06119) bezüglich Fremdeinschätzung).
  • H2: Die Schulleitungen sind sich bewusst, dass sie wenig davon verstehen und denken sich: "Naja, ich kann ja von den Lehrpersonen nicht mehr verlangen als ich auch selbst weiss. Mehr vom Digitalen zu verstehen als ich ist eine absurde Forderung."
  • H3: Die Schulleitungen möchten nicht den Eindruck erwecken, als hätten sie ihre Aufgaben nicht gemacht: "Ich werde ja wohl meine Schule so organisiert haben, dass die Mitarbeitenden kompetent sind, oder?" Löblich und verständlich, aber trotzdem evtl. problematisch.

Schon 2006 habe ich mich im Blog bezüglich der damaligen PISA-Erhebung gefragt, ob denn Selbsteinschätzungen der eigenen ICT-literacy zuverlässig seien (Biblionetz:f00124). Nun 2023 muss ich die Frage ausweiten auf Sind Fremdeinschätzungen der ICT-literacy zuverlässig? @ENDE

@ANFANG 25 July 2023 BauplanFuerEineSeele Sommerlektüre: Bauplan für eine Seele

Die Veröffentlichung von ChatGPT Ende November 2022 hat nicht nur das Konzept von machine learning (Biblionetz:w02863) ins gesellschaftliche Bewusstsein katapultiert (auch wenn nicht von machine learning sondern von künstlicher Intelligenz gesprochen wird).

Neben vielem anderen hat ChatGPT auch die alte Diskussion wieder aufflammen lassen, ob denn Computer denken und gar Bewusstsein haben könnten. Auch wenn das für mich zu den drängendsten Fragen gehört, die wir uns im Zusammenhang mit ChatGPT & Co. stellen müssen, sind es doch spannende philosophische Fragen, die mich an meine Studienzeit zurückerinnern.

Einerseits hatte ich im Informatikstudium an der ETH Zürich (1990-1996) Lehrveranstaltungen zu Expertensystemen und neuronalen Netzwerken, andererseits habe ich privat mit grossem Interesse Bücher zum Thema Künstliche Intelligenz gelesen, auch wenn dies damals noch nicht sehr alltagsrelevant, sondern mehr futuristisch erschien. Es ist somit kein Zufall, dass sich die ersten Fragen im Biblionetz mit solchen Fragen in der Schnittmenge von Informatik und Philosophie beschäftigen:

Ein paar Jahre nach dem Studium habe auch ich eine Art KI-Winterschlaf erlebt und das Thema ist aus meinem Fokus meines Interesses weitgehend verschwunden (sichtbar an den nur noch spärlichen Einträgen im Biblionetz (orange Balken)):

Jetzt mit dem Wiederaufflammen der allgemeinen öffentlichen Diskussion habe ich mich an frühere Lektüren zurückerinnert. Ich hätte damals nie gedacht, welche Beachtung die Informatik allgemein und nun die Fragen rund um KI dereinst je erreichen würden. Aktuell überbieten sich die Massenmedien und Neuerscheinungen mit einem KI-Hype sondergleichen. Um mich wieder für das Thema fit zu machen, habe ich mir deshalb vorgenommen, ältere Publikationen (erneut) zu lesen, die ohne Schnappatmung erläutern, was künftig wie möglich sein könnte. Ich verpasse zwar damit die neusten technischen Tricks, aber dafür erhoffe ich mir grössere Klarheit bei den grundlegenden Fragen.

Weil ja Sommerferien anstehen und ich mich auch wieder einmal vom bei mir heute üblichen schriftlichen Kurzfutter lösen wollte, habe ich das dickste verfügbare Buch (831 Seiten) aus dem Gestell geklaubt: Bauplan für eine Seele (Biblionetz:b01593) von Dietrich Dörner:

Dietrich Dörner ist emeritierter Professur für Psychologie und allgmeiner bekannt als Autor des Buches Logik des Misslingens (Biblionetz:b00219). Ich finde es spannend, eine Beschreibung der Möglichkeiten nicht von Informatiker:innen sondern aus der Sicht der Psychologie zu lesen. Dörner schreibt in der Einleitung, dass er das Buch unter anderem geschrieben hat um zu zeigen, dass die Psychologie eine Wissenschaft sei mit falsifizierbaren Modellen:

Wollen wir aber unser Seelenleben nicht als ein Gefüge von Wenn-dann-Aussagen ansehen, kommen wir hinsichtlich der Psychologie in eine schwierige Lage. Wir müßten dann nämlich akzeptieren, daß die Psychologie als Wissenschaft allenfalls teilweise möglich ist. Könnten wir nachweisen, daß sich manche psychische Prozesse nicht «maschinell», also aus einem - wie auch immer komplizierten - Gefüge von Wenn-dann-Aussagen, herleiten ließen, stünden wir vor einem Problem: Wir könnten diese Prozesse nicht erklären und somit auch keine Theorien für sie konstruieren. Damit aber würde sich die menschliche Seele dem wissensschaftlichen 2ugriff entziehen, und die Psychologie wäre eigentlich gar keine Psychologie, keine Seelenwissenschaft, sondern allenfalls Seelenkunde, eine Beschreibung dessen, was hier und da, dann und wann vorkäme.

Dörner beschreibt in seinem Buch die Funktionsweise einer Dampfmaschine namens PSI, erläutert, welche Funktionen eine solche Maschine zum Überleben benötigt und wie sich dies mit Dampfneuronen bewerkstelligen lässt.

Das Buch scheint nur physisch publiziert worden zu sein, was nicht nur angesichts des Projekts "Ferienlektüre" bei über 800 Seiten nicht optimal scheint, sondern auch zum Zitieren und automatisierten Erfassen eher mühsam ist. Vielleicht muss ich das Buch antiquarisch ein zweites Mal kaufen und danach einscannen.

Kurzfassungen / Alternative Darreichungsformen

Wem 830 Seiten vielleicht doch etwas zu viel sind: Es gibt eine Kurzfassung von 39 Seiten unter Das Leben von Ψ PDF-Dokument (Biblionetz:t30418) online frei verfügbar und bei Archive.org ist die Aufzeichnung eines Vortrags aus dem Jahr 2000 (Biblionetz:t30419) verfügbar:

Eine alternative, ähnlich ausgerichtete Lektüre ist das Buch Mentopolis / The Society of Mind (Biblionetz:b01496) von Marvin Minsky, erschienen bereits 1985:

@ENDE

@ANFANG 24 June 2023 SolltenWirWenigerArbeitenWeilUnsDieDigitalsierungRoutinearbeitenAbnimmt Sollten wir weniger arbeiten weil uns die Digitalsierung Routinearbeiten abnimmt?

Dies ist vorerst nur lautes Denken und evtl. nicht zu Ende gedacht.

decision-fatigue.png

Die Digitalisierung nimmt uns kognitive Routinearbeiten ab: Alles was ich mit Regeln beschreiben kann, lässt sich automatisieren. Soweit so bekannt. Uns Menschen bleiben somit diejenigen Arbeiten, bei denen es keine simplen Regeln gibt, die man einfach befolgen kann - sprich: Wir müssen Dinge klären und Entscheiden. Wenn dies zutrifft, steigt unsere Entscheidungsdichte (Anzahl Entscheide pro Zeiteinheit).

Als Entscheidungsmüdigkeit (englisch: decision fatigue) wird von einigen Expert:innen das Phänomen beschrieben, dass uns Entscheide müde machen und es uns nach mehreren Entscheiden immer schwerer fällt, gute Entscheide zu fällen. (Biblionetz:w03441, Wikipedia:Decision_fatigue). Ob es diese Entscheidungsmüdigkeit allerdings tatsächlich gibt, ist nicht unumstritten.

Sollte es das Phänomen der Entscheidungsmüdigkeit tatsächlich geben, so wäre es sinnvoll, wenn wir angesichts der Digitalisierung unsere Wochenarbeitszeit reduzieren bzw. Teilzeit (Biblionetz:w03363) arbeiten würden.

Kommentare:

Oder die Entscheidungsdichte senken. Vlt. zugunsten der Qualität der Entscheidungen und Zufriedenheit der Beschäftigten?

-- WikiGuest - 01 Jul 2023 @ENDE

@ANFANG 24 June 2023 VerlaengertDieDigitalisierungDieNotwendigeAusbildungszeit Verlängert die Digitalisierung die notwendige Ausbildungszeit?

Dies ist vorerst nur lautes Denken und evtl. nicht zu Ende gedacht.

verlaengerte-ausbildungszeit.png

Die Digitalisierung (Biblionetz:w01513) (derzeit erkennbar und heiss diskutiert am Phänomen Textgeneratoren (Biblionetz:w02833)) erhöht das kognitive Anspruchsniveau für berufliche Tätigkeiten. Sehr salopp formuliert: Ich muss etwas besser können als ChatGPT & Co., sonst werde ich nicht angestellt werden.

Wenn nun die kognitive Leistung von Computern zunimmt (exemplarisch sichtbar an der verbesserten Prüfungsleistung von GPT 4 im Vergleich zu GPT 3.5 (Biblionetz:a01518)), dann benötige ich eine längere Ausbildung, um dieses Niveau ebenfalls zu erreichen (ausser die Ausbildung kann durch Digitalisierung im gleichen Ausmass effizienter werden).

@ENDE

Number of topics: 10

Kontakt

  • Beat Döbeli Honegger
  • Plattenstrasse 80
  • CH-8032 Zürich
  • E-mail: beat@doebe.li