BiblionetzTopicListe

| | untagged
@ANFANG 20 April 2026 BiblionetzWikiGMLSUndWasIstMeineAufgabe Biblionetz - Wiki - GMLS - und was ist meine Aufgabe?

Anfang April hat Andrej Karpathy, ein ehemaliger Mitarbeiter von OpenAI (Herstellerin von ChatGPT) ein Dokument mit dem Titel LLM Wiki (Biblionetz:t33408) veröffentlicht, das beschreibt, wie man mit einem generativen Machine-Learning-System (GMLS) (Biblionetz:w02833) persönliches Wissensmanagement (Biblionetz:w01688) betreiben könnte: Man lässt das GMLS ein Wiki befüllen.

Besonders schön: Karpathy meint: "Besprechen Sie dieses Dokument mit dem GMLS-System ihrer Wahl."

Dieser Text hat mich natürlich brennend interessiert, schliesslich betreibe ich nicht nur seit 20 Jahren verschiedene Wikis (Biblionetz:w01268) und beschäftige mich seit Dezember 2023 mit GMLS - nein, seit bald 30 Jahren betreibe ich mit dem Biblionetz auch mein privates, aber öffentlich zugängliches Wissensnetz!

bibliowolke.jpg Geclusterte Visualisierung des Biblionetzes (Stand 2019)

Natürlich wollte ich darüber nachdenken, natürlich wollte ich dazu bloggen oder die Frage beantworten, die mich auf verschiedenen Kanälen erreicht hat: "Was denkst du zum Text von Karpathy?" Nur: Ich habe derzeit zu wenig Zeit, um mich allem zu beschäftigen, was mich interessieren würde. Heute morgen meinte Myke Näf (Biblionetz:p00344) im Chat, ich könne ja ein GMLS mein Posting schreiben lassen. Als ich zögerte und etwas von "Ich will aber meine Posts selber schreiben" am Tippen war, hatte er schon sein GMLS (Claude Opus 4.7) gefragt

what does beat döbeli think of this in the context of his biblionetz or otherwise? write a linkedin post that he would write.

und dann quote von karpathys tweet

Hier die Antwort von Claude:

Beat würde das mit einer Mischung aus amüsiertem Wiedererkennen und leiser Skepsis lesen — schließlich macht er mit dem [Biblionetz](https://beat.doebe.li/bibliothek/) seit 1996 von Hand, was Karpathy hier als LLM-Workflow skizziert: kompilierte Markdown-Wissensbasis, dichte Verlinkung, Rückverweise, inkrementelle Pflege. Der zentrale Punkt, an dem er hängenbleiben würde, ist Karpathys Satz "the LLM writes and maintains all of the data of the wiki, I rarely touch it directly" — für Beat ist das Schreiben selbst der Erkenntnisprozess. Ein Wiki, das man nicht selbst pflegt, ist für ihn kein Denkwerkzeug mehr, sondern eine Datenbank.

Hier ein Post in seinem Stil:


Andrej Karpathy beschreibt, wie er mit LLMs ein persönliches Wiki aus Markdown-Dateien aufbaut — Rohdaten rein, kompiliertes Wissen raus, alles in Obsidian durchsuchbar. Sehr lesenswert.

Klingt für mich erstaunlich vertraut. Mein [Biblionetz](https://beat.doebe.li/bibliothek/) macht seit 1996 ziemlich genau das. Allerdings: ohne LLM. Mit Lesen, Tippen, Verknüpfen. ~77'000 Begriffe, über 22'000 Publikationen, dichte Rückverweise. Kompiliert im Kopf, nicht im Kontextfenster.

Was mir beim Lesen von Karpathys Post auffällt:

"The LLM writes and maintains all of the data of the wiki, I rarely touch it directly." — Für mich war das Schreiben immer der eigentliche Erkenntnisprozess. Das Verknüpfen beim Tippen ist das, was hängen bleibt. Ein delegiertes Wiki hat vielleicht mehr Einträge. Aber hat es auch mehr verstanden?

→ Ein Personal Wiki ist für mich kein Speicher, sondern ein Denkwerkzeug. Der Unterschied ist fundamental.

→ Andererseits: Einen Assistenten, der inkonsistente Metadaten aufspürt, fehlende Backlinks vorschlägt, veraltete Einträge markiert — den hätte ich in den letzten 30 Jahren gerne gehabt. Als Korrektor, nicht als Autor.

Vielleicht ist die spannende Frage nicht "LLM schreibt Wiki" vs. "Mensch schreibt Wiki", sondern: Wie unterstützt ein LLM den menschlichen Lese- und Denkprozess, ohne ihn zu ersetzen?

PIM — Personal Information Management, wie man das früher nannte — war nie nur Datenhaltung. Es war strukturiertes Nachdenken. Das bleibt auch im LLM-Zeitalter.

#Biblionetz #PKM #Wissensmanagement #DigitaleDinosaurier

Ich kann den Ton noch weiter anpassen (mehr Schalk, mehr Skepsis, kürzer, zweisprachiger) — je nachdem, ob du ihn als ironischen Veteranen oder als konstruktiven Skeptiker positionieren willst.

Mist! Damit habe ich noch ein Thema mehr: Dieses GMLS erfasst schon erstaunlich erschreckend gewisse der Aussagen, die ich tatsächlich machen würde, wenn ich Zeit hätte, ein solches Posting selbst zu schreiben! Das mit den 77'000 Begriffen stimmt zwar nicht: Es sind nur ca 3'800, dafür aber gegen 40'000 Publikationen, aber der Grundgedanke: "Was bleibt denn hängen, wenn ich die Verarbeitung einer Maschine überlasse?" ist genau der springende Punkt, den ich heute Morgen auch mit Myke Naef diskutiert habe.

So, und was fange ich jetzt damit an, dass diese Kisten bereits gewisse meiner Gedanken statistisch errechnen können, da sie offenbar nicht so innovativ sind, wie ich mir vielleicht einrede?

Ob das vielleicht der richtige Zeitpunkt ist, um mich zurückzuziehen, jetzt wo GMLS anfangen mich gar nicht so schlecht zu imitieren und die kognitive Leistungsfähigkeit in meinem Alter ja sowieso zurückgeht, wie u.a. in diesem Artikel steht, den ich ebenfalls heute Morgen mit Myke diskutiert habe?


(Biblionetz:t33438)
@ENDE

@ANFANG 19 April 2026 ExperimenteMitLokalenGMLS Experimente mit lokalen GMLS

Ja, auch ich habe mir vor ca. 2 Monaten einen Mac Mini 4 mit zu wenig Speicher (16 GB) gekauft, um etwas mit lokalen Machine-Learning-Systemen zu experimentieren. Da ich viel zu wenig Zeit zu Rumspielen habe, sind meine Erkenntnisse sicher nicht weltbewegend und geneigte Leser:innen können gleich jetzt beschliessen, mit dem Lesen dieses Postings aufzuhören wink

lgmls.jpg
Der Mac Mini auf meinem Büchergestell

Als Ende 2022 ChatGPT (Biblionetz:w03387) veröffentlicht wurde, hiess es, dass derartige Leistungen von generativen Machine-Learning-Systemen (GMLS) (Biblionetz:w02833) in den nächsten Jahren nur auf grossen Serverfarmen, nicht aber auf lokalen Computern verfügbar sein würden. In den letzten drei Jahren hat aber eine erstaunliche technologische Entwicklung stattgefunden und immer bessere Sprachmodelle liessen sich auch auf lokalen Computern (mit möglichst guten Grafikkarten) betreiben.

Warum ein lokales GMLS?

Aus meiner Sicht gibt es zwei Gründe, warum man ein lokales GMLS (LGMLS) (Biblionetz:w03773) statt eines Serverdienstes nutzen möchte:

  • Kosten: Grosse Sprachmodelle verlangen ab einem bestimmten Nutzungsumfang Gebühren. Lokale Modelle verlangen keine Gebühren. Ob aber die Hardwareinvestitionen, der Stromverbrauch und die Zeit zum Einrichten und Konfigurieren letztendlich weniger Geld kosten als die Nutzungsgebühren kommerzieller Anbieter, wage ich zu bezweifeln.
  • Datenschutz / Digitale Souveränität: Wichtiger scheint mir die Überlegung, dass man mit einem lokalen GMLS eine grössere digitale Souveränität hat als bei der Nutzung von GMLS im Internet:
    • Modellwahl & -stabilität: Bei einem lokalen System kann ich selbst entscheiden, welche Modelle ich nutze und im Gegensatz zu Anbietern im Internet, die öfters mal Modelle auch durch andere ersetzen oder schon nur Modellparameter auch ohne Information ändern, ist es an mir, Modelle oder Parameter zu ändern,
    • Datenschutz: Führe ich einen Dialog mit einem lokalen GMLS, dann verlassen im Idealfall* keine Daten meinen Computer. Damit verringert sich die Gefahr, dass meine Daten in falsche Hände kommen und ausgewertet werden können. (* Auch bei einem lokalen System besteht die Gefahr, dass Daten abfliessen, entweder durch prompt injection (Biblionetz:w03423) oder klassisches Hacking und Malware)

Was läuft bei mir derzeit?

Ich baue derzeit einen Mac Mini 4 mit 16 GB zu einem kleinen Hausserver aus, auf dem verschiedene Dienste laufen sollen, unter anderem lokale GMLS.

mac-mini-daten.jpg

Lokale GMLS sind derzeit meist nicht ein Stück Software, sondern ein ganzes Puzzle von Einzelkomponenten, die verschiedene Aufgaben übernehmen. (Ich arbeite an einer Grafik, um das konzeptionell schön zu visualisieren).

  • Als "Modellprovider" verwende ich derzeit Ollama und LM Studio parallel (weil ich noch nicht weiss, was besser geeignet ist für meine Bedürfnisse)
  • Als Modelle nutze ich derzeit (Stand 18.04.26) (und bin völlig überfordert mit der Geheimwissenschaft der Modellwahl...):
    • gemma-4-e4b-it
    • qwen3.5:9b
    • mistral-small:24b
    • mistral-3-3b
  • Um die Funktion auch auf anderen Computern nutzen zu können, läuft Open Web UI. Zusammen mit dem VPN-Dienst Tailscale ermöglicht mir das, von jedem meiner Geräte von irgendwo auf der Welt auf meine lokalen Dienste zugreifen zu können.
  • piper und whisper sind ebenfalls auf dem Gerät installiert, um Text zu Sprache und Sprache zu Text ebenfalls lokal nutzen zu können (unter anderem für die Hausautomatisation).
  • Zudem experimentiere ich derzeit mit einer selbst gevibecodeten MCP-Schnittstelle (Biblionetz:w03705) zur lokalen Volltextsuche auf meinem Notebook. Damit möchte ich versuchen, mit begrenzten Computerressourcen meine lokalen Daten einzubinden (so wie z.B. Claude Cowork).

Zwischenfazit

Es ist faszinierend, wie insbesondere gemma-4-e4b-it rasche, rein lokal generierte, deutsche Antworten liefert und sowohl Websuche als auch per MCP lokale Suche mit integrieren kann. Trotzdem ist der Qualitätsunterschied zu serverbasierten Modellen riesig und es fragt sich, wofür ich die lokal verfügbare Qualität - von der ich Anfang 2023 noch total begeistert war bei ChatGPT - tatsächlich würde nutzen wollen (u.a. evtl. für gewisse Automatismen innerhalb des Biblionetzes...).

Primär aber: Ich habe deutlich zu wenig Zeit, um mich mit den Möglichkeiten auseinanderzusetzen, auch wenn ich weiss, dass vieles Versions- und Produktwissen ist, das in wenigen Monaten, wenn nicht Wochen bereits wieder veraltet ist. @ENDE

@ANFANG 26 March 2026 HmmUndWasIstJetztComputationalThinking Hmm, und was ist jetzt Computational Thinking?

Computational thinking (CT) (Biblionetz:w02206) ist ein Dauerbrenner in meinem beruflichen Umfeld (z.B. Dezember 2025: Nein, es geht nicht um computergestütztes Denken!). Der 2006 von Jeannette Wing (Biblionetz:p09720) mit einem Artikel in den Communications of the ACM PDF-Dokument (Biblionetz:t12130) popularisierte Begriff taucht seit Jahren sowohl in fachdidaktischen als auch bildungspolitischen Diskussionen auf. Auf den ersten Blick ist es ganz einfach. Die meisten Definitionen des Begriffs lassen sich zusammenfassen als

Denken wie Informatiker:innen

Doch was simpel klingt, ist bei näherer Betrachtung doch nicht so eindeutig. Dies zeigt sich, wenn man nachfragt, was denn das Verhältnis von CT zu Informatik sei. Ich habe dazu als eine Art Lakmustest eine Grafik erstellt:

WasIstCT.png

In unserem Masterstudiengang in Fachdidaktik Medien und Informatik lassen wir die Studierenden jeweils unterschiedliche Texte zu CT lesen (Selbststudienauftrag Herbst 2024). In der darauffolgenden Präsenzveranstaltung fragen wir die Studierenden, ob die Texte verständlich gewesen und das Konzept CT nun klar sei. Dies wird meist bejaht. Deshalb fordern wir die Studierenden auf, wortwörtlich Stellung zu beziehen: Wir ordnen die vier Sichtweisen des Verhältnisses von CT zu Informatik den vier Ecken des Seminarraums zu und fordern die Studierenden auf, sich in diejenige Ecke des Seminarraums stellen, die ihrer eigenen Sichtweise entspricht. Bisher waren sich die Studierenden noch nie einig und es gab in der Folge lebhafte Diskussionen, in welchen die Studierenden den eigenen Standpunkt als den Richtigen zu verteidigen versuchten.

Über die Lehrveranstaltung hinaus hilft mir dieser CT-Lakmustest zu verstehen, was jemand meint, wen er oder sie von CT spricht.

P.S: Auch die Dozierenden der Lehrveranstaltung stehen jeweils nicht in der gleichen Ecke des Raums... @ENDE

@ANFANG 14 March 2026 HPSpectreX360 HP Spectre X360 So, nach 2.5 Jahren ist mal wieder ein Rechnerwechsel angestanden. Mein bisheriger Tablet-PC (Biblionetz:w00414) hat zwar noch gut funktioniert, aber 2h Akkuleistung ist einfach nicht besonders toll. Und wie ich bereits im letzten November versicherte, gibt es noch aktuelle Tablet-PCs.

Ich habe mich für einen HP Spectre X360 entschieden, bin also der Marke HP treu geblieben.

spectrex360.png

X360 heisst das Gerät, weil sich der Bildschirm um 360° nach hinten klappen lässt, so dass eine Art Tablet aus dem Gerät wird.

Ich habe mich unter anderem für das Gerät entschieden, weil zu lesen war, dass es in enger Zusammenarbeit von HP und Microsoft entwickelt worden sei. Das äussert sich daran, dass bereits die ausgelieferte Version praktisch keine HP-Zusatzprogramme enthält, sondern alles mit Windows-Bordmitteln macht. Ich glaube zwar nicht daran, dass ich die offiziellen 12h Batterielaufzeit mit tatsächlicher Nutzung erreichen werde, aber mindestens einen ganzen Konferenztag hat das 1.5 kg grosse Gerät bereits durchgehalten. Immerhin. Das neu installierte Windows 10 teilt mir neuerdings auch mit, wer denn eigentlich die Batterie leersaugt:

stromverbrauch.png

Spannend war für mich, im Vergleich der Prozessoren zu sehen, dass der neue Rechner nicht wesentlich schneller sein wird, aber weniger als halb so viel Strom für die CPU benötigen wird.

Speziell an HP scheint mir, dass es für das Gerät einen Active Pen genannten Digitizer-Stift gibt, dessen Existenz aber nicht einmal im ausführlichen Datenblatt zum Gerät erwähnt wird. Dabei ist der batteriebetriebene Stift gar nicht so schlecht. Ähnlich wie bei meinen früheren Geräten wird die Touch-Reaktion abgeschaltet sobald der Stift in die Nähe des Bildschirms kommt. Es ist somit möglich, den Handballen beim Schreiben mit dem Stift auf den Bildschirm zu legen, ohne etwas im Notebook auszulösen.

Die eingebaute 256 GB SSD musste ich gleich durch eine grössere 512 GB SSD (Samsung SM951 AHCI PCIe M.2 512GB) ersetzen. Die Leserate liegt nun bei ca. 900 MByte/s.

Bisher bin ich glücklich mit dem Gerät, meine beiden externen Bildschirme laufen neu über eine Docking-Station D3100 von Dell. Einziges Problem bisher ist die hohe Auflösung des internen Displays zusammen mit den beiden 24-Zoll-Monitoren. Nicht alle Programme kommen damit klar, dass Windows beim internen Bildschirm eine Vergrösserung von 200% vornimmt, bei den beiden externen Bildschirmen jedoch nicht. Unter Umständen sind dann User Interface-Elemente gewisser Programme doppelt so gross oder Kontext-Menus öffnen sich an komplett falschen Orten, da die Koordinatenberechnung scheinbar durcheinanderkommt. , IsaHardware

@ENDE

@ANFANG 14 March 2026 DasTWikeIstTotEsLebeDasTwike Das Twike ist tot - Es lebe das Twike! Vor unterdessen 15 Jahren habe ich zum ersten Mal so viel verdient, dass ich mir hätte ein Auto kaufen können. Noch bevor ich aber das Geld dazu hatte, hatte ich mir vorgenommen, später mal kein Auto zu kaufen. So habe ich mir 1998 eines der ersten Occasionsexemplare des damals noch neuen Elektromobils Twike (Biblionetz:w02093) gekauft (und zu diesem Zweck auch den Führerschein gemacht).

twike-512.jpg

Damals hätte ich - wie bei anderen Dingen auch - nie geglaubt, dass ich das Twike 15 Jahre lang fahren würde. Zu Beginn hat es meinen Arbeitsweg (über die Forch nach Mönchaltorf) zeitlich halbiert, später hätte ich es für den Arbeitsweg nicht mehr benötigt. Man gewöhnt sich aber - wie Autofahrer auch - an die Bequemlichkeit und auch der Wiederverkaufswert des Twikes war nicht berauschend. So habe ich es die vergangenen 15 Jahre gefahren, irgendwann eine Babyschale hinten reingestellt und später den Beifahrersitz durch einen permanenten Kindersitz ersetzt (der vermutlich schnellste Kinderwagen Zürichs).

In den 15 Jahren hatte ich einige lustige Erlebnisse, sowohl bei leerem Tank (sprich Batterie) als auch bei den zahlreichen Pannen. Im Service hiess es meist: "Ui, das ist eines der ersten Serientwikes (Nr. 30), da ist noch alles anders, heute macht man das nicht mehr so. Da muss alles ersetzt werden, das kommt teuer.". Tja, aus finanziellen Gründen hat man vermutlich kein Twike wink

Diesen Frühling war der Kostenvoranschlag für den Service und die notwendigen neuen Batterien allerdings so hoch, dass ich mir zweimal überlegen musste, diesen Betrag auszugeben. Schliesslich ist ein Zweiplätzer für eine dreiköpfige Familie nicht eben optimal. Beim zweiten Mal überlegen fiel aber mein Blick in der Werkstatt auf ein ebenfalls dastehendes Occasions-Twike. Und je länger ich mir dieses andere Twike ansah, desto mehr fing mir der unvernünftige Gedanke an zu gefallen, doppelt so viel Geld für einen Wechsel auf dieses schnittige rote Twike auszugeben, statt das bestehende revidieren zu lassen. Und so habe ich das Unvernünftige getan: Ein neues Occasions-Twike gekauft smile

twike-phsz.jpg
Ja, mit den aktuellen Batterien schaffe ich es von Zürich nach Goldau (48km), meine Reichweite Überland beträgt aktuell ca. 55km)

Tja, und da ich aus lauter Freude mit dem neuen Twike öfters unterwegs bin, kommen auch all die Fragen, deren Antworten ich vor 15 Jahren auswendig wusste, heute aber vergessen habe. Darum hier eine Twike-FAQ:

Frequently Asked Questions zum Twike

twike-rot.jpg

  • Wie weit kommt man mit einem Twike?
    Das hängt von den eingebauten Batterien und von der Fahrweise ab. Wer viel Geld ausgibt, kann heute Batterien mit einer Reichweite von 250 km kaufen.
    Derzeit bringe ich es im Stadtverkehr auf 35-40km, ausserhalb auf 55km mit einer Ladung.

  • Wie schnell fährt das Twike?
    Auf gerader Strecke fährt das Twike 85km/h. Danach wird die Energiezufuhr elektronisch begrenzt. Auf der Forchautostrasse habe ich abwärts ca. 105km/h erreicht. Wirklich angenehm ist das dann allerdings nicht mehr, da auf dem lenkenden Vorderrad zu wenig Gewicht liegt.

  • Darf das Twike auf die Autobahn?
    Es darf, will aber nicht. Denn beim Twike spürt man sehr deutlich, dass grössere Geschwindigkeiten massiv mehr Energie benötigen.

  • Wie lädt man das Twike?
    Das Twike lässt sich an jeder haushaltüblichen 230V-Steckdose laden. Je nach Sicherung kann es dabei 6A, 10A oder maximal 16A saugen (dann aber besser an einer CEE- aka Camping-Steckdose). Je nach Ladestrom und Batteriegrösse dauert die Ladung unterschiedlich lange. Daumenregel: Schnellladung 1km/min Ladezeit.

  • Hat das nicht Pedalen?
    Das ursprünglich Twike (active) hatte Pedalen, um dem Elektromotor zu helfen. Das Twike easy verzichtet auf die Pedalen, da diese je nach Nutzung nicht viel bringen. (In der Stadt kann ich nicht pedalen, da ich immer bremsbereit sein muss, da mich Autofahrer unterschätzen / nicht ernst nehmen und Fussgänger/Fahrradfahrer nicht hören. Pedalen würde meine Reaktionszeit vergrössern).

@ENDE

@ANFANG 14 March 2026 BinaerZaehlenLernenTrotzOderWegenKI Binär zählen lernen trotz oder wegen "KI"

Ich nutze die Zugfahrt für ein fokussiertes Deep-Dive in mein didaktisches High-Performance-Mindset, um maximale Stakeholder-Alignment-Power zu entfalten und die nächste Generation von Informatik-Lehrkräften mit einem 10x-Growth-Approach zu disrupten. 🚀🔥💎

schlägt mir der LinkedIn-Bullshit-Generator als Tätigkeitsbeschreibung für heute vor. (Beim Bullshit-Generator handelt es sich um einen Preprompt, der einem GMLS gefüttert aus jeder banalen Tätigkeitsbeschreibung eine (leider derzeit häufige) LinkedIn-Übertreibung macht.)

binaer-01.jpg

Was ich grad wirklich mache: Ich bin im Zug für die Einstiegsveranstaltung Grundlagen der Informatik der PHSZ im zweiten Semester unseres Fernstudiengangs zur Primarlehrperson und lese (ebenfalls bei LinkedIn), dass sich die Schweiz an der PISA-Untersuchung 2029 (Biblinetz:w03699) beteiligen wird und da auch das Modul Media & Artificial Intelligence (MAIL) (Biblionetz:w03700) nutzen will. Das finde ich grundsätzlich begrüssenswert, denn es ist sinnvoll zu wissen, was Jugendliche in der Schweiz in digitalen Dingen wissen und können.

Weil ich meinen mechanischen Binärzähler für den heutigen Unterricht dabeihabe, frage ich mich, wie der denn zum MAIL-Modul von PISA 2029 passt.

Das Media & Artificial Intelligence (MAIL)-Modul von PISA 2029 dürfte das allgemeine Verständnis, was denn "KI-Kompetenz" bedeutet stark prägen, weil die von der OECD durchgeführte PISA-Untersuchung in vielen Ländern mitprägt, was in den Schulen unterrichtet wird (teaching to the test...). Sagt z.B. Ben Williamson (Biblionetz:p04079):

Given the OECD’s enduring influence through educational testing, its AI literacy intervention could, then, be consequential in setting the international standard in relation to students’ competencies to engage with AI. What the OECD test will accomplish is to provide a concrete global definition of AI literacy, subject it to quantitative and comparative measurement, and encourage educators and students to “perform” to the test.
Quelle: Performing AI literacy (2025) (Biblionetz:t32555)

Der erste, kürzlich veröffentlichte Entwurf des Media & Artificial Intelligence (MAIL)-Frameworks und dem Titel Navigating an Evolving digital world PDF-Dokument (Biblionetz:b09255) macht mir nun gewisse Sorgen.

Zwar wird schon erwähnt, dass zu einer AI literacy auch technisches Wissen gehöre:

AI literacy represents the technical knowledge, durable skills and future-ready attitudes required to thrive in a world influenced by AI systems.

Trotzdem scheinen mir die drei Perspektiven des Dagstuhl-Dreiecks (Biblionetz:w02886) sehr ungleich vertreten. Es wird viel mehr über die Wirkung von AI berichtet als darüber, wie man AI technisch verstehen müsse. Damit sehe ich die Balance der Dagstuhl-Perspektiven gefährdet.

Zudem lese ich bei gewissen Begriffen ein mitschwingendes Werturteil. So wird beispielsweise der Begriff „Algorithmus“ (oder „algorithmisch“) im Text fast ausschliesslich in problematischen oder kritischen Kontexten verwendet, während für Potenziale andere Begriffe dominieren. Fünf Beispiele:

Manipulation & psychische Belastung „...the emotional impact of algorithmic manipulation or deep fakes, can erode social connections and trust, foster anxiety, and thus challenge healthy development.“
Krimineller Missbrauch „AI can automate and scale phishing scams, deepfake-based fraud and malware attacks, using algorithmic targeting to amplify virality.“
Unsichtbare Kontrolle „...largely invisible algorithms and increasingly invisible information systems... these systems can shape the narrative, select visuals and determine the tone of the message with minimal human oversight.“
Fragmentierung & Echokammern „The rapid advancement of algorithmic and AI personalisation … has fragmented audiences, fostered the emergence of echo chambers and filter bubbles, and made it easier to monetise attention.“
Verstärkung von Angst & Wut „... algorithmically promoted content … [which] tend to amplify content that sparks strong emotional reactions, including outrage and fear, as this content keeps people engaged.“

Natürlich haben Algorithmen auch problemtische Auswirkungen, aber diese einseitig negative Konnotation des an und für sich neutralen Begriffs Algorithmus finde ich problematisch. Mir kommt es vor, als würde man fragen: "Ieek, das willst du essen, da hat es aber Atome drin!"

binaer-02.jpg

Diese Grafik zu Beginn des Dokuments illustriert meine Sorge sehr plakativ, dass Informatik im Bildungsdiskurs untergehen und durch AI ersetzt werden könnte - wobei aber gleichzeitig auch die technologische Perspektive des Dagstuhl-Dreiecks (Biblionetz:w02888) weitgehend verloren geht.

Naja:

Mit einem klaren High-Performance-Mindset vollziehe ich einen bewusst orchestrierten Transition-Move vom mobilen Deep-Work-Space in das nächste Impact-Ökosystem und skaliere meine physische Präsenz als strategischen Erfolgsfaktor.

Oder banaler formuliert: Ich muss jetzt aus dem Zug aussteigen und angehenden Lehrpersonen Informatik mit 0 und 1 erklären gehen (denn AI literacy erfordert fundiertes Informatikwissen …) @ENDE

@ANFANG 04 March 2026 DasSchulischeCloudDilemma Das schulische Cloud-Dilemma

Das folgende Posting ist keine abschliessende Haltung, sondern lautes öffentliches Denken:

Der Tages-Anzeiger greift in seiner heutigen Ausgabe (20.08.2013) das Dilemma mit Cloud-Computing-Diensten auf, in welches Schulen derzeit immer stärker geraten (siehe hier, Biblionetz:t15633, Biblionetz:t15634). Immer mehr Lehrpersonen sowie Schülerinnen und Schüler benutzen die zahlreichen Dienste und Programme, die von internationalen (aber vor allem US-amerikanischen) Cloud-Anbietern wie Dropbox, box.net etc. aber auch "traditionellen" Softwareherstellern wie Microsoft oder Adobe im Internet angeboten werden. Diese Dienste sind bequem sowohl in der Schule als auch von zuhause erreichbar, vergleichsweise einfach nutzbar und oft auch kostenlos.

Die Kehrseite dieser verlockenden Angebote: Die Server stehen meist im Ausland und unterstehen oft nicht der schweizerischen, deutschen oder EU-Datenschutzgesetzgebung. Nutzende können somit nicht mit Sicherheit sagen, wer alles Zugriff auf ihre Daten hat, Clouddienste können den Datenschutz gefährend (Biblionetz:a01193). Einerseits scheinen sich Geheimdienste gerne bei Clouddiensten zu bedienen, andererseits besteht auch die Gefahr, dass Diensteanbieter die Nutzerdaten für Werbe- und Marketingzwecke nutzen wollen, denn die Schule ist ein lukrativer Markt für Unternehmen (Biblionetz:a01194), so die Befürchtung.

Was tun? Derzeit sehe ich folgende Reaktionen von Schul- und Bildungsverwaltungen:

  • Problem ignorieren: Vermutlich die häufigste Reaktion. Das Thema ist entweder noch unbekannt oder verglichen mit anderen aktuellen Herausforderungen nicht relevant genug für eine Reaktion.

  • Schulischen Zwang zu Clouddiensten verbieten: Weder Lehrpersonen noch Schülerinnen und Schüler dürfen gezwungen werden, Clouddienste zu nutzen.

  • Jegliche schulische Nutzung von Clouddiensten verbieten: Allen Lehrpersonen wird verboten, Clouddienste für schulische Zwecke zu nutzen.

Ich werde derzeit oft um Rat gefragt, wie Schulen und Schulbehörden denn mit diesen Dilemma umgehen sollten. Ich habe (noch) keine einfache Antwort. Derzeit sehe ich mindestens drei Ebenen:

  1. Grundsätzliche, staatspolitische Ebene: Der Einsatz muss verboten werden, wenn es den geltenden Datenschutzgesetzen widerspricht, um den Anbietern die Stirn zu bieten und sie zu zwingen, lokale Datenschutzgesetze zu akzeptieren. Oft wird diese Haltung als lächerlich und utopisch abgetan, aber ich bin mir da nicht ganz so sicher. Vermutlich würden Anbieter ihre Datenschutzbestimmungen anpassen wollen, wenn genügend viele Verbote ausgesprochen werden. Auf einer normativ-staatlichen Ebene finde ich deshalb diese Haltung nicht ganz abwegig. Problematisch ist natürlich dabei, dass der (berechtigte oder unberechtigte) Eindruck entstehen kann, dass solche Verbote auch Ausdruck einer allgemeinen Technikfeindlichkeit, Abwehrhaltung und Bewahrpädagogik sein könnten...
  2. Technisch-organisatorische Ebene: Oft wird auf technisch-organisatorische Lösungen verwiesen:
    • Auf Open Source Lösungen setzen: Derzeit häufig zu hören ist der Ruf nach Open Source- Lösungen. Das scheint mir ein eigenes Blog-Posting wert zu sein, in Kürze nur dies: Alltagstauglich sind Open-Source-Lösungen derzeit für Office-Lösungen und für Desktops und Notebooks, nicht aber für Tablets, Handhelds und Smartphones.
    • Daten in der Cloud verschlüsseln etc.: Solche Lösungen funktionieren im Einzelfall, sind aber meiner Ansicht nach (bisher) nicht schulalltagstauglich.
    • Clouds selbst hosten: Man könnte eigene Clouds nutzen, statt solche im Ausland. Wobei dann zu definieren wäre, was "eigene" heissen soll: Im eigenen Land/Kanton/Bundesland oder im Keller des Schulhauses? Und damit wären wir dann bei weiteren Support- und Sicherheitsfragen. Internationale Clouddienste haben das Geld und das Know-how, um ihre Clouds einigermassen sicher zu machen...
  3. Pragmatische, schulpraktische Ebene: Hier empfehle ich Lehrpersonen oft, Clouddienste dann zu nutzen, wenn sie es für sinnvoll halten, Verbote hin oder her. Der Einsatz digitaler Medien in der Schule wird zu Recht kritisch auf Effektivität und Effizienz abgeklopft. Da macht es aus schulpraktischer Sicht wenig Sinn, wenn staatspolitische Überlegungen dazu führen, dass der Einsatz digitaler Medien in der Schule mühsamer und umständlicher als notwendig ist. Denn das ist wieder Wasser auf die Mühlen derjenigen, die den Sinn von ICT in der Schule eh bezweifeln.

Ich habe den Artikel auch kopfschüttelnd gelesen. Wenn die "Lösung" des Problems eine überteuerte, selbst gehostete Schrott-Plattform ist, so ist niemandem gedient. Die 'üblichen Verdächtigen' verletzen keineswegs Datenschutzbestimmungen: Der heikel Punkt sind bspw. von Lehrpersonen veröffentliche persönliche Daten... Nicht der Hammer ist das Problem, aber dessen Nutzung.

-- JuergStuker - 20 Aug 2013


ja, auf der praktischen "lebens-" bzw schulweltlichen ebene muss man pragmatisch reagieren - muddling through, mal so, mal anders. Eine wirkliche Lösung, die die Widersprüche auf neuer Ebene entlastet, scheint mir mehr und mehr zu erfordern, solche Probleme nicht mehr als kantonale oder nationale (gesetzlich) lösen zu wollen, sondern zu transnationalen Verhandlungen und Vereinbarungen zu gelangen, denn alle Länder und Regionen sind doch global von diesen Problemen betroffen.

-- LisaRosa - 20 Aug 2013


ich arbeite seit jahren auf der pragmatischen ebene, immer nach den jeweils für mich und die betr. kolleginnen praktikabelsten möglichkeiten. seit google drive smartphone optimiert ist, verwalte ich meine >250 SuS dort und teile die dokumente mit eben den kolleginnen. nein, darin sind keine persönlichen daten zu finden: julinda, aufmerksam, 5.5 sind keine persönlichen daten.

-- BeatRueedi - 20 Aug 2013

@ENDE

@ANFANG 25 February 2026 SolltenWirWenigerArbeitenWeilUnsDieDigitalsierungRoutinearbeitenAbnimmt Sollten wir weniger arbeiten weil uns die Digitalisierung Routinearbeiten abnimmt?

Dies ist vorerst nur lautes Denken und evtl. nicht zu Ende gedacht.

decision-fatigue.png

Die Digitalisierung nimmt uns kognitive Routinearbeiten ab: Alles was ich mit Regeln beschreiben kann, lässt sich automatisieren. Soweit so bekannt. Uns Menschen bleiben somit diejenigen Arbeiten, bei denen es keine simplen Regeln gibt, die man einfach befolgen kann - sprich: Wir müssen Dinge klären und Entscheiden. Wenn dies zutrifft, steigt unsere Entscheidungsdichte (Anzahl Entscheide pro Zeiteinheit).

Als Entscheidungsmüdigkeit (englisch: decision fatigue) wird von einigen Expert:innen das Phänomen beschrieben, dass uns Entscheide müde machen und es uns nach mehreren Entscheiden immer schwerer fällt, gute Entscheide zu fällen. (Biblionetz:w03441, Wikipedia:Decision_fatigue). Ob es diese Entscheidungsmüdigkeit allerdings tatsächlich gibt, ist nicht unumstritten.

Sollte es das Phänomen der Entscheidungsmüdigkeit tatsächlich geben, so wäre es sinnvoll, wenn wir angesichts der Digitalisierung unsere Wochenarbeitszeit reduzieren bzw. Teilzeit (Biblionetz:w03363) arbeiten würden.

Kommentare:

Oder die Entscheidungsdichte senken. Vlt. zugunsten der Qualität der Entscheidungen und Zufriedenheit der Beschäftigten?

-- WikiGuest - 01 Jul 2023

@ENDE

@ANFANG 07 February 2026 IchKannProgrammieren Ich kann programmieren!

Bei der Diskussion anlässlich der Formulierung des Lehrplans 21 vor 10 bis 15 Jahren, ob Informatik obligatorisch in die Volksschule gehöre (Biblionetz:a00436) , erlebte ich Gegenwind auch von unerwarteter Seite: Informatikerinnen und Informatiker äusserten die Sorge, dass bald alle sagen würden "Ich kann programmieren!", weil sie in der Schule Informatikunterricht hatten. Das sei verheerend, denn dadurch würde die Bedeutung einer "echten" Informatikausbildung geschmälert.

Mit der aktuellen Entwicklung, dass generative Machine-Learning-Systeme immer besser Software schreiben können, nimmt derzeit die Zahl der Menschen zu, die auf LinkedIn laut ausrufen: "Ich kann programmieren!".

Ein Versuch der Klärung zur Beruhigung der Gemüter auf beiden Seiten.

Beim Schreiben ist allen klar, dass ein Unterschied besteht zwischen dem, was Kinder machen, wenn sie in der Schule schreiben lernen und dem, was erfolgreiche Autorinnen und Autoren machen, wenn sie ein Buch schreiben. Da kommt niemand auf die Idee zu kritisieren: "Wenn ihr den Kindern sagt, dass sie jetzt schreiben gelernt haben, dann vermittelt dies ein völlig falsches Bild, was schreiben wirklich ist.!" Beim Programmieren ist dies vielen nicht klar.

Ich habe versucht, diesen Unterschied in eine verständliche Grafik zu packen und bin aktuell nach vielen Entwürfen und einigen Diskussionen bei zwei Versionen angelangt, die mir aber noch nicht gut genug scheinen. Bei beiden spielt einerseits mit, dass der Begriff Programmieren nicht präzis definiert ist und wir eventuell zwischen Programmieren und Software entwickeln unterscheiden müssen:

  • Softare entwickeln: Aus einem Verständnis für die zu lösende Aufgabe und den verfügbaren technischen Möglichkeiten ein Architektur planen und umsetzen, welche die Aufgabe effektiv, effizient und zuverlässig und sicher löst.
  • Programmieren: Einen Ablauf in lauffähigen Code umsetzen.

Zum anderen gibt es auch Unterschiede, was programmiert wird und welchen Ansprüchen das Programmierte genügen muss. Diesen Unterschied habe ich versucht in dieser Grafik auszudrücken:

vibe-coding-01.jpg

Die zweite Grafik visualisiert unterschiedliche Arten von "Schreiben":

vibe-coding-02.jpg

Welche der beiden Grafiken transportiert die Botschaft besser?

Warum blogge ich überhaupt darüber? Man könnte mir vorwerfen, dass ich als ausgebildeter Informatiker einen Statusverlust befürchte, wenn jetzt dankt GMLS das Herstellen von Software einfacher geworden ist. Ich hoffe, dass das nicht mein heimlicher Treiber ist, auf diese Problematik hinzuweisen. Ich freue mich, dass mehr Menschen durch GMLS ihre Möglichkeiten erweitern können, sich digital auszudrücken und/oder in digitalen Strukturen zu denken. Programmieren kann dazu führen, dass man sich vermehrt Gedanken über Strukturen und Abläufe im digitalen Raum macht. Es sind mehrere berufliche Fragen, die mich beschäftigen:

  • Brauchen wir künftig noch ausgebildete Informatiker:innen? ist eine wichtige bildungspolitische Frage, die mich beruflich beschäftigt. Insofern ist es wichtig zu beobachten, wo die Potenziale und Grenzen von GMLS im Bereich der Software-Entwicklung sind.
  • Müssen wir uns vor schlecht programmierten Systemen fürchten? ist die grössere Frage, die mich umtreibt. So wie wir in der Schweiz und in der EU für gewisse Berufe eine Ausbildung verlangen (z.B. Elektriker:innen) oder bei gewissen Produkten ein gewisses Sicherheitslevel mit einem Prüfsiegel auf dem Produkt belegt werden muss (und chinesische Direktimporte das Siegel teilweise nicht oder nur gefälscht haben), so müssen wir bei gewisser Software auch sicher sein können, dass sie gewisse Sicherheitsstandards genügt. Das gilt nicht nur für selbstfahrende Autos, sondern auch für Lernsoftware und andere Programme, mit denen Kindern und Jugendliche zu tun haben (oder gar zu tun haben müssen).

Und ja, ich kann nicht ausschliessen, dass GMLS in kurzer Zeit wirklich fast alleine robuste Software entwickeln können. Derzeit können sie das meines Erachtens noch nicht.

*P.S.: Myke Naef hat mich auf Simon Willison aufmerksam gemacht, der zwischen vibe coding (Biblionetz:w03702) und vibe engineering (Biblionetz:w03760) unterscheidet. @ENDE

@ANFANG 05 February 2026 WarumIchTofuBeiDerArbeitNichtMag Warum ich Tofu bei der Arbeit nicht mag

Wenn ich auf meinem Computer nach meinen ältesten Mails (Biblionetz:w00498) suche, muss ich ins letzte Jahrtausend zurückgehen. Auf die Schnelle habe ich ein Mail gefunden, von dem nicht sofort klar ist, ob es jetzt von 1993, 1994 oder 1995 stammt:

tofu-01.jpg

Was aber sofort klar wird: Es ist lange, sehr lange her. (Hinweis sowohl für jüngere als auch ältere Menschen: Das war für mich noch vor dem Internet. Es handelt sich um das Mailboxnetzwerk FidoNet). Und es zeigt auch, wie ich damals gelernt, habe Mails zu schreiben. Dieser Zitierstil sorgt heute in meinem Arbeitskontext öfters für Verwirrung. Eine Betrachtung zu digitaler Zusammenarbeit, die ich in Jöran Muuß-Merholz' beiden empfehlenswerten Büchern zu digitaler Zusammenarbeit (Biblionetz:b08860 und Biblionetz:b08924) erstaunlicherweise nicht gefunden habe.

Ich wurde so mail- und newsgroup-sozialisiert, dass ich selektiv zitiere. Ich schreibe meine Antworten möglichst nahe zu einer Frage oder Aussage, die ich kommentieren möchte. Von früher her war ich mir gewohnt, dass Mailclients diese Arbeitsweise unterstützen, indem sie unterschiedliche Einrückungen automatisch farblich codieren. (Für Menschen, die das nicht selbst erlebt haben: Diese Farben stehen nicht in der Mail drin, die besteht aus reinem Text, sondern werden vom Mailclient bei der Anzeige der eigentlich schwarz/weissen Mail zur besseren Lesbarkeit eingesetzt). Der Fachbegriff für diese Zitationsweise heisst Inline-Quoting. Heute unterstützen Mailclients diese Zitierweise immer weniger.

Menschen, die später mail-sozialisiert wurden (und das Usenet gar nie erlebt haben), antworten auf Mails ganz anders. Sie schreiben einfach ihre Antwort oben an die erhaltene Mail hin, die dann nach unten rutscht, und schicken beides wieder an die Absenderadresse zurück. Dieser Zitierstil wird von Anhänger:innen des Inline-Quotings verächtlich als TOFU bezeichnet: Text Oben, Fullquote Unten.

In letzter Zeit habe ich von mehreren Kommunikationspartner:innen die Rückmeldung erhalten, dass sie meine Art, Mails zu beantworten, irritiert oder gar ihre Effizienz mindert: Es fehlt ihnen der Kontext, wenn ich darüber entscheide, was ich zurückschicke und was ich beim Beantworten lösche. Ich finde das spannend, denn aus meiner Sicht ist meine Art der Mailbeantwortung effizient für das Gegenüber und eigentlich eine Folge dessen, was Jöran Muuß-Merholz als Pre-Empathie (Biblionetz:w03655) bezeichnet: Ich überlege mir, was mein Gegenüber in Zukunft bei dieser Kommunikation für die weitere Arbeit noch benötigt, und lösche alles (aus meiner Sicht) Irrelevante (z.B. alle bisherigen Mails mitsamt ihren technischen Kopfzeilen und Signaturen).

Ich versuche eigentlich, die cognitive load beim Gegenüber zu senken, indem ich meine Antwort möglichst nahe zur Frage platziere. Ich versuche damit, einem grundlegenden Prinzip der Usability zu folgen: dem Gesetz der Nähe. Zudem: Ich hasse es, in einer längeren Kommunikation zigmal die ellenlangen Signaturen aller Beteiligten zu lesen (Besonders anstrengend bei interner Kommunikation, wenn mich die Mailsignatur mehrfach zu überzeugen versucht, doch an der der eigenen Hochschule ein Studium zu beginnen...). Wer den Kontext aufgrund meiner Kürzungen nicht mehr versteht oder etwas von früher nachschauen will, kann in meiner Überlegung problemlos im Thread einer Mailkommunikation nachschauen. Damit versuche ich dem Design-Prinzip Schrittweises Enthüllen zu folgen. (Diese und andere Designprinzipien sind im lesenswerten Buch Universal Principles of Design von William Lidwell, Kritian Holden und Jill Butler zu finden (Biblionetz:b02137)

Aber ich gebe zu, bei den Kürzungen besteht ein schmaler Grat zwischen willkommener Pre-Empathie und unwillkommener Übergriffigkeit, was ich dem Gegenüber vorenthalte.

Beim Recherchieren für dieses Posting bin ich darauf gestossen, dass TOFU einen eigenen Wikipedia-Artikel besitzt, der eigentlich das Schreiben eines eigenen Postings fast überflüssig gemacht hätte. Unter anderem steht da:

Hingegen ist etwa im geschäftlichen E-Mail-Verkehr TOFU eine weit verbreitete Form der Antwort. Hier würde das isolierte Zitieren und Kommentieren einzelner Sätze als ungewöhnlich empfunden.

[...]

Kritik an TOFU kommt meist beim Aufeinandertreffen von Benutzern dieses Zitierstils mit traditionellen Vertretern des Inline-Quotings (zum Beispiel im Usenet oder in Mailinglisten) auf. In traditionelleren Anwendungen des Internets hat sich im Laufe der Jahre das Inline-Quoting durchgesetzt. Es ist in zahllosen FAQs zur Netiquette ausführlich beschrieben. Unkenntnis oder Missachtung dieser einfachen Regeln durch Neulinge stößt zum Beispiel bei routinierten Usenet- oder Webforen-Benutzern auf Widerstand. Umgekehrt stößt die Kritik an TOFU dort auf Unverständnis, wo TOFU die übliche Form unkomplizierten Mailaustauschs zwischen Privatpersonen oder Firmen ist.

Inhaltlich dreht sich die Kritik um zwei Fragen, Reihenfolge und Umfang des Zitats. Bei TOFU kommt erst die zusammenhängende Antwort (Text oben), dann muss der Leser, sofern ihm der Bezug der Antwort nicht klar ist, die vollständige zitierte Originalmail nachlesen, um herauszufinden, worauf genau geantwortet wird. Andererseits fehlen einem Leser bei zu stark gekürztem Zitat mitunter für das (vollständige) Verständnis Informationen. Daher lehnen Kritiker das Nachlesen-Müssen ab, schätzen Befürworter aber das Nachlesen-Können. Beim Inline-Quoting sind Zitat und Antwort ineinander verwoben. Hier ist sofort nachvollziehbar, auf welche Aussagen sich die neuen Argumente beziehen. Bei längeren Inline-Zitaten muss der Benutzer unter Umständen nach unten scrollen. Bei TOFU muss nur nach unten geblättert werden, wenn der Kontext unklar ist.

Schön, somit weiss ich, dass meine Kommunikationspartner:innen und ich nicht alleine sind. Eine Lösung für dieses Aufeinandertreffen unterschiedlicher Kulturen haben wir damit aber noch nicht. Mit gewissen Kommunikationspartner:innen haben in den letzten Tagen beide Seiten versucht, das für sie ungewohnte Antwortschema zu nutzen. Beide Seiten berichten übereinstimmend: Es fühlt sich fremd und falsch an.

Darum: Wie kommen wir aus diesem Kommunikationsdilemma raus? Müssen erst alle Inline-Quoter aussterben - oder gibt es bessere Lösungen? wink @ENDE

Number of topics: 10