<?xml version="1.0" encoding="utf-8" ?>
<feed xmlns="http://www.w3.org/2005/Atom">
  <title>Blog - blog.doebe.li</title>
  <subtitle>Dies ist der private Weblog von <a href='https://doebe.li' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>Beat Döbeli Honegger</a></subtitle>
  <link href="https://blog.doebe.li/Blog" />
  <link href="https://blog.doebe.li/Blog/WebAtom?" rel="self" />
  <logo>https://blog.doebe.li/pub/Blog/WebPreferences/beats-blog-logo.gif</logo>
  <rights>Copyright 2026 by contributing authors</rights>
<entry>
<title>MFA-Ärger lindern</title>
<id>https://blog.doebe.li/Blog/MFAAergerLindern</id>
<link rel="alternate" type="text/html" href="https://blog.doebe.li/Blog/MFAAergerLindern"/>
<updated>2026-04-23T17:17:00Z</updated>
<author><name>Beat Döbeli Honegger</name></author><category label="Annoyance" term="AnnoyanceCategory" />
        <category label="Gadget" term="GadgetCategory" />
        <category label="Geek" term="GeekCategory" />
        <category label="PHSZ" term="PHZCategory" />
	<content type="html"><![CDATA[
<p></p>
Mein Arbeitgeber lässt sich nicht davon abbringen, die M365-Konten so einzustellen, dass jedes Gerät, das sich nicht im Arbeitgebernetzwerk befindet, sich täglich neu authentisieren muss per Multifaktor-Authentisierung (MFA). Dies bedeutet normalerweise, dass nach der Passworteingabe auf dem Gerät ein zweistelliger Code angezeigt wird, der dann in der Authenticator-App des Smartphones eingetippt werden muss.
<p></p>
<center> <img alt="mfa-01.png" src="https://blog.doebe.li/pub/Blog/MFAAergerLindern/mfa-01.png" /> </center>
<p></p>
Ja, IT-Sicherheit ist wichtig und MFA ist mitunter sinnvoll. Böse Hacker sollen nicht mit meinem Passwort von irgendwoher auf einem anderen Gerät sich als mich ausgeben können. Aber täglich mehrfach, das nervt. Besitzt man nämlich drei Geräte (Notebook, Tablet, Smartphone), dann macht man das pro Tag mindestens drei Mal. <em>"Es geht ja jeweils nur wenige Sekunden"</em> liesse sich jetzt einwenden. Einerseits summieren sich die Sekunden, andererseits können sich die verschiedenen Re-Authentisierungen auch in die Quere kommen: Lehnt man dann ein ab, dann riskiert man nicht zu merken, dass jetzt einfach keine neue Mail reinkommt, denn weder Outlook noch Apple Mail weisen wirklich deutlich auf die gekappte Verbindung hin.
<p></p>
<p></p>
<p></p>
<h2 id="Was_l_228sst_sich_tun_63">  Was lässt sich tun? </h2>
<p></p>
<h3 id="Passkey_einrichten_40ohne_Kostenfolge_41">  Passkey einrichten (ohne Kostenfolge) </h3>
<p></p>
Das Einrichten eines Passkeys auf dem Smartphone lindert den Ärger gleich in zweierlei Hinsicht: <ul>
<li> Die Häufigkeit der Reauthentisierungen scheint abzunehmen, weil ein Passkey als sicherer eingestuft wird als das Abtippen der zwei Zahlen.
</li> <li> Es müssen nicht mehr Zahlen abgetippt werden: <ul>
<li> Auf dem Notebook muss ein QR-Code mit dem Handy erfasst werdne
</li> <li> Auf dem Handy reicht das Antippen von "Passkey verwenden"
</li></ul> 
</li></ul> 
<p></p>
Konkret lässt sich auf dem iPhone für das Microsoft-Konto ein Passkey installieren. Dadurch entfällt das Abtippen von Ziffern beim Anmelden von Apps auf dem iPhone selbst. (Der Passkey kann auch für das Anmelden auf dem Notebook verwendet werden, dazu muss dann auf dem Notebook ein QR-Code gescannt werden. Ähnlich mühsam wie das Abtippen von zwei Ziffern).
<h3 id="USB_Hardwaretoken_kaufen_40mit_Kostenfolge_41">  USB Hardwaretoken kaufen (mit Kostenfolge) </h3>
<p></p>
Für einen Notebook unter Windows (10 oder 11) bietet sich auch der Kauf eines USB-Hardwaretokens an. Dieser USB-Stick gilt als zweiter Faktor und ersetzt das Smartphone. Der Passkey wird auf diesen USB-Stick gespeichert. Wenn Microsoft den Passkey auslesen will, muss das Token mit dem Finger berührt werden und gibt daraufhin den Passkey weiter. Ein Smartphone wird dann nicht mehr benötigt.
<p></p>
<center> <img alt="mfa-02.png" src="https://blog.doebe.li/pub/Blog/MFAAergerLindern/mfa-02.png" /> </center>
<p></p>
Der Yubikey nano für USB A (CHF 69.-) verschwindet praktisch in der USB-Steckdose:
<p></p>
<center> <img alt="mfa-03.jpg" src="https://blog.doebe.li/pub/Blog/MFAAergerLindern/mfa-03.jpg" /> </center>
<p></p>
<h3 id="Sparpotenzial">  Sparpotenzial </h3>
<p></p>
Abgesehen vom Ärger und Unterbruch des Flows beim Arbeiten amortisiert sich ein solcher Hardwarekey innherhalb eines Jahres bei weitem, selbst bei einem Stundenlohne von CHF 25.- und wenn man nicht mal die eingesparte Zeit durch schnelleres Authentisieren berücksichtigt, sondern nur das seltenere Authentisieren:
<p></p> <table class='foswikiTable'><tbody><tr ><td>  Stundenlohn  </td>
<td align="right">   25  </td>
<td>  CHF  </td>
</tr><tr ><td> Dauer MFA    </td>
<td align="right">      1  </td>
<td>  min  </td>
</tr><tr ><td> Kosten MFA 1x    </td>
<td align="right">   0.42  </td>
<td>  CHF  </td>
</tr><tr ><td>  Kosten MFA jährlich (täglich)    </td>
<td align="right">   152.08  </td>
<td>  CHF  </td>
</tr><tr ><td>  Kosten MFA jährlich (alle 4 Tage)  </td>
<td>  38.02  </td>
<td>  CHF  </td>
</tr><tr ><td>  Ersparnis durch Key  </td>
<td align="right">   114.06  </td>
<td>  CHF  </td>
</tr></tbody></table>
<p></p>
<p></p>
<p></p>
	]]></content>
</entry>
<entry>
<title>Biblionetz - Wiki - GMLS - und was ist meine Aufgabe?</title>
<id>https://blog.doebe.li/Blog/BiblionetzWikiGMLSUndWasIstMeineAufgabe</id>
<link rel="alternate" type="text/html" href="https://blog.doebe.li/Blog/BiblionetzWikiGMLSUndWasIstMeineAufgabe"/>
<updated>2026-04-19T14:39:00Z</updated>
<author><name>Beat Döbeli Honegger</name></author><category label="Biblionetz" term="BiblionetzCategory" />
        <category label="GMLS" term="GMLSCategory" />
        <category label="Wiki" term="WikiCategory" />
	<content type="html"><![CDATA[
<p></p>
Anfang April hat Andrej Karpathy, ein ehemaliger Mitarbeiter von OpenAI (Herstellerin von ChatGPT) ein Dokument mit dem Titel <a href='https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>LLM Wiki</a> (<a href='https://beat.doebe.li/t33408' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:t33408</a>) veröffentlicht, das beschreibt, wie man mit einem <strong>generativen Machine-Learning-System (GMLS)</strong> (<a href='https://beat.doebe.li/w02833' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w02833</a>) <strong>persönliches Wissensmanagement</strong> (<a href='https://beat.doebe.li/w01688' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w01688</a>) betreiben könnte: Man lässt das GMLS ein Wiki befüllen.
<p></p>
Besonders schön: Karpathy meint: <em>"Besprechen Sie dieses Dokument mit dem GMLS-System ihrer Wahl."</em>
<p></p>
Dieser Text hat mich natürlich brennend interessiert, schliesslich betreibe ich nicht nur seit 20 Jahren verschiedene Wikis (<a href='https://beat.doebe.li/w01268' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w01268</a>) und beschäftige mich seit Dezember 2023 mit GMLS - nein, seit bald 30 Jahren betreibe ich mit dem <a href='https://doebe.li/bibliothek/' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>Biblionetz</a> auch mein privates, aber öffentlich zugängliches Wissensnetz!
<p></p>
<center> <img alt="bibliowolke.jpg" src="https://blog.doebe.li/pub/Blog/BiblionetzWikiGMLSUndWasIstMeineAufgabe/bibliowolke.jpg" /> <em>Geclusterte Visualisierung des Biblionetzes (Stand 2019)</em> </center>
<p></p>
<p></p>
Natürlich wollte ich darüber nachdenken, natürlich wollte ich dazu bloggen oder die Frage beantworten, die mich auf verschiedenen Kanälen erreicht hat: <em>"Was denkst du zum Text von Karpathy?"</em> Nur: Ich habe derzeit zu wenig Zeit, um mich allem zu beschäftigen, was mich interessieren würde. Heute morgen meinte <strong>Myke Näf</strong> (<a href='https://beat.doebe.li/p00344' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:p00344</a>) im Chat, ich könne ja ein GMLS mein Posting schreiben lassen. Als ich zögerte und etwas von "Ich will aber meine Posts selber schreiben" am Tippen war, hatte er schon sein GMLS (Claude Opus 4.7) gefragt
<p></p>
<div style="border-style:dotted;border-width:1px;padding:6px;background-color:#DDDDDD; width:100%; max-width:40em; box-sizing:border-box;">
what does beat döbeli think of this in the context of his biblionetz or otherwise? write a linkedin post that he would write.
<p></p>
<em>und dann quote von karpathys tweet</em>
</div></verbatim>
<p></p>
Hier die Antwort von Claude:
<p></p>
<div style="border-style:dotted;border-width:1px;padding:6px;background-color:#DDDDDD; width:100%; max-width:40em; box-sizing:border-box;">
Beat würde das mit einer Mischung aus amüsiertem Wiedererkennen und leiser Skepsis lesen — schließlich macht er mit dem [Biblionetz](<a href='https://beat.doebe.li/bibliothek/' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>https://beat.doebe.li/bibliothek/</a>) seit 1996 von Hand, was Karpathy hier als LLM-Workflow skizziert: kompilierte Markdown-Wissensbasis, dichte Verlinkung, Rückverweise, inkrementelle Pflege. Der zentrale Punkt, an dem er hängenbleiben würde, ist Karpathys Satz <strong>"the LLM writes and maintains all of the data of the wiki, I rarely touch it directly"</strong> — für Beat ist das Schreiben selbst der Erkenntnisprozess. Ein Wiki, das man nicht selbst pflegt, ist für ihn kein Denkwerkzeug mehr, sondern eine Datenbank.
<p></p>
Hier ein Post in seinem Stil:
<p></p>
<hr />
<i>
Andrej Karpathy beschreibt, wie er mit LLMs ein persönliches Wiki aus Markdown-Dateien aufbaut — Rohdaten rein, kompiliertes Wissen raus, alles in Obsidian durchsuchbar. Sehr lesenswert.
<p></p>
Klingt für mich erstaunlich vertraut. Mein [Biblionetz](<a href='https://beat.doebe.li/bibliothek/' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>https://beat.doebe.li/bibliothek/</a>) macht seit 1996 ziemlich genau das. Allerdings: ohne LLM. Mit Lesen, Tippen, Verknüpfen. ~77'000 Begriffe, über 22'000 Publikationen, dichte Rückverweise. Kompiliert im Kopf, nicht im Kontextfenster.
<p></p>
Was mir beim Lesen von Karpathys Post auffällt:
<p></p>
→ <strong>"The LLM writes and maintains all of the data of the wiki, I rarely touch it directly."</strong> — Für mich war das Schreiben immer der eigentliche Erkenntnisprozess. Das Verknüpfen beim Tippen ist das, was hängen bleibt. Ein delegiertes Wiki hat vielleicht mehr Einträge. Aber hat es auch mehr verstanden?
<p></p>
→ Ein Personal Wiki ist für mich kein Speicher, sondern ein Denkwerkzeug. Der Unterschied ist fundamental.
<p></p>
→ Andererseits: Einen Assistenten, der inkonsistente Metadaten aufspürt, fehlende Backlinks vorschlägt, veraltete Einträge markiert — den hätte ich in den letzten 30 Jahren gerne gehabt. Als Korrektor, nicht als Autor.
<p></p>
Vielleicht ist die spannende Frage nicht <strong>"LLM schreibt Wiki"</strong> vs. <strong>"Mensch schreibt Wiki"</strong>, sondern: Wie unterstützt ein LLM den menschlichen Lese- und Denkprozess, ohne ihn zu ersetzen?
<p></p>
PIM — Personal Information Management, wie man das früher nannte — war nie nur Datenhaltung. Es war strukturiertes Nachdenken. Das bleibt auch im LLM-Zeitalter.
<p></p>
#Biblionetz #PKM #Wissensmanagement #DigitaleDinosaurier
</i>
<hr />
<p></p>
Ich kann den Ton noch weiter anpassen (mehr Schalk, mehr Skepsis, kürzer, zweisprachiger) — je nachdem, ob du ihn als ironischen Veteranen oder als konstruktiven Skeptiker positionieren willst.
</div></verbatim>
<p></p>
<strong>Mist!</strong> Damit habe ich noch ein Thema mehr: Dieses GMLS erfasst schon erstaunlich erschreckend gewisse der Aussagen, die ich tatsächlich machen würde, wenn ich Zeit hätte, ein solches Posting selbst zu schreiben! Das mit den 77'000 Begriffen stimmt zwar nicht: Es sind nur ca 3'800, dafür aber gegen 40'000 Publikationen, aber der Grundgedanke: "Was bleibt denn hängen, wenn ich die Verarbeitung einer Maschine überlasse?" ist genau der springende Punkt, den ich heute Morgen auch mit Myke Naef diskutiert habe.
<p></p>
<strong>So, und was fange ich jetzt damit an, dass diese Kisten bereits gewisse meiner Gedanken statistisch errechnen können, da sie offenbar nicht so innovativ sind, wie ich mir vielleicht einrede?</strong> 
<p></p>
Ob das vielleicht der richtige Zeitpunkt ist, um mich zurückzuziehen, jetzt wo GMLS anfangen mich gar nicht so schlecht zu imitieren und die kognitive Leistungsfähigkeit in meinem Alter ja sowieso zurückgeht, wie u.a. in diesem Artikel steht, den ich ebenfalls heute Morgen mit Myke diskutiert habe?
<p></p>
<center> <a href='https://www.theatlantic.com/magazine/archive/2019/07/work-peak-professional-decline/590650/' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'><img src=https://beat.doebe.li/bibliothek/img/t33438.jpg></a> <br> (<a href='https://beat.doebe.li/t33438' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:t33438</a>) </center>
<p></p>
<p></p>
	]]></content>
</entry>
<entry>
<title>Experimente mit lokalen GMLS</title>
<id>https://blog.doebe.li/Blog/ExperimenteMitLokalenGMLS</id>
<link rel="alternate" type="text/html" href="https://blog.doebe.li/Blog/ExperimenteMitLokalenGMLS"/>
<updated>2026-04-18T16:21:00Z</updated>
<author><name>Beat Döbeli Honegger</name></author><category label="GMLS" term="GMLSCategory" />
	<content type="html"><![CDATA[
<p></p>
Ja, auch ich habe mir vor ca. 2 Monaten einen Mac Mini 4 mit zu wenig Speicher (16 GB) gekauft, um etwas mit lokalen Machine-Learning-Systemen zu experimentieren. Da ich viel zu wenig Zeit zu Rumspielen habe, sind meine Erkenntnisse sicher nicht weltbewegend und geneigte Leser:innen können gleich jetzt beschliessen, mit dem Lesen dieses Postings aufzuhören <img class='smily' src='/pub/System/SmiliesPlugin/emoticon-0105-wink.gif' alt='wink' title='wink' />
<p></p>
<center> <img alt="lgmls.jpg" src="https://blog.doebe.li/pub/Blog/ExperimenteMitLokalenGMLS/lgmls.jpg" /> <br> <em>Der Mac Mini auf meinem Büchergestell</em> </center>
<p></p>
<p></p>
Als Ende 2022 ChatGPT (<a href='https://beat.doebe.li/w03387' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w03387</a>) veröffentlicht wurde, hiess es, dass derartige Leistungen von generativen Machine-Learning-Systemen (GMLS) (<a href='https://beat.doebe.li/w02833' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w02833</a>) in den nächsten Jahren nur auf grossen Serverfarmen, nicht aber auf lokalen Computern verfügbar sein würden. In den letzten drei Jahren hat aber eine erstaunliche technologische Entwicklung stattgefunden und immer bessere Sprachmodelle liessen sich auch auf lokalen Computern (mit möglichst guten Grafikkarten) betreiben. 
<p></p>
<h2 id="Warum_ein_lokales_GMLS_63">  Warum ein lokales GMLS? </h2>
<p></p>
Aus meiner Sicht gibt es zwei Gründe, warum man ein <strong>lokales GMLS (LGMLS)</strong> (<a href='https://beat.doebe.li/w03773' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w03773</a>) statt eines Serverdienstes nutzen möchte:
<p></p> <ul>
<li> <strong>Kosten:</strong> Grosse Sprachmodelle verlangen ab einem bestimmten Nutzungsumfang Gebühren. Lokale Modelle verlangen keine Gebühren. Ob aber die Hardwareinvestitionen, der Stromverbrauch und die Zeit zum Einrichten und Konfigurieren letztendlich weniger Geld kosten als die Nutzungsgebühren kommerzieller Anbieter, wage ich zu bezweifeln.
</li> <li> <strong>Datenschutz / Digitale Souveränität:</strong> Wichtiger scheint mir die Überlegung, dass man mit einem lokalen GMLS eine grössere digitale Souveränität hat als bei der Nutzung von GMLS im Internet: <ul>
<li> <strong>Modellwahl &amp; -stabilität:</strong> Bei einem lokalen System kann ich selbst entscheiden, welche Modelle ich nutze und im Gegensatz zu Anbietern im Internet,        die öfters mal Modelle auch durch andere ersetzen oder schon nur Modellparameter auch ohne Information ändern, ist es an mir, Modelle oder Parameter zu ändern,
</li> <li> <strong>Datenschutz:</strong> Führe ich einen Dialog mit einem lokalen GMLS, dann verlassen im Idealfall* keine Daten meinen Computer. Damit verringert sich die Gefahr, dass meine Daten in falsche Hände kommen und ausgewertet werden können. (* Auch bei einem lokalen System besteht die Gefahr, dass Daten abfliessen, entweder durch <strong>prompt injection</strong> (<a href='https://beat.doebe.li/w03423' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w03423</a>) oder klassisches Hacking und Malware)
</li></ul> 
</li></ul> 
<p></p>
<h2 id="Was_l_228uft_bei_mir_derzeit_63">  Was läuft bei mir derzeit? </h2>
Ich baue derzeit einen Mac Mini 4 mit 16 GB zu einem kleinen Hausserver aus, auf dem verschiedene Dienste laufen sollen, unter anderem lokale GMLS.
<p></p>
<center> <img alt="mac-mini-daten.jpg" src="https://blog.doebe.li/pub/Blog/ExperimenteMitLokalenGMLS/mac-mini-daten.jpg" /> </center>
<p></p>
Lokale GMLS sind derzeit meist nicht ein Stück Software, sondern ein ganzes Puzzle von Einzelkomponenten, die verschiedene Aufgaben übernehmen. (Ich arbeite an einer Grafik, um das konzeptionell schön zu visualisieren).
<p></p> <ul>
<li> Als "Modellprovider" verwende ich derzeit <a href='https://ollama.com/' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>Ollama</a> und <a href='https://lmstudio.ai/' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>LM Studio</a> parallel (weil ich noch nicht weiss, was besser geeignet ist für meine Bedürfnisse)
</li> <li> Als <strong>Modelle</strong> nutze ich derzeit (Stand 18.04.26) (und bin völlig überfordert mit der Geheimwissenschaft der Modellwahl...): <ul>
<li> gemma-4-e4b-it
</li> <li> qwen3.5:9b
</li> <li> mistral-small:24b
</li> <li> mistral-3-3b
</li></ul> 
</li> <li> Um die Funktion auch auf anderen Computern nutzen zu können, läuft <a href='https://openwebui.com/' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>Open Web UI</a>. Zusammen mit dem VPN-Dienst <a href='https://tailscale.com/' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>Tailscale</a> ermöglicht mir das, von jedem meiner Geräte von irgendwo auf der Welt auf meine lokalen Dienste zugreifen zu können.
</li> <li> <strong>piper</strong> und <strong>whisper</strong> sind ebenfalls auf dem Gerät installiert, um <strong>Text zu Sprache</strong> und <strong>Sprache zu Text</strong> ebenfalls lokal nutzen zu können (unter anderem für die Hausautomatisation).
</li> <li> Zudem experimentiere ich derzeit mit einer selbst gevibecodeten MCP-Schnittstelle (<a href='https://beat.doebe.li/w03705' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w03705</a>) zur lokalen Volltextsuche auf meinem Notebook. Damit möchte ich versuchen, mit begrenzten Computerressourcen meine lokalen Daten einzubinden (so wie z.B. Claude Cowork).
</li></ul> 
<p></p>
<h2 id="Zwischenfazit">  Zwischenfazit </h2>
Es ist faszinierend, wie insbesondere <strong>gemma-4-e4b-it</strong> rasche, rein lokal generierte, deutsche Antworten liefert und sowohl Websuche als auch per MCP lokale Suche mit integrieren kann. Trotzdem ist der Qualitätsunterschied zu serverbasierten Modellen riesig und es fragt sich, wofür ich die lokal verfügbare Qualität - von der ich Anfang 2023 noch total begeistert war bei ChatGPT - tatsächlich würde nutzen wollen (u.a. evtl. für gewisse Automatismen innerhalb des Biblionetzes...). 
<p></p>
Primär aber: Ich habe deutlich zu wenig Zeit, um mich mit den Möglichkeiten auseinanderzusetzen, auch wenn ich weiss, dass vieles Versions- und Produktwissen ist, das in wenigen Monaten, wenn nicht Wochen bereits wieder veraltet ist.
<p></p>
<p></p>
	]]></content>
</entry>
<entry>
<title>Hmm, und was ist jetzt Computational Thinking?</title>
<id>https://blog.doebe.li/Blog/HmmUndWasIstJetztComputationalThinking</id>
<link rel="alternate" type="text/html" href="https://blog.doebe.li/Blog/HmmUndWasIstJetztComputationalThinking"/>
<updated>2026-03-26T00:00:00Z</updated>
<author><name>Beat Döbeli Honegger</name></author><category label="Bildungspolitik" term="BildungspolitikCategory" />
        <category label="Informatik" term="InformatikCategory" />
	<content type="html"><![CDATA[
<p></p>
<strong>Computational thinking (CT)</strong> (<a href='https://beat.doebe.li/w02206' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w02206</a>) ist ein Dauerbrenner in meinem beruflichen Umfeld (z.B. Dezember 2025: <a href="/Blog/NeinEsGehtNichtUmComputergestuetztesDenken">Nein, es geht nicht um computergestütztes Denken!</a>). Der 2006 von Jeannette Wing (<a href='https://beat.doebe.li/p09720' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:p09720</a>) mit einem <a href='https://www.cs.cmu.edu/afs/cs/usr/wing/www/publications/Wing06.pdf' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>Artikel in den Communications of the ACM <img src=/pub/System/DocumentGraphics/pdf.gif alt="PDF-Dokument" title="PDF-Dokument" border=0></a> (<a href='https://beat.doebe.li/t12130' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:t12130</a>) popularisierte Begriff taucht seit Jahren sowohl in fachdidaktischen als auch bildungspolitischen Diskussionen auf. Auf den ersten Blick ist es ganz einfach. Die meisten Definitionen des Begriffs lassen sich zusammenfassen als 
<p></p>
<div style="border-style:dotted;border-width:1px;padding:6px;background-color:#DDDDDD; width:100%; max-width:40em; box-sizing:border-box;">
Denken wie Informatiker:innen
</div></verbatim>
<p></p>
Doch was simpel klingt,  ist bei näherer Betrachtung doch nicht so eindeutig. Dies zeigt sich, wenn man nachfragt, was denn das Verhältnis von CT zu Informatik sei. Ich habe dazu als eine Art Lakmustest eine Grafik erstellt:
<p></p>
<center> <img alt="WasIstCT.png" src="https://blog.doebe.li/pub/Blog/HmmUndWasIstJetztComputationalThinking/WasIstCT.png" /> </center>
<p></p>
<p></p>
<p></p>
In unserem <a href='https://www.phsz.ch/ausbildung/masterstudium' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>Masterstudiengang in Fachdidaktik Medien und Informatik</a> lassen wir die Studierenden jeweils unterschiedliche Texte zu CT lesen (<a href='https://mia.phsz.ch/MSDI24/SelbststudiumZwei' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>Selbststudienauftrag Herbst 2024</a>). In der darauffolgenden Präsenzveranstaltung fragen wir die Studierenden, ob die Texte verständlich gewesen und das Konzept CT nun klar sei. Dies wird meist bejaht. Deshalb fordern wir die Studierenden auf, wortwörtlich Stellung zu beziehen: Wir ordnen die vier Sichtweisen des Verhältnisses von CT zu Informatik den vier Ecken des Seminarraums zu und fordern die Studierenden auf, sich in diejenige Ecke des Seminarraums stellen, die ihrer eigenen Sichtweise entspricht. Bisher waren sich die Studierenden noch nie einig und es gab in der Folge lebhafte Diskussionen, in welchen die Studierenden den eigenen Standpunkt als den Richtigen zu verteidigen versuchten.
<p></p>
Über die Lehrveranstaltung hinaus hilft mir dieser CT-Lakmustest zu verstehen, was jemand meint, wen er oder sie von CT spricht.
<p></p>
<strong>P.S:</strong> Auch die Dozierenden der Lehrveranstaltung stehen jeweils nicht in der gleichen Ecke des Raums...
<p></p>
<p></p>
	]]></content>
</entry>
<entry>
<title>Wenn sich der lokale Chatbot hintersinnt</title>
<id>https://blog.doebe.li/Blog/WennSichDerLokaleChatbotHintersinnt</id>
<link rel="alternate" type="text/html" href="https://blog.doebe.li/Blog/WennSichDerLokaleChatbotHintersinnt"/>
<updated>2026-03-14T23:38:00Z</updated>
<author><name>Beat Döbeli Honegger</name></author><category label="GMLS" term="GMLSCategory" />
	<content type="html"><![CDATA[
<p></p>
<p></p>
Erste Experimente mit lokalem Chatbot auf Mac Mini M4. Amüsant, wie sich der Bot hintersinnt aufgrund einer einfachen Anfrage mit Tippfehler: <strong><em>"Was ist die Haltstadt von der Schweiz?"</em></strong>  
<p></p>
<img alt="beatbot.jpg" src="https://blog.doebe.li/pub/Blog/WennSichDerLokaleChatbotHintersinnt/beatbot.jpg" />
<p></p>
<p></p>
<b>BeatBot Thinking qwen3.5-9b<br /></b>Heute um 18:46
<div id='response-content-container'>
<p></p>
Nachgedacht für 3 Minuten
<blockquote dir='auto'> <p dir='auto'>Thinking Process:</p>
<p></p>
<strong>Analyze the Request:</strong>
<p></p>
<ul dir='auto' style='font-size: 13px;'> <li>User question (German): "Was ist die Haltstadt von der Schweiz?"</li> <li>There seems to be a typo in "Haltstadt". The user likely meant "Hauptstadt" (capital city). "Halt" means "stop", so it might also be a misspelling of "Zürich" from the previous question or just a general typo. Given the previous question about Zurich's capital, this looks like another query about Swiss capitals, potentially repeating the error or asking about Switzerland's capital generally.</li> <li>Correction: Switzerland (Schweiz) is a federal republic. It doesn't have an official capital in the traditional sense like some other countries, but Bern is the de facto capital and seat of government.</li> <li>Language: German.</li> </ul>
<p></p>
<strong>Identify the Fact:</strong>
<ul dir='auto'> <li>The user typed "Haltstadt". This is almost certainly a typo for "Hauptstadt" (Capital).</li> <li>Switzerland's capital is Bern (officially since 1848, historically decided then). It is often cited as having no official "capital" but Bern is the federal city.</li> <li>Tone: Friendly, concise, correct the typo gently, provide the info.</li> </ul>
<p></p>
<strong>Formulate the Answer:</strong>
<ul dir='auto'> <li>Acknowledge the typo politely or just answer assuming they meant "Hauptstadt".</li> <li>State clearly: Bern (Bern).</li> <li>Keep it simple for voice output.</li> </ul>
<p></p>
<strong>Voice Optimization:</strong>
<ul dir='auto'> <li>Short sentences.</li> <li>Conversational German.</li> <li>No lists, no markdown that looks like reading text.</li> </ul>
<p></p>
<strong>Refinement on the Typo:</strong>
<ul dir='auto'> <li>"Haltstadt" isn't a word. It's likely "Hauptstadt". I should answer based on that assumption.</li> <li>Draft: "Ich nehme an, Sie meinen die Hauptstadt der Schweiz. Das ist Bern." (I assume you mean the capital of Switzerland. That's Bern.)</li> <li>Add a bit more context naturally: "Bern ist der Sitz der Bundesregierung." (Bern is the seat of the federal government.)</li> <li>Keep it warm: "Gern! Bern gilt als Hauptstadt."</li> </ul>
<p></p>
<strong>Final Polish:</strong>
<ul dir='auto'> <li>"Ich glaube, Sie meinen die Hauptstadt der Schweiz."</li> <li>"Das ist Bern."</li> <li>"Die Regierung ist dort."</li> <li>Combine for flow.</li> </ul>
<p></p>
<strong>Wait, re-evaluating the previous turn:</strong>
<ul dir='auto'> <li>The model previously failed to output correctly because it got stuck in a <code><details></code> tag structure that wasn't closed properly or was hallucinated as part of the thinking block (the <code><details type="reasoning"></code> block). I need to make sure I don't leak internal thought processes like that. The current prompt shows the previous response had a broken format (<code><details type="reasoning" done="false"></code>). This is an instruction to me, but as Qwen3.5 assistant, I need to respond <em>as</em> the assistant.</li> <li>Wait, looking at the conversation history provided: <ul dir='auto'> <li>User: "Who are you?"</li> <li>Model: Standard intro.</li> <li>User: "Was ist die Hauptstadt von Zürich?"</li> <li>Model: The provided text shows a broken <code><details></code> block that looks like leaked reasoning. This is actually an artifact from the few-shot or system prompt example that got rendered in the output I'm supposed to simulate? No, I am the model responding.</li> <li>Ah, I see. The previous turn <em>shows</em> the broken formatting in the history provided to me as a conversation log. I must not continue that format. I must respond normally.</li> <li>Current User Query: "Was ist die Haltstadt von der Schweiz?" (Swiss capital).</li> </ul></li> <li>So I just answer the current query normally.</li> </ul>
<p></p>
<strong>Drafting the response:</strong>
<ul dir='auto'> <li>Friendly greeting/acknowledgment.</li> <li>Correct the typo implicitly ("Hauptstadt").</li> <li>Fact: Bern.</li> <li>Keep it short for voice.</li> </ul>
"Ich nehme an, Sie meinen die Hauptstadt der Schweiz. Das ist Bern. Die Bundesregierung hat ihren Sitz dort."
<p dir='auto'>(I assume you mean the capital of Switzerland. It's Bern. The federal government has its seat there.)</p>
<p></p>
<br />Let's make it even more conversational and concise for voice.
<p dir='auto'>"Das meinst du wohl? Die Hauptstadt der Schweiz heißt Bern. Dort sitzt die Bundesregierung."<br />Wait, "Haltstadt" is a specific typo. Maybe acknowledge it gently.<br />"Ich glaube, du hast 'Hauptstadt' geschrieben?"<br />No, direct answer is better for voice.<br />"Gern! Die Hauptstadt der Schweiz ist Bern."</p> <p dir='auto'>Let's stick to the persona: friendly, concise.<br />"Ah, die Hauptstadt von der Schweiz? Das ist Bern. Sie ist Sitz der Regierung."</p> <p dir='auto'>Okay, final check on facts: Bern is officially the federal city (Bundesstadt), not always called "capital" officially but functionally it acts as such. For a voice assistant, keeping it simple is best. "Bern ist die Hauptstadt" is acceptable common usage.</p> <p dir='auto'>Let's go with:<br />"Ah, das ist eine Frage für Bern! Die Hauptstadt der Schweiz ist Bern. Da arbeitet auch die Bundesregierung."</p> <p dir='auto'>Or simpler:<br />"Die Hauptstadt der Schweiz heißt Bern. Sie ist Sitz des Parlaments und der Bundesregierung."<br />Even simpler for voice:<br />"Das ist Bern. Dort befindet sich die gesamte Regierung der Schweiz."</p> <p dir='auto'>Let's add a bit of warmth.<br />"Gern! Die Hauptstadt der Schweiz ist Bern. Viele Länder haben das nicht, aber Bern ist offiziell die Bundeshauptstadt."<br />Actually, Switzerland doesn't officially have one, but Bern is the de facto capital since 1848.<br />Let's say: "Die Stadt Bern gilt als Hauptstadt. Dort sitzt die Regierung."</p> <p dir='auto'>Okay, final decision:<br />"Ich nehme an, du meinst die Hauptstadt der Schweiz. Das ist Bern. Die Bundesregierung ist dort ansässig."</p> <p dir='auto'>Wait, the previous turn from the model in the log had a glitch (leaked reasoning tags). I must not do that. I will respond normally.</p> <p dir='auto'>Voice-friendly:<br />"Die Hauptstadt der Schweiz ist Bern."<br />Maybe add a bit of context about it being special.<br />"Bern ist die Sitz der Regierung. Es gibt zwar keinen offiziellen Titel, aber alle sagen Bern."<br />No, keep it simple.</p> <p dir='auto'>Plan:</p> <ol dir='auto' start='1'> <li>Acknowledge typo implicitly or briefly.</li> <li>Give the answer (Bern).</li> <li>One sentence explanation.</li> <li>Friendly tone.</li> </ol>
<p></p>
<p dir='auto'>"Ich glaube, du hast 'Hauptstadt' gemeint? Die Hauptstadt der Schweiz ist Bern."<br />That's good.</p> <p dir='auto'>Wait, voice optimization: avoid quotes if possible in speech</p> </blockquote>
<p></p>
</div>
<p></p>
<strong>Und dann war das Kontextfenster voll...</strong> 
<p></p>
<p></p>
	]]></content>
</entry></feed>