<?xml version="1.0" encoding="utf-8" ?>
<?xml-stylesheet href="https://blog.doebe.li/pub/Applications/RssViewTemplate/pretty-feed.xsl" type="text/xsl" ?>
<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:atom="http://www.w3.org/2005/Atom">
<channel>
	<title>Blog - blog.doebe.li</title>
	<link>https://blog.doebe.li/Blog</link>
	<atom:link href="https://blog.doebe.li/Blog/WebRss" rel="self" type="application/rss+xml" />
	<description>Dies ist der private Weblog von <a href='https://doebe.li' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>Beat Döbeli Honegger</a></description>
	<image>
		<url>https://blog.doebe.li/pub/Blog/WebPreferences/beats-blog-logo.gif</url>
		<title>Blog - blog.doebe.li</title>
		<link>https://blog.doebe.li/Blog</link>
	</image>
	<language>en-us</language>
	<copyright>Copyright 2026 by contributing authors</copyright>
<item>
       <title>MFA-Ärger lindern</title>
       <link>https://blog.doebe.li/Blog/MFAAergerLindern</link>
       <guid>https://blog.doebe.li/Blog/MFAAergerLindern</guid>
       <dc:creator>Beat Döbeli Honegger</dc:creator>
       <dc:date>2026-04-23T15:18:42Z</dc:date>
       <category>Annoyance</category>
<category>Gadget</category>
<category>Geek</category>
<category>PHSZ</category> <!-- -->
       <description> <![CDATA[
<p></p>
Mein Arbeitgeber lässt sich nicht davon abbringen, die M365-Konten so einzustellen, dass jedes Gerät, das sich nicht im Arbeitgebernetzwerk befindet, sich täglich neu authentisieren muss per Multifaktor-Authentisierung (MFA). Dies bedeutet normalerweise, dass nach der Passworteingabe auf dem Gerät ein zweistelliger Code angezeigt wird, der dann in der Authenticator-App des Smartphones eingetippt werden muss.
<p></p>
<center> <img alt="mfa-01.png" src="https://blog.doebe.li/pub/Blog/MFAAergerLindern/mfa-01.png" /> </center>
<p></p>
Ja, IT-Sicherheit ist wichtig und MFA ist mitunter sinnvoll. Böse Hacker sollen nicht mit meinem Passwort von irgendwoher auf einem anderen Gerät sich als mich ausgeben können. Aber täglich mehrfach, das nervt. Besitzt man nämlich drei Geräte (Notebook, Tablet, Smartphone), dann macht man das pro Tag mindestens drei Mal. <em>"Es geht ja jeweils nur wenige Sekunden"</em> liesse sich jetzt einwenden. Einerseits summieren sich die Sekunden, andererseits können sich die verschiedenen Re-Authentisierungen auch in die Quere kommen: Lehnt man dann ein ab, dann riskiert man nicht zu merken, dass jetzt einfach keine neue Mail reinkommt, denn weder Outlook noch Apple Mail weisen wirklich deutlich auf die gekappte Verbindung hin.
<p></p>
<p></p>
<p></p>
<h2 id="Was_l_228sst_sich_tun_63">  Was lässt sich tun? </h2>
<p></p>
<h3 id="Passkey_einrichten_40ohne_Kostenfolge_41">  Passkey einrichten (ohne Kostenfolge) </h3>
<p></p>
Das Einrichten eines Passkeys auf dem Smartphone lindert den Ärger gleich in zweierlei Hinsicht: <ul>
<li> Die Häufigkeit der Reauthentisierungen scheint abzunehmen, weil ein Passkey als sicherer eingestuft wird als das Abtippen der zwei Zahlen.
</li> <li> Es müssen nicht mehr Zahlen abgetippt werden: <ul>
<li> Auf dem Notebook muss ein QR-Code mit dem Handy erfasst werdne
</li> <li> Auf dem Handy reicht das Antippen von "Passkey verwenden"
</li></ul> 
</li></ul> 
<p></p>
Konkret lässt sich auf dem iPhone für das Microsoft-Konto ein Passkey installieren. Dadurch entfällt das Abtippen von Ziffern beim Anmelden von Apps auf dem iPhone selbst. (Der Passkey kann auch für das Anmelden auf dem Notebook verwendet werden, dazu muss dann auf dem Notebook ein QR-Code gescannt werden. Ähnlich mühsam wie das Abtippen von zwei Ziffern).
<h3 id="USB_Hardwaretoken_kaufen_40mit_Kostenfolge_41">  USB Hardwaretoken kaufen (mit Kostenfolge) </h3>
<p></p>
Für einen Notebook unter Windows (10 oder 11) bietet sich auch der Kauf eines USB-Hardwaretokens an. Dieser USB-Stick gilt als zweiter Faktor und ersetzt das Smartphone. Der Passkey wird auf diesen USB-Stick gespeichert. Wenn Microsoft den Passkey auslesen will, muss das Token mit dem Finger berührt werden und gibt daraufhin den Passkey weiter. Ein Smartphone wird dann nicht mehr benötigt.
<p></p>
<center> <img alt="mfa-02.png" src="https://blog.doebe.li/pub/Blog/MFAAergerLindern/mfa-02.png" /> </center>
<p></p>
Der Yubikey nano für USB A (CHF 69.-) verschwindet praktisch in der USB-Steckdose:
<p></p>
<center> <img alt="mfa-03.jpg" src="https://blog.doebe.li/pub/Blog/MFAAergerLindern/mfa-03.jpg" /> </center>
<p></p>
<h3 id="Sparpotenzial">  Sparpotenzial </h3>
<p></p>
Abgesehen vom Ärger und Unterbruch des Flows beim Arbeiten amortisiert sich ein solcher Hardwarekey innherhalb eines Jahres bei weitem, selbst bei einem Stundenlohne von CHF 25.- und wenn man nicht mal die eingesparte Zeit durch schnelleres Authentisieren berücksichtigt, sondern nur das seltenere Authentisieren:
<p></p> <table class='foswikiTable'><tbody><tr ><td>  Stundenlohn  </td>
<td align="right">   25  </td>
<td>  CHF  </td>
</tr><tr ><td> Dauer MFA    </td>
<td align="right">      1  </td>
<td>  min  </td>
</tr><tr ><td> Kosten MFA 1x    </td>
<td align="right">   0.42  </td>
<td>  CHF  </td>
</tr><tr ><td>  Kosten MFA jährlich (täglich)    </td>
<td align="right">   152.08  </td>
<td>  CHF  </td>
</tr><tr ><td>  Kosten MFA jährlich (alle 4 Tage)  </td>
<td>  38.02  </td>
<td>  CHF  </td>
</tr><tr ><td>  Ersparnis durch Key  </td>
<td align="right">   114.06  </td>
<td>  CHF  </td>
</tr></tbody></table>
<p></p>
<p></p>
<!-- -->
<p></p>
<!-- -->
      ]]></description>
    </item>
<item>
       <title>Biblionetz - Wiki - GMLS - und was ist meine Aufgabe?</title>
       <link>https://blog.doebe.li/Blog/BiblionetzWikiGMLSUndWasIstMeineAufgabe</link>
       <guid>https://blog.doebe.li/Blog/BiblionetzWikiGMLSUndWasIstMeineAufgabe</guid>
       <dc:creator>Beat Döbeli Honegger</dc:creator>
       <dc:date>2026-04-20T09:24:46Z</dc:date>
       <category>Biblionetz</category>
<category>GMLS</category>
<category>Wiki</category> <!-- -->
       <description> <![CDATA[
<p></p>
Anfang April hat Andrej Karpathy, ein ehemaliger Mitarbeiter von OpenAI (Herstellerin von ChatGPT) ein Dokument mit dem Titel <a href='https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>LLM Wiki</a> (<a href='https://beat.doebe.li/t33408' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:t33408</a>) veröffentlicht, das beschreibt, wie man mit einem <strong>generativen Machine-Learning-System (GMLS)</strong> (<a href='https://beat.doebe.li/w02833' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w02833</a>) <strong>persönliches Wissensmanagement</strong> (<a href='https://beat.doebe.li/w01688' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w01688</a>) betreiben könnte: Man lässt das GMLS ein Wiki befüllen.
<p></p>
Besonders schön: Karpathy meint: <em>"Besprechen Sie dieses Dokument mit dem GMLS-System ihrer Wahl."</em>
<p></p>
Dieser Text hat mich natürlich brennend interessiert, schliesslich betreibe ich nicht nur seit 20 Jahren verschiedene Wikis (<a href='https://beat.doebe.li/w01268' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w01268</a>) und beschäftige mich seit Dezember 2023 mit GMLS - nein, seit bald 30 Jahren betreibe ich mit dem <a href='https://doebe.li/bibliothek/' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>Biblionetz</a> auch mein privates, aber öffentlich zugängliches Wissensnetz!
<p></p>
<center> <img alt="bibliowolke.jpg" src="https://blog.doebe.li/pub/Blog/BiblionetzWikiGMLSUndWasIstMeineAufgabe/bibliowolke.jpg" /> <em>Geclusterte Visualisierung des Biblionetzes (Stand 2019)</em> </center>
<p></p>
<p></p>
Natürlich wollte ich darüber nachdenken, natürlich wollte ich dazu bloggen oder die Frage beantworten, die mich auf verschiedenen Kanälen erreicht hat: <em>"Was denkst du zum Text von Karpathy?"</em> Nur: Ich habe derzeit zu wenig Zeit, um mich allem zu beschäftigen, was mich interessieren würde. Heute morgen meinte <strong>Myke Näf</strong> (<a href='https://beat.doebe.li/p00344' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:p00344</a>) im Chat, ich könne ja ein GMLS mein Posting schreiben lassen. Als ich zögerte und etwas von "Ich will aber meine Posts selber schreiben" am Tippen war, hatte er schon sein GMLS (Claude Opus 4.7) gefragt
<p></p>
<div style="border-style:dotted;border-width:1px;padding:6px;background-color:#DDDDDD; width:100%; max-width:40em; box-sizing:border-box;">
what does beat döbeli think of this in the context of his biblionetz or otherwise? write a linkedin post that he would write.
<p></p>
<em>und dann quote von karpathys tweet</em>
</div></verbatim>
<p></p>
Hier die Antwort von Claude:
<p></p>
<div style="border-style:dotted;border-width:1px;padding:6px;background-color:#DDDDDD; width:100%; max-width:40em; box-sizing:border-box;">
Beat würde das mit einer Mischung aus amüsiertem Wiedererkennen und leiser Skepsis lesen — schließlich macht er mit dem [Biblionetz](<a href='https://beat.doebe.li/bibliothek/' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>https://beat.doebe.li/bibliothek/</a>) seit 1996 von Hand, was Karpathy hier als LLM-Workflow skizziert: kompilierte Markdown-Wissensbasis, dichte Verlinkung, Rückverweise, inkrementelle Pflege. Der zentrale Punkt, an dem er hängenbleiben würde, ist Karpathys Satz <strong>"the LLM writes and maintains all of the data of the wiki, I rarely touch it directly"</strong> — für Beat ist das Schreiben selbst der Erkenntnisprozess. Ein Wiki, das man nicht selbst pflegt, ist für ihn kein Denkwerkzeug mehr, sondern eine Datenbank.
<p></p>
Hier ein Post in seinem Stil:
<p></p>
<hr />
<i>
Andrej Karpathy beschreibt, wie er mit LLMs ein persönliches Wiki aus Markdown-Dateien aufbaut — Rohdaten rein, kompiliertes Wissen raus, alles in Obsidian durchsuchbar. Sehr lesenswert.
<p></p>
Klingt für mich erstaunlich vertraut. Mein [Biblionetz](<a href='https://beat.doebe.li/bibliothek/' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>https://beat.doebe.li/bibliothek/</a>) macht seit 1996 ziemlich genau das. Allerdings: ohne LLM. Mit Lesen, Tippen, Verknüpfen. ~77'000 Begriffe, über 22'000 Publikationen, dichte Rückverweise. Kompiliert im Kopf, nicht im Kontextfenster.
<p></p>
Was mir beim Lesen von Karpathys Post auffällt:
<p></p>
→ <strong>"The LLM writes and maintains all of the data of the wiki, I rarely touch it directly."</strong> — Für mich war das Schreiben immer der eigentliche Erkenntnisprozess. Das Verknüpfen beim Tippen ist das, was hängen bleibt. Ein delegiertes Wiki hat vielleicht mehr Einträge. Aber hat es auch mehr verstanden?
<p></p>
→ Ein Personal Wiki ist für mich kein Speicher, sondern ein Denkwerkzeug. Der Unterschied ist fundamental.
<p></p>
→ Andererseits: Einen Assistenten, der inkonsistente Metadaten aufspürt, fehlende Backlinks vorschlägt, veraltete Einträge markiert — den hätte ich in den letzten 30 Jahren gerne gehabt. Als Korrektor, nicht als Autor.
<p></p>
Vielleicht ist die spannende Frage nicht <strong>"LLM schreibt Wiki"</strong> vs. <strong>"Mensch schreibt Wiki"</strong>, sondern: Wie unterstützt ein LLM den menschlichen Lese- und Denkprozess, ohne ihn zu ersetzen?
<p></p>
PIM — Personal Information Management, wie man das früher nannte — war nie nur Datenhaltung. Es war strukturiertes Nachdenken. Das bleibt auch im LLM-Zeitalter.
<p></p>
#Biblionetz #PKM #Wissensmanagement #DigitaleDinosaurier
</i>
<hr />
<p></p>
Ich kann den Ton noch weiter anpassen (mehr Schalk, mehr Skepsis, kürzer, zweisprachiger) — je nachdem, ob du ihn als ironischen Veteranen oder als konstruktiven Skeptiker positionieren willst.
</div></verbatim>
<p></p>
<strong>Mist!</strong> Damit habe ich noch ein Thema mehr: Dieses GMLS erfasst schon erstaunlich erschreckend gewisse der Aussagen, die ich tatsächlich machen würde, wenn ich Zeit hätte, ein solches Posting selbst zu schreiben! Das mit den 77'000 Begriffen stimmt zwar nicht: Es sind nur ca 3'800, dafür aber gegen 40'000 Publikationen, aber der Grundgedanke: "Was bleibt denn hängen, wenn ich die Verarbeitung einer Maschine überlasse?" ist genau der springende Punkt, den ich heute Morgen auch mit Myke Naef diskutiert habe.
<p></p>
<strong>So, und was fange ich jetzt damit an, dass diese Kisten bereits gewisse meiner Gedanken statistisch errechnen können, da sie offenbar nicht so innovativ sind, wie ich mir vielleicht einrede?</strong> 
<p></p>
Ob das vielleicht der richtige Zeitpunkt ist, um mich zurückzuziehen, jetzt wo GMLS anfangen mich gar nicht so schlecht zu imitieren und die kognitive Leistungsfähigkeit in meinem Alter ja sowieso zurückgeht, wie u.a. in diesem Artikel steht, den ich ebenfalls heute Morgen mit Myke diskutiert habe?
<p></p>
<center> <a href='https://www.theatlantic.com/magazine/archive/2019/07/work-peak-professional-decline/590650/' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'><img src=https://beat.doebe.li/bibliothek/img/t33438.jpg></a> <br> (<a href='https://beat.doebe.li/t33438' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:t33438</a>) </center>
<p></p>
<!-- -->
<p></p>
<!-- -->
      ]]></description>
    </item>
<item>
       <title>Experimente mit lokalen GMLS</title>
       <link>https://blog.doebe.li/Blog/ExperimenteMitLokalenGMLS</link>
       <guid>https://blog.doebe.li/Blog/ExperimenteMitLokalenGMLS</guid>
       <dc:creator>Beat Döbeli Honegger</dc:creator>
       <dc:date>2026-04-19T14:40:17Z</dc:date>
       <category>GMLS</category> <!-- -->
       <description> <![CDATA[
<p></p>
Ja, auch ich habe mir vor ca. 2 Monaten einen Mac Mini 4 mit zu wenig Speicher (16 GB) gekauft, um etwas mit lokalen Machine-Learning-Systemen zu experimentieren. Da ich viel zu wenig Zeit zu Rumspielen habe, sind meine Erkenntnisse sicher nicht weltbewegend und geneigte Leser:innen können gleich jetzt beschliessen, mit dem Lesen dieses Postings aufzuhören <img class='smily' src='/pub/System/SmiliesPlugin/emoticon-0105-wink.gif' alt='wink' title='wink' />
<p></p>
<center> <img alt="lgmls.jpg" src="https://blog.doebe.li/pub/Blog/ExperimenteMitLokalenGMLS/lgmls.jpg" /> <br> <em>Der Mac Mini auf meinem Büchergestell</em> </center>
<p></p>
<p></p>
Als Ende 2022 ChatGPT (<a href='https://beat.doebe.li/w03387' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w03387</a>) veröffentlicht wurde, hiess es, dass derartige Leistungen von generativen Machine-Learning-Systemen (GMLS) (<a href='https://beat.doebe.li/w02833' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w02833</a>) in den nächsten Jahren nur auf grossen Serverfarmen, nicht aber auf lokalen Computern verfügbar sein würden. In den letzten drei Jahren hat aber eine erstaunliche technologische Entwicklung stattgefunden und immer bessere Sprachmodelle liessen sich auch auf lokalen Computern (mit möglichst guten Grafikkarten) betreiben. 
<p></p>
<h2 id="Warum_ein_lokales_GMLS_63">  Warum ein lokales GMLS? </h2>
<p></p>
Aus meiner Sicht gibt es zwei Gründe, warum man ein <strong>lokales GMLS (LGMLS)</strong> (<a href='https://beat.doebe.li/w03773' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w03773</a>) statt eines Serverdienstes nutzen möchte:
<p></p> <ul>
<li> <strong>Kosten:</strong> Grosse Sprachmodelle verlangen ab einem bestimmten Nutzungsumfang Gebühren. Lokale Modelle verlangen keine Gebühren. Ob aber die Hardwareinvestitionen, der Stromverbrauch und die Zeit zum Einrichten und Konfigurieren letztendlich weniger Geld kosten als die Nutzungsgebühren kommerzieller Anbieter, wage ich zu bezweifeln.
</li> <li> <strong>Datenschutz / Digitale Souveränität:</strong> Wichtiger scheint mir die Überlegung, dass man mit einem lokalen GMLS eine grössere digitale Souveränität hat als bei der Nutzung von GMLS im Internet: <ul>
<li> <strong>Modellwahl &amp; -stabilität:</strong> Bei einem lokalen System kann ich selbst entscheiden, welche Modelle ich nutze und im Gegensatz zu Anbietern im Internet,        die öfters mal Modelle auch durch andere ersetzen oder schon nur Modellparameter auch ohne Information ändern, ist es an mir, Modelle oder Parameter zu ändern,
</li> <li> <strong>Datenschutz:</strong> Führe ich einen Dialog mit einem lokalen GMLS, dann verlassen im Idealfall* keine Daten meinen Computer. Damit verringert sich die Gefahr, dass meine Daten in falsche Hände kommen und ausgewertet werden können. (* Auch bei einem lokalen System besteht die Gefahr, dass Daten abfliessen, entweder durch <strong>prompt injection</strong> (<a href='https://beat.doebe.li/w03423' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w03423</a>) oder klassisches Hacking und Malware)
</li></ul> 
</li></ul> 
<p></p>
<h2 id="Was_l_228uft_bei_mir_derzeit_63">  Was läuft bei mir derzeit? </h2>
Ich baue derzeit einen Mac Mini 4 mit 16 GB zu einem kleinen Hausserver aus, auf dem verschiedene Dienste laufen sollen, unter anderem lokale GMLS.
<p></p>
<center> <img alt="mac-mini-daten.jpg" src="https://blog.doebe.li/pub/Blog/ExperimenteMitLokalenGMLS/mac-mini-daten.jpg" /> </center>
<p></p>
Lokale GMLS sind derzeit meist nicht ein Stück Software, sondern ein ganzes Puzzle von Einzelkomponenten, die verschiedene Aufgaben übernehmen. (Ich arbeite an einer Grafik, um das konzeptionell schön zu visualisieren).
<p></p> <ul>
<li> Als "Modellprovider" verwende ich derzeit <a href='https://ollama.com/' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>Ollama</a> und <a href='https://lmstudio.ai/' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>LM Studio</a> parallel (weil ich noch nicht weiss, was besser geeignet ist für meine Bedürfnisse)
</li> <li> Als <strong>Modelle</strong> nutze ich derzeit (Stand 18.04.26) (und bin völlig überfordert mit der Geheimwissenschaft der Modellwahl...): <ul>
<li> gemma-4-e4b-it
</li> <li> qwen3.5:9b
</li> <li> mistral-small:24b
</li> <li> mistral-3-3b
</li></ul> 
</li> <li> Um die Funktion auch auf anderen Computern nutzen zu können, läuft <a href='https://openwebui.com/' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>Open Web UI</a>. Zusammen mit dem VPN-Dienst <a href='https://tailscale.com/' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>Tailscale</a> ermöglicht mir das, von jedem meiner Geräte von irgendwo auf der Welt auf meine lokalen Dienste zugreifen zu können.
</li> <li> <strong>piper</strong> und <strong>whisper</strong> sind ebenfalls auf dem Gerät installiert, um <strong>Text zu Sprache</strong> und <strong>Sprache zu Text</strong> ebenfalls lokal nutzen zu können (unter anderem für die Hausautomatisation).
</li> <li> Zudem experimentiere ich derzeit mit einer selbst gevibecodeten MCP-Schnittstelle (<a href='https://beat.doebe.li/w03705' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w03705</a>) zur lokalen Volltextsuche auf meinem Notebook. Damit möchte ich versuchen, mit begrenzten Computerressourcen meine lokalen Daten einzubinden (so wie z.B. Claude Cowork).
</li></ul> 
<p></p>
<h2 id="Zwischenfazit">  Zwischenfazit </h2>
Es ist faszinierend, wie insbesondere <strong>gemma-4-e4b-it</strong> rasche, rein lokal generierte, deutsche Antworten liefert und sowohl Websuche als auch per MCP lokale Suche mit integrieren kann. Trotzdem ist der Qualitätsunterschied zu serverbasierten Modellen riesig und es fragt sich, wofür ich die lokal verfügbare Qualität - von der ich Anfang 2023 noch total begeistert war bei ChatGPT - tatsächlich würde nutzen wollen (u.a. evtl. für gewisse Automatismen innerhalb des Biblionetzes...). 
<p></p>
Primär aber: Ich habe deutlich zu wenig Zeit, um mich mit den Möglichkeiten auseinanderzusetzen, auch wenn ich weiss, dass vieles Versions- und Produktwissen ist, das in wenigen Monaten, wenn nicht Wochen bereits wieder veraltet ist.
<p></p>
<!-- -->
<p></p>
<!-- -->
      ]]></description>
    </item>
<item>
       <title>Hmm, und was ist jetzt Computational Thinking?</title>
       <link>https://blog.doebe.li/Blog/HmmUndWasIstJetztComputationalThinking</link>
       <guid>https://blog.doebe.li/Blog/HmmUndWasIstJetztComputationalThinking</guid>
       <dc:creator>Beat Döbeli Honegger</dc:creator>
       <dc:date>2026-03-26T08:33:59Z</dc:date>
       <category>Bildungspolitik</category>
<category>Informatik</category> <!-- -->
       <description> <![CDATA[
<p></p>
<strong>Computational thinking (CT)</strong> (<a href='https://beat.doebe.li/w02206' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w02206</a>) ist ein Dauerbrenner in meinem beruflichen Umfeld (z.B. Dezember 2025: NeinEsGehtNichtUmComputergestuetztesDenken). Der 2006 von Jeannette Wing (<a href='https://beat.doebe.li/p09720' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:p09720</a>) mit einem <a href='https://www.cs.cmu.edu/afs/cs/usr/wing/www/publications/Wing06.pdf' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>Artikel in den Communications of the ACM <img src=/pub/System/DocumentGraphics/pdf.gif alt="PDF-Dokument" title="PDF-Dokument" border=0></a> (<a href='https://beat.doebe.li/t12130' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:t12130</a>) popularisierte Begriff taucht seit Jahren sowohl in fachdidaktischen als auch bildungspolitischen Diskussionen auf. Auf den ersten Blick ist es ganz einfach. Die meisten Definitionen des Begriffs lassen sich zusammenfassen als 
<p></p>
<div style="border-style:dotted;border-width:1px;padding:6px;background-color:#DDDDDD; width:100%; max-width:40em; box-sizing:border-box;">
Denken wie Informatiker:innen
</div></verbatim>
<p></p>
Doch was simpel klingt,  ist bei näherer Betrachtung doch nicht so eindeutig. Dies zeigt sich, wenn man nachfragt, was denn das Verhältnis von CT zu Informatik sei. Ich habe dazu als eine Art Lakmustest eine Grafik erstellt:
<p></p>
<center> <img alt="WasIstCT.png" src="https://blog.doebe.li/pub/Blog/HmmUndWasIstJetztComputationalThinking/WasIstCT.png" /> </center>
<p></p>
<p></p>
<p></p>
In unserem <a href='https://www.phsz.ch/ausbildung/masterstudium' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>Masterstudiengang in Fachdidaktik Medien und Informatik</a> lassen wir die Studierenden jeweils unterschiedliche Texte zu CT lesen (<a href='https://mia.phsz.ch/MSDI24/SelbststudiumZwei' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>Selbststudienauftrag Herbst 2024</a>). In der darauffolgenden Präsenzveranstaltung fragen wir die Studierenden, ob die Texte verständlich gewesen und das Konzept CT nun klar sei. Dies wird meist bejaht. Deshalb fordern wir die Studierenden auf, wortwörtlich Stellung zu beziehen: Wir ordnen die vier Sichtweisen des Verhältnisses von CT zu Informatik den vier Ecken des Seminarraums zu und fordern die Studierenden auf, sich in diejenige Ecke des Seminarraums stellen, die ihrer eigenen Sichtweise entspricht. Bisher waren sich die Studierenden noch nie einig und es gab in der Folge lebhafte Diskussionen, in welchen die Studierenden den eigenen Standpunkt als den Richtigen zu verteidigen versuchten.
<p></p>
Über die Lehrveranstaltung hinaus hilft mir dieser CT-Lakmustest zu verstehen, was jemand meint, wen er oder sie von CT spricht.
<p></p>
<strong>P.S:</strong> Auch die Dozierenden der Lehrveranstaltung stehen jeweils nicht in der gleichen Ecke des Raums...
<p></p>
<!-- -->
<p></p>
<!-- -->
      ]]></description>
    </item>
<item>
       <title>Wenn sich der lokale Chatbot hintersinnt</title>
       <link>https://blog.doebe.li/Blog/WennSichDerLokaleChatbotHintersinnt</link>
       <guid>https://blog.doebe.li/Blog/WennSichDerLokaleChatbotHintersinnt</guid>
       <dc:creator>Beat Döbeli Honegger</dc:creator>
       <dc:date>2026-03-14T22:40:01Z</dc:date>
       <category>GMLS</category> <!-- -->
       <description> <![CDATA[
<p></p>
<p></p>
Erste Experimente mit lokalem Chatbot auf Mac Mini M4. Amüsant, wie sich der Bot hintersinnt aufgrund einer einfachen Anfrage mit Tippfehler: <strong><em>"Was ist die Haltstadt von der Schweiz?"</em></strong>  
<p></p>
<img alt="beatbot.jpg" src="https://blog.doebe.li/pub/Blog/WennSichDerLokaleChatbotHintersinnt/beatbot.jpg" />
<p></p>
<p></p>
<b>BeatBot Thinking qwen3.5-9b<br /></b>Heute um 18:46
<div id='response-content-container'>
<p></p>
Nachgedacht für 3 Minuten
<blockquote dir='auto'> <p dir='auto'>Thinking Process:</p>
<p></p>
<strong>Analyze the Request:</strong>
<p></p>
<ul dir='auto' style='font-size: 13px;'> <li>User question (German): "Was ist die Haltstadt von der Schweiz?"</li> <li>There seems to be a typo in "Haltstadt". The user likely meant "Hauptstadt" (capital city). "Halt" means "stop", so it might also be a misspelling of "Zürich" from the previous question or just a general typo. Given the previous question about Zurich's capital, this looks like another query about Swiss capitals, potentially repeating the error or asking about Switzerland's capital generally.</li> <li>Correction: Switzerland (Schweiz) is a federal republic. It doesn't have an official capital in the traditional sense like some other countries, but Bern is the de facto capital and seat of government.</li> <li>Language: German.</li> </ul>
<p></p>
<strong>Identify the Fact:</strong>
<ul dir='auto'> <li>The user typed "Haltstadt". This is almost certainly a typo for "Hauptstadt" (Capital).</li> <li>Switzerland's capital is Bern (officially since 1848, historically decided then). It is often cited as having no official "capital" but Bern is the federal city.</li> <li>Tone: Friendly, concise, correct the typo gently, provide the info.</li> </ul>
<p></p>
<strong>Formulate the Answer:</strong>
<ul dir='auto'> <li>Acknowledge the typo politely or just answer assuming they meant "Hauptstadt".</li> <li>State clearly: Bern (Bern).</li> <li>Keep it simple for voice output.</li> </ul>
<p></p>
<strong>Voice Optimization:</strong>
<ul dir='auto'> <li>Short sentences.</li> <li>Conversational German.</li> <li>No lists, no markdown that looks like reading text.</li> </ul>
<p></p>
<strong>Refinement on the Typo:</strong>
<ul dir='auto'> <li>"Haltstadt" isn't a word. It's likely "Hauptstadt". I should answer based on that assumption.</li> <li>Draft: "Ich nehme an, Sie meinen die Hauptstadt der Schweiz. Das ist Bern." (I assume you mean the capital of Switzerland. That's Bern.)</li> <li>Add a bit more context naturally: "Bern ist der Sitz der Bundesregierung." (Bern is the seat of the federal government.)</li> <li>Keep it warm: "Gern! Bern gilt als Hauptstadt."</li> </ul>
<p></p>
<strong>Final Polish:</strong>
<ul dir='auto'> <li>"Ich glaube, Sie meinen die Hauptstadt der Schweiz."</li> <li>"Das ist Bern."</li> <li>"Die Regierung ist dort."</li> <li>Combine for flow.</li> </ul>
<p></p>
<strong>Wait, re-evaluating the previous turn:</strong>
<ul dir='auto'> <li>The model previously failed to output correctly because it got stuck in a <code><details></code> tag structure that wasn't closed properly or was hallucinated as part of the thinking block (the <code><details type="reasoning"></code> block). I need to make sure I don't leak internal thought processes like that. The current prompt shows the previous response had a broken format (<code><details type="reasoning" done="false"></code>). This is an instruction to me, but as Qwen3.5 assistant, I need to respond <em>as</em> the assistant.</li> <li>Wait, looking at the conversation history provided: <ul dir='auto'> <li>User: "Who are you?"</li> <li>Model: Standard intro.</li> <li>User: "Was ist die Hauptstadt von Zürich?"</li> <li>Model: The provided text shows a broken <code><details></code> block that looks like leaked reasoning. This is actually an artifact from the few-shot or system prompt example that got rendered in the output I'm supposed to simulate? No, I am the model responding.</li> <li>Ah, I see. The previous turn <em>shows</em> the broken formatting in the history provided to me as a conversation log. I must not continue that format. I must respond normally.</li> <li>Current User Query: "Was ist die Haltstadt von der Schweiz?" (Swiss capital).</li> </ul></li> <li>So I just answer the current query normally.</li> </ul>
<p></p>
<strong>Drafting the response:</strong>
<ul dir='auto'> <li>Friendly greeting/acknowledgment.</li> <li>Correct the typo implicitly ("Hauptstadt").</li> <li>Fact: Bern.</li> <li>Keep it short for voice.</li> </ul>
"Ich nehme an, Sie meinen die Hauptstadt der Schweiz. Das ist Bern. Die Bundesregierung hat ihren Sitz dort."
<p dir='auto'>(I assume you mean the capital of Switzerland. It's Bern. The federal government has its seat there.)</p>
<p></p>
<br />Let's make it even more conversational and concise for voice.
<p dir='auto'>"Das meinst du wohl? Die Hauptstadt der Schweiz heißt Bern. Dort sitzt die Bundesregierung."<br />Wait, "Haltstadt" is a specific typo. Maybe acknowledge it gently.<br />"Ich glaube, du hast 'Hauptstadt' geschrieben?"<br />No, direct answer is better for voice.<br />"Gern! Die Hauptstadt der Schweiz ist Bern."</p> <p dir='auto'>Let's stick to the persona: friendly, concise.<br />"Ah, die Hauptstadt von der Schweiz? Das ist Bern. Sie ist Sitz der Regierung."</p> <p dir='auto'>Okay, final check on facts: Bern is officially the federal city (Bundesstadt), not always called "capital" officially but functionally it acts as such. For a voice assistant, keeping it simple is best. "Bern ist die Hauptstadt" is acceptable common usage.</p> <p dir='auto'>Let's go with:<br />"Ah, das ist eine Frage für Bern! Die Hauptstadt der Schweiz ist Bern. Da arbeitet auch die Bundesregierung."</p> <p dir='auto'>Or simpler:<br />"Die Hauptstadt der Schweiz heißt Bern. Sie ist Sitz des Parlaments und der Bundesregierung."<br />Even simpler for voice:<br />"Das ist Bern. Dort befindet sich die gesamte Regierung der Schweiz."</p> <p dir='auto'>Let's add a bit of warmth.<br />"Gern! Die Hauptstadt der Schweiz ist Bern. Viele Länder haben das nicht, aber Bern ist offiziell die Bundeshauptstadt."<br />Actually, Switzerland doesn't officially have one, but Bern is the de facto capital since 1848.<br />Let's say: "Die Stadt Bern gilt als Hauptstadt. Dort sitzt die Regierung."</p> <p dir='auto'>Okay, final decision:<br />"Ich nehme an, du meinst die Hauptstadt der Schweiz. Das ist Bern. Die Bundesregierung ist dort ansässig."</p> <p dir='auto'>Wait, the previous turn from the model in the log had a glitch (leaked reasoning tags). I must not do that. I will respond normally.</p> <p dir='auto'>Voice-friendly:<br />"Die Hauptstadt der Schweiz ist Bern."<br />Maybe add a bit of context about it being special.<br />"Bern ist die Sitz der Regierung. Es gibt zwar keinen offiziellen Titel, aber alle sagen Bern."<br />No, keep it simple.</p> <p dir='auto'>Plan:</p> <ol dir='auto' start='1'> <li>Acknowledge typo implicitly or briefly.</li> <li>Give the answer (Bern).</li> <li>One sentence explanation.</li> <li>Friendly tone.</li> </ol>
<p></p>
<p dir='auto'>"Ich glaube, du hast 'Hauptstadt' gemeint? Die Hauptstadt der Schweiz ist Bern."<br />That's good.</p> <p dir='auto'>Wait, voice optimization: avoid quotes if possible in speech</p> </blockquote>
<p></p>
</div>
<p></p>
<strong>Und dann war das Kontextfenster voll...</strong> 
<p></p>
<!-- -->
<p></p>
<!-- -->
      ]]></description>
    </item>
<item>
       <title>Gadgets für den Fernunterrichtsdozenten</title>
       <link>https://blog.doebe.li/Blog/GadgetsFuerDenFernunterrichtsdozenten</link>
       <guid>https://blog.doebe.li/Blog/GadgetsFuerDenFernunterrichtsdozenten</guid>
       <dc:creator>Beat Döbeli Honegger</dc:creator>
       <dc:date>2026-03-14T19:45:09Z</dc:date>
       <category>Bildschirme</category>
<category>Gadget</category>
<category>PHSZ</category> <!-- -->
       <description> <![CDATA[
<p></p>
Auch nach dem Ende von Corona habe ich bisweilen Studierende im Fernunterricht. Ich empfinde es als anspruchsvoll, Fernunterricht abwechslungsreich zu orchestrieren. Unter anderem deshalb habe ich mir zwei Gadgets zugelegt, die mir das Dozierendenleben erleichtern sollen: Eine <strong>Insta360 Link 2</strong> Webcam und ein <strong>Streamdeck</strong>:
<p></p>
<center> <img alt="ferngadgets-01.jpg" src="https://blog.doebe.li/pub/Blog/GadgetsFuerDenFernunterrichtsdozenten/ferngadgets-01.jpg" /> </center>
<p></p>
Bei der Insta360 Link 2 handelt es sich um eine kleine Webcam, die auf einem motorisierten Zweiachsen-Gymbal montiert ist und sich somit in zwei Dimensionen drehen lässt. Die Bildposition und der Zoom lässt sich auf drei Arten festlegen:
<p></p> <ol>
<li> Durch Bewegungs- und Zoomtasten in der Steuersoftware
</li> <li> Durch vordefinierte Bildausschnitte in der Steuersoftware
</li> <li> Durch automatisches Verfolgen einer Person (mittels Bilderkennung)
</li></ol> 
<p></p>
Die Kamera eignet sich deshalb nicht nur für Videokonferenzen, sondern insbesondere auch für Fernlehre.
<p></p>
Weil die Steuersoftware etwas fummelig und im Fernunterricht der Bildschirmplatz teuer ist und ich mich kognitiv entlasten möchte durch die Sicherheit, dass gewisse Kamerafunktionen sich mit dem immer gleichen Knopf am gleichen Ort bedienen lassen, kommt ein <strong>Streamdeck</strong> zum Einsatz. Mit dieser programmierbaren Tastatur kann ich den einzelnen LED-Tasten individuelle Funktionen zuordnen und sie mit individuellem Text und Bild versorgen. So kann ich verschiedene vordefinierte Bildausschnitte (Whiteboard, Pult, Fenster, Person) auf verschiedene Tasten legen:
<p></p>
<center> <img alt="ferngadgets-02.jpg" src="https://blog.doebe.li/pub/Blog/GadgetsFuerDenFernunterrichtsdozenten/ferngadgets-02.jpg" /> </center>
<p></p>
Die <strong>Insta360 Link 2</strong> wiederum ermöglicht es mir, auch meine Tischplatte zu filmen. Ich habe somit auf meinem Pult den sichtbaren Bereich markiert und kann per Knopfdruck zwischen mir und der Pultoberfläche als Videoinput umschalten. Das ermöglicht mir das Zeigen von physischen Objekten und Abläufen:
<p></p>
<center> <img alt="ferngadgets-03.jpg" src="https://blog.doebe.li/pub/Blog/GadgetsFuerDenFernunterrichtsdozenten/ferngadgets-03.jpg" /> <br> <em>Markierung der im Video sichtbaren Pultfläche</em> </center>
<p></p>
<center> <img alt="ferngadgets-04.jpg" src="https://blog.doebe.li/pub/Blog/GadgetsFuerDenFernunterrichtsdozenten/ferngadgets-04.jpg" /> <br> <em>Von der Webcam aufgenommenes Bild von oben</em> </center>
<p></p>
Als letztes habe ich ein altes Whiteboard hinter mir aufgestellt und einen entsprechenden Bildausschnitt definiert, so dass ich auch aufstehen und etwas am Whiteboard erklären kann:
<p></p>
<center> <img alt="ferngadgets-06.jpg" src="https://blog.doebe.li/pub/Blog/GadgetsFuerDenFernunterrichtsdozenten/ferngadgets-06.jpg" />  </center>
<p></p>
<center> <img alt="ferngadgets-07.jpg" src="https://blog.doebe.li/pub/Blog/GadgetsFuerDenFernunterrichtsdozenten/ferngadgets-07.jpg" /> <br> <em>(Am Tag ist die Reflexion des Bildschirms deutlich geringer)</em> </center>
<p></p>
Damit bin ich gerüstet für 4 Lektionen Fernunterricht am Samstagmorgen...
<p></p>
<center> <img alt="ferngadgets-05.jpg" src="https://blog.doebe.li/pub/Blog/GadgetsFuerDenFernunterrichtsdozenten/ferngadgets-05.jpg" />  </center>
<p></p>
<!-- -->
<p></p>
<!-- -->
      ]]></description>
    </item>
<item>
       <title>Binär zählen lernen trotz oder wegen "KI"</title>
       <link>https://blog.doebe.li/Blog/BinaerZaehlenLernenTrotzOderWegenKI</link>
       <guid>https://blog.doebe.li/Blog/BinaerZaehlenLernenTrotzOderWegenKI</guid>
       <dc:creator>Beat Döbeli Honegger</dc:creator>
       <dc:date>2026-03-14T20:25:52Z</dc:date>
       <category>Bildungspolitik</category>
<category>GMLS</category>
<category>Informatik</category> <!-- -->
       <description> <![CDATA[
<p></p>
<p></p>
<div style="border-style:dotted;border-width:1px;padding:6px;background-color:#DDDDDD; width:100%; max-width:40em; box-sizing:border-box;">
Ich nutze die Zugfahrt für ein fokussiertes Deep-Dive in mein didaktisches High-Performance-Mindset, um maximale Stakeholder-Alignment-Power zu entfalten und die nächste Generation von Informatik-Lehrkräften mit einem 10x-Growth-Approach zu disrupten. 🚀🔥💎
</div></verbatim>
<p></p>
schlägt mir der <a href='https://www.linkedin.com/posts/danielzoll_nutze-meinen-quatschi-quatschi-master-activity-7432327034175078400-pSty' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>LinkedIn-Bullshit-Generator</a> als Tätigkeitsbeschreibung für heute vor. (Beim Bullshit-Generator handelt es sich um einen Preprompt, der einem GMLS gefüttert aus jeder banalen Tätigkeitsbeschreibung eine (leider derzeit häufige) LinkedIn-Übertreibung macht.)
<p></p>
<img alt="binaer-01.jpg" src="https://blog.doebe.li/pub/Blog/BinaerZaehlenLernenTrotzOderWegenKI/binaer-01.jpg" />
<p></p>
Was ich grad wirklich mache: Ich bin im Zug für die Einstiegsveranstaltung <strong>Grundlagen der Informatik</strong> der PHSZ im zweiten Semester unseres Fernstudiengangs zur Primarlehrperson und lese (ebenfalls bei LinkedIn), dass sich die Schweiz an der <strong>PISA-Untersuchung 2029</strong> (Biblinetz:w03699) beteiligen wird und da auch das Modul <strong>Media &amp; Artificial Intelligence (MAIL)</strong> (<a href='https://beat.doebe.li/w03700' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w03700</a>) nutzen will. Das finde ich grundsätzlich begrüssenswert, denn es ist sinnvoll zu wissen, was Jugendliche in der Schweiz in digitalen Dingen wissen und können. 
<p></p>
Weil ich meinen mechanischen Binärzähler für den heutigen Unterricht dabeihabe, frage ich mich, wie der denn zum MAIL-Modul von PISA 2029 passt.
<p></p>
<p></p>
<p></p>
Das <strong>Media &amp; Artificial Intelligence (MAIL)-Modul</strong> von PISA 2029 dürfte das allgemeine Verständnis, was denn "KI-Kompetenz" bedeutet stark prägen, weil die von der OECD durchgeführte PISA-Untersuchung in vielen Ländern mitprägt, was in den Schulen unterrichtet wird (teaching to the test...). Sagt z.B. <strong>Ben Williamson</strong> (<a href='https://beat.doebe.li/p04079' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:p04079</a>):
<p></p>
<div style="border-style:dotted;border-width:1px;padding:6px;background-color:#DDDDDD; width:100%; max-width:40em; box-sizing:border-box;">
Given the OECD’s enduring influence through educational testing, its AI literacy intervention could, then, be consequential in setting the international standard in relation to students’ competencies to engage with AI.
What the OECD test will accomplish is to provide a concrete global definition of AI literacy, subject it to quantitative and comparative measurement, and encourage educators and students to “perform” to the test.
</div></verbatim>
<strong>Quelle:</strong>  Performing AI literacy (2025) (<a href='https://beat.doebe.li/t32555' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:t32555</a>)
<p></p>
Der erste, kürzlich veröffentlichte Entwurf des <strong>Media &amp; Artificial Intelligence (MAIL)-Frameworks</strong> und dem Titel <a href='https://www.oecd.org/content/dam/oecd/en/about/projects/edu/the-pisa-2029-media-and-artificial-intelligence-(mail)-assessment-will-shed-light-on-whether-young-students-have-had-opportunities-to-learn-and-to-engage-proactively-and-critically-in-a-world-where-production,-participation,-and-social-networking-are-increasingly-mediated-by-digital-and-ai-tools-/PISA%202029%20MAIL%20Assessment%20Framework%20First%20Draft.pdf' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>Navigating an Evolving digital world <img src=/pub/System/DocumentGraphics/pdf.gif alt="PDF-Dokument" title="PDF-Dokument" border=0></a> (<a href='https://beat.doebe.li/b09255' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:b09255</a>) macht mir nun gewisse Sorgen.
<p></p>
<center> <img src=https://beat.doebe.li/bibliothek/img/b09255.jpg height=300px> </center>
<p></p>
Zwar wird schon erwähnt, dass zu einer <strong>AI literacy</strong> auch technisches Wissen gehöre: 
<p></p>
<div style="border-style:dotted;border-width:1px;padding:6px;background-color:#DDDDDD; width:100%; max-width:40em; box-sizing:border-box;">
AI literacy represents the technical knowledge, durable skills and future-ready
attitudes required to thrive in a world influenced by AI systems. 
</div></verbatim>
<p></p>
Trotzdem scheinen mir die drei Perspektiven des <strong>Dagstuhl-Dreiecks</strong> (<a href='https://beat.doebe.li/w02886' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w02886</a>) sehr ungleich vertreten. Es wird viel mehr über die Wirkung von AI berichtet als darüber, wie man AI technisch verstehen müsse. Damit sehe ich die Balance der Dagstuhl-Perspektiven gefährdet.
<p></p>
<strong>Zudem lese ich bei gewissen Begriffen ein mitschwingendes Werturteil.</strong> So wird beispielsweise der Begriff „Algorithmus“ (oder „algorithmisch“) im Text fast ausschliesslich in problematischen oder kritischen Kontexten verwendet, während für Potenziale andere Begriffe dominieren. Fünf Beispiele:
<p></p> <table class='foswikiTable'><tbody><tr ><th><strong> Manipulation &amp; psychische Belastung </strong></th>
<td>  <em>„...the emotional impact of <strong>algorithmic manipulation</strong> or deep fakes, can erode social connections and trust, foster anxiety, and thus challenge healthy development.“</em>  </td>
</tr><tr ><th><strong> Krimineller Missbrauch </strong></th>
<td>  <em>„AI can automate and scale phishing scams, deepfake-based fraud and malware attacks, using <strong>algorithmic targeting</strong> to amplify virality.“</em>  </td>
</tr><tr ><th><strong> Unsichtbare Kontrolle </strong></th>
<td>  <em>„...largely <strong>invisible algorithms</strong> and increasingly invisible information systems... these systems can shape the narrative, select visuals and determine the tone of the message with minimal human oversight.“</em>  </td>
</tr><tr ><th><strong> Fragmentierung &amp; Echokammern </strong></th>
<td>  <em>„The rapid advancement of <strong>algorithmic and AI personalisation</strong> &#8230; has fragmented audiences, fostered the emergence of echo chambers and filter bubbles, and made it easier to monetise attention.“</em>  </td>
</tr><tr ><th><strong> Verstärkung von Angst &amp; Wut </strong></th>
<td>  <em>„... <strong>algorithmically promoted content</strong> &#8230; [which] tend to amplify content that sparks strong emotional reactions, including outrage and fear, as this content keeps people engaged.“</em>  </td>
</tr></tbody></table>
<p></p>
Natürlich haben Algorithmen auch problemtische Auswirkungen, aber diese einseitig negative Konnotation des an und für sich neutralen Begriffs <strong>Algorithmus</strong> finde ich problematisch. Mir kommt es vor, als würde man fragen: "Ieek, das willst du essen, da hat es aber Atome drin!"
<p></p>
<img alt="binaer-02.jpg" src="https://blog.doebe.li/pub/Blog/BinaerZaehlenLernenTrotzOderWegenKI/binaer-02.jpg" />
<p></p>
Diese Grafik zu Beginn des Dokuments illustriert meine Sorge sehr plakativ, dass <strong>Informatik</strong> im Bildungsdiskurs untergehen und durch <strong>AI</strong> ersetzt werden könnte - wobei aber gleichzeitig auch die <strong>technologische Perspektive des Dagstuhl-Dreiecks</strong> (<a href='https://beat.doebe.li/w02888' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w02888</a>) weitgehend verloren geht.
<p></p>
Naja:
<p></p>
<div style="border-style:dotted;border-width:1px;padding:6px;background-color:#DDDDDD; width:100%; max-width:40em; box-sizing:border-box;">
Mit einem klaren High-Performance-Mindset vollziehe ich einen bewusst orchestrierten Transition-Move vom mobilen Deep-Work-Space in das nächste Impact-Ökosystem und skaliere meine physische Präsenz als strategischen Erfolgsfaktor.
</div></verbatim>
<p></p>
Oder banaler formuliert: Ich muss jetzt aus dem Zug aussteigen und angehenden Lehrpersonen Informatik mit 0 und 1 erklären gehen (denn AI literacy erfordert fundiertes Informatikwissen &#8230;)
<p></p>
<!-- -->
<p></p>
<!-- -->
      ]]></description>
    </item>
<item>
       <title>Claude beim Arbeiten zusehen</title>
       <link>https://blog.doebe.li/Blog/ClaudeBeimArbeitenZusehen</link>
       <guid>https://blog.doebe.li/Blog/ClaudeBeimArbeitenZusehen</guid>
       <dc:creator>Beat Döbeli Honegger</dc:creator>
       <dc:date>2026-02-20T19:19:47Z</dc:date>
       <category>GMLS</category>
<category>Software</category> <!-- -->
       <description> <![CDATA[
<p></p>
Im Folgenden beschreibe ich, was <strong>Claude Opus 4.6</strong> im Februar 2026 aufgrund eines einzigen Prompts auf meinem Computer erstellen konnte. Natürlich wusste ich theoretisch, dass so etwas geht. Sieht man dann dem generativen Machine-Learning-System während 20 Minuten zu, wie es die Aufgabe löst, ist es nochmals was anderes.
<p></p>
Claude hat mir aufgrund eines einzigen Prompts aus einer riesigen MP3-Sammlung im Umfang von 78 CDs, Coverbildern und einem Booklet als PDF eine strukturierte HTML-Oberfläche für den Browser mit Volltextsuche und integriertem Player gebaut:
<p></p>
<img alt="schiff-01.jpg" src="https://blog.doebe.li/pub/Blog/ClaudeBeimArbeitenZusehen/schiff-01.jpg" />
<p></p>
<p></p>
<strong>Etwas ausführlicher:</strong>
<p></p>
Ich habe auf meiner Festplatte eine Ordnerstruktur, in welcher sich alle MP3-Dateien einer CD-Sammlung mit 78 CDs befinden. Bei jeder CD ist auch ein Bild des CD-Covers gespeichert. Zusätzlich gibt es ein eingescanntes Booklet dieser CD-Sammlung. In dieser Form ist diese Sammlung nicht sehr gut nutzbar, weil das Navigieren in den Ordnern eher mühsam ist und gleichzeitig das Booklet geöffnet haben muss um zu wissen, auf welcher CD überhaupt was gespeichert ist.
<p></p>
Aus diesem Grund habe ich Claude den entsprechenden Ordner freigegeben und ihn gebeten, mir eine HTML-Oberfläche zu erstellen. Im Gegensatz zu bisherigen Experimenten mit GMLS-Systemen hat mich erstaunt, dass Claude Opus 4.6 zwar ca. 25 Minuten benötigt hat und zahlreiche Sackgassen bei der Bewältigung der Aufgabe betreten hat, sich aber selbst wieder befreien und letztendlich die Aufgabe ohne weitere Nachfrage lösen könnte.
<p></p>
Mein Prompt lautete:
<p></p>
<div style="border-style:dotted;border-width:1px;padding:6px;background-color:#DDDDDD; width:100%; max-width:40em; box-sizing:border-box;">
ich habe im verzeichnis "e:\Andras Schiff" eine mp3-sammlung von Andras Schiff und hätte gerne eine html-oberfläche mit der ich die einzelnen cds durchstöbern und durchsuchen sowie die einzelnen stücke abspielen kann. Informationen zu den einzelnen Stücken sind einerseits in den Dateinamen der mp3-Files zu finden, andererseit auch im pdf "e:\Andras Schiff\scans\text2.pdf"
<p></p>
Für jede CD gibt es auch ein Front- und Backbild im Ordner Scans. Diese sollten auch in die html-Oberfläche eingebunden werden.
</div></verbatim>
<p></p>
Ab dann konnte ich zurücklehnen und zuschauen:
<p></p>
<img alt="schiff-02.jpg" src="https://blog.doebe.li/pub/Blog/ClaudeBeimArbeitenZusehen/schiff-02.jpg" />
<p></p>
Das Selbstgespräch von Claude geht über mehrere Bildschirmseiten. Claude scheitert mehrfach daran, dass sein Vorgehen für das System zu gross wird, sprich das Kontextfenster zu klein oder die zu speichernde Datenmenge für die aktuellen Begrenzungen zu gross ist. 
<p></p>
<img alt="schiff-03.jpg" src="https://blog.doebe.li/pub/Blog/ClaudeBeimArbeitenZusehen/schiff-03.jpg" />
<p></p>
und 
<p></p>
<img alt="schiff-04.jpg" src="https://blog.doebe.li/pub/Blog/ClaudeBeimArbeitenZusehen/schiff-04.jpg" />
<p></p>
Zum Schluss beschreibt Claude, welche Funktionalität die HTML-Oberfläche aufweist (ohne dass ich das spezifiziert hätte):
<p></p>
<img alt="schiff-05.jpg" src="https://blog.doebe.li/pub/Blog/ClaudeBeimArbeitenZusehen/schiff-05.jpg" />
<p></p>
Und ja, die Oberfläche funktioniert. Inkl. Volltextsuche oder der Möglichkeit, zum Vergrössern auf Cover zu klicken. <strong>Ich muss zugeben, dass ich beeindruckt bin.</strong>
<p></p>
Natürlich, diese Aufgabe ist nicht absurd komplex. Aber es ist trotzdem beeindruckend, wie das GMLS die Struktur der Daten erkennt, sie sinnvoll extrahieren und neu anordnen kann. Ich gehe davon aus, dass solche Systeme ihre eigene Arbeitsweise noch besser kennenlernen werden und somit künftig zahlreiche Sackgassen nicht mehr auspbobieren und dadurch nochmals effizienter werden. (Beim Versuch gestern Abend meinte Claude irgendwann nämlich, die Token meines Abos seien für den Abend aufgebraucht und sich solle entweder nachzahlen oder bis morgens um 02:00 warten.)
<p></p>
<p></p>
<!-- -->
<p></p>
<!-- -->
      ]]></description>
    </item>
<item>
       <title>Den Raspberry Pi ins böse Internet hängen</title>
       <link>https://blog.doebe.li/Blog/DenRaspberryPiInsBoeseInternetHaengen</link>
       <guid>https://blog.doebe.li/Blog/DenRaspberryPiInsBoeseInternetHaengen</guid>
       <dc:creator>Beat Döbeli Honegger</dc:creator>
       <dc:date>2026-03-14T19:35:16Z</dc:date>
        <!-- -->
       <description> <![CDATA[
<p></p>
Auch wenn es verlockend bequem ist, möchte ich nicht mehr alle meine Daten auf fremden Wolken lagern. Als Schritt zur persönlichen <strong>digitalen Souveränität</strong> habe ich deshalb angefangen, gewisse Dienste selbst zu hosten. Dafür könnte ich entweder einen virtuellen Server bei einem Provider mieten oder aber mir selbst einen kleinen Server in die Wohnung stellen und selektiv den Zugriff aus dem Internet auf diesen Server erlauben.
<p></p>
Ich habe mich für den eigenen Server im Bücherregal in Form eines Raspberry Pi 5 entschieden. Einerseits, weil dieser Server auch die Haussteuerung übernimmt, andererseits weil es darauf auch Daten hat, welche die Wohnung eigentlich nicht verlassen sollten. Ist es da nicht gefährlich, Löcher in die Firewall meines Internet-Routers zu bohren?
<p></p>
<img alt="boeses-internet.jpg" src="https://blog.doebe.li/pub/Blog/DenRaspberryPiInsBoeseInternetHaengen/boeses-internet.jpg" />
<p></p>
Es gibt folgende Möglichkeiten:
<p></p>
<p></p> <ol>
<li> <strong>Den Raspi nicht ins Internet hängen:</strong> <br>     Der Raspi ist nicht von aussen erreichbar, damit auch am wenigsten angreifbar. Die Dienste sind nur nutzbar,      wenn ich zuhause im eigenen Netwerk bin.
</li> <li> <strong>Der Raspi ist nur per VPN erreichbar:</strong> <br>     Entweder hat bereits der Router ein VPN eingebaut (Fritzboxen von AVM haben das z.B.) oder man nutzt einen VPN-Dienst wie z.B. <a href='https://tailscale.com/' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>Tailscale</a>, mit dem sich verschiedene eigene Geräte in einem eigenen geschlossenen VPN verbinden lassen (Tailscale ist für Privatgebrach kostenlos und vergleichsweise einfach installierbar, nutze ich selbst. Da Tailscale immer auf meinem Notebook läuft, ist mein Raspi darüber immer erreichbar).<br>Mit dieser Methode kann nur ich b(bzw. alle, die ich ins gleiche VPN einlade) auf den Raspi zugreifen.
</li> <li> <strong>Obskure Port-Forwards einrichten:</strong> <br>     Auf dem Router werden irgendwelche obskuren Ports geöffnet, die den Zugriff auf Ports auf dem Raspi ermöglichen.     Ein böser Angreifer muss damit auf dem Router mindestens einen Portscan machen, um herrauszufinden, auf welchem Port man angreifbar sein könnte.      Verwendet man nicht die Standardports der entsprechenden Programme, dann ist man rein statistisch etwas besser geschützt vor automatisierten Angriffen.     Ist aber <strong>security by obscurity</strong> und man muss drauf vertrauen, dass die dadurch im Internet sichtbaren Dienste keine     Schwachstellen besitzen und einigermassen gegen <strong>brute force Angriffe</strong> abgesichert sind.<br>     Mit einem kostenlosen dynDNS-Dienst wird der eigene Router auch über eine stabile Adresse von aussen erreichbar      (AVM bietet für die Fritzboxen so etwas kostenlos an).<br>     Nachteil: Gewisse Firewalls (z.B. die meines Arbeitgebers) sperrt obskure Ports, so dass die Dienste dann doch nicht von überall her erreichbar sind.
</li> <li> <strong>Den https-Port forwarden:</strong> <br>     Wenn der Standard-Port für https-Anfragen (443) am Router eingehende Anfragen an den Raspi weiterleitet, so ist der Raspi auch bei      restriktiven Firewalls eher erreichbar. Umgekehrt ist aber auch die Wahrscheinlichkeit grösser, dass man Ziel automatisierten Drive-By-Attacken wird.
</li></ol> 
<p></p>
<h2 id="Wie_mache_ich_es_konkret_63">  Wie mache ich es konkret? </h2>
<p></p>
Ich habe den Port 443 offen und dahinter läuft ein nginx Proxy-Server. Der schaut, anhand der Anfrage, welche Domain eine Anfrage erreichen will. Anfragen direkt auf die IP-Adresse laufen ins Leere. Damit hoffe ich, automatisierte IP-Scan-Angriffe etwas eindämmen zu können, da Angreifer wissen müssen, welche Domains auf meinem Raspi akzeptiert werden (sprich: IP-basierte Angriffe laufen ins Leere, DNS-basierte Angriffe erreichen ihr Ziel). Hier habe ich derzeit mehrere kostenlose dyndns-Adressen registriert und automatisiert mit einem Let's-Encrypt-Zertifikat versehen.
<p></p>
Nun wäge ich bei jedem Dienst zwischen Sicherheit und Bequemlichkeit ab:
<p></p>
<strong>Was ich von aussen einfach erreichen will:</strong> <ul>
<li> Meine Fotosammlung
</li> <li> Meine Haussteuerung
</li></ul> 
<p></p>
<strong>Was ich nur via tailscale erreichbar gemacht habe:</strong> <ul>
<li> Meine Dokumentenverwaltung (paperless-ngx)
</li> <li> Meine Duplicati-Backup-Dashboards
</li> <li> Mein nginx-Dashboard
</li></ul> 
<p></p>
<p></p>
<!-- -->
<p></p>
<!-- -->
      ]]></description>
    </item>
<item>
       <title>Warum ich Tofu bei der Arbeit nicht mag</title>
       <link>https://blog.doebe.li/Blog/WarumIchTofuBeiDerArbeitNichtMag</link>
       <guid>https://blog.doebe.li/Blog/WarumIchTofuBeiDerArbeitNichtMag</guid>
       <dc:creator>Beat Döbeli Honegger</dc:creator>
       <dc:date>2026-02-05T17:55:34Z</dc:date>
       <category>Geek</category>
<category>Information-Architecture (IA)</category> <!-- -->
       <description> <![CDATA[
<p></p>
Wenn ich auf meinem Computer nach meinen ältesten Mails (<a href='https://beat.doebe.li/w00498' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w00498</a>) suche, muss ich ins letzte Jahrtausend zurückgehen. Auf die Schnelle habe ich ein Mail gefunden, von dem nicht sofort klar ist, ob es jetzt von 1993, 1994 oder 1995 stammt:
<p></p>
<img alt="tofu-01.jpg" src="https://blog.doebe.li/pub/Blog/WarumIchTofuBeiDerArbeitNichtMag/tofu-01.jpg" />
<p></p>
<strong>Was aber sofort klar wird:</strong> Es ist lange, sehr lange her. (Hinweis sowohl für jüngere als auch ältere Menschen: Das war für mich noch vor dem Internet. Es handelt sich um das Mailboxnetzwerk <a href='https://de.wikipedia.org/wiki/FidoNet' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>FidoNet</a>). Und es zeigt auch, wie ich damals gelernt, habe Mails zu schreiben. Dieser Zitierstil sorgt heute in meinem Arbeitskontext öfters für Verwirrung. Eine Betrachtung zu <strong>digitaler Zusammenarbeit</strong>, die ich in Jöran Muuß-Merholz' beiden empfehlenswerten Büchern zu digitaler Zusammenarbeit (<a href='https://beat.doebe.li/b08860' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:b08860</a> und <a href='https://beat.doebe.li/b08924' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:b08924</a>) erstaunlicherweise nicht gefunden habe.
<p></p>
<p></p>
<p></p>
<strong>Ich wurde so mail- und newsgroup-sozialisiert, dass ich selektiv zitiere.</strong> Ich schreibe meine Antworten möglichst nahe zu einer Frage oder Aussage, die ich kommentieren möchte. Von früher her war ich mir gewohnt, dass Mailclients diese Arbeitsweise unterstützen, indem sie unterschiedliche Einrückungen automatisch farblich codieren. (Für Menschen, die das nicht selbst erlebt haben: Diese Farben stehen nicht in der Mail drin, die besteht aus reinem Text, sondern werden vom Mailclient bei der Anzeige der eigentlich schwarz/weissen Mail zur besseren Lesbarkeit eingesetzt). Der Fachbegriff für diese Zitationsweise heisst <strong>Inline-Quoting</strong>. Heute unterstützen Mailclients diese Zitierweise immer weniger.
<p></p>
Menschen, die später mail-sozialisiert wurden (und das Usenet gar nie erlebt haben), antworten auf Mails ganz anders. Sie schreiben einfach ihre Antwort oben an die erhaltene Mail hin, die dann nach unten rutscht, und schicken beides wieder an die Absenderadresse zurück. Dieser Zitierstil wird von Anhänger:innen des Inline-Quotings verächtlich als <strong>TOFU</strong> bezeichnet: <strong>Text Oben, Fullquote Unten</strong>.
<p></p>
In letzter Zeit habe ich von mehreren Kommunikationspartner:innen die Rückmeldung erhalten, dass sie meine Art, Mails zu beantworten, irritiert oder gar ihre Effizienz mindert: Es fehlt ihnen der Kontext, wenn ich darüber entscheide, was ich zurückschicke und was ich beim Beantworten lösche. Ich finde das spannend, denn aus meiner Sicht ist meine Art der Mailbeantwortung effizient für das Gegenüber und eigentlich eine Folge dessen, was Jöran Muuß-Merholz als <strong>Pre-Empathie</strong> (<a href='https://beat.doebe.li/w03655' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:w03655</a>) bezeichnet: Ich überlege mir, was mein Gegenüber in Zukunft bei dieser Kommunikation für die weitere Arbeit noch benötigt, und lösche alles (aus meiner Sicht) Irrelevante (z.B. alle bisherigen Mails mitsamt ihren technischen Kopfzeilen und Signaturen). 
<p></p>
<img src=https://beat.doebe.li/bibliothek/img/b02137.jpg style="float:right;margin:15px">Ich versuche eigentlich, die <strong>cognitive load</strong> beim Gegenüber zu senken, indem ich meine Antwort möglichst nahe zur Frage platziere. Ich versuche damit, einem grundlegenden Prinzip der Usability zu folgen: dem <strong>Gesetz der Nähe</strong>. Zudem: Ich hasse es, in einer längeren Kommunikation zigmal die ellenlangen Signaturen aller Beteiligten zu lesen (Besonders anstrengend bei interner Kommunikation, wenn mich die Mailsignatur mehrfach zu überzeugen versucht,  doch an der der eigenen Hochschule ein Studium zu beginnen...). Wer den Kontext aufgrund meiner Kürzungen nicht mehr versteht oder etwas von früher nachschauen will, kann in meiner Überlegung problemlos im <em>Thread</em> einer Mailkommunikation nachschauen. Damit versuche ich dem Design-Prinzip <strong>Schrittweises Enthüllen</strong> zu folgen. (Diese und andere Designprinzipien sind im lesenswerten Buch <strong>Universal Principles of Design</strong> von William Lidwell, Kritian Holden und Jill Butler zu finden (<a href='https://beat.doebe.li/b02137' class='natExternalLink interwikiLink' rel='nofollow noopener noreferrer' target='_blank' title='Eintrag in Beats Biblionetz'>Biblionetz:b02137</a>)
<p></p>
Aber ich gebe zu, bei den Kürzungen besteht ein schmaler Grat zwischen willkommener Pre-Empathie und unwillkommener Übergriffigkeit, was ich dem Gegenüber vorenthalte.
<p></p>
Beim Recherchieren für dieses Posting bin ich darauf gestossen, dass <strong>TOFU</strong> einen eigenen <a href='https://de.wikipedia.org/wiki/TOFU' class='natExternalLink' rel='nofollow noopener noreferrer' target='_blank'>Wikipedia-Artikel</a> besitzt, der eigentlich das Schreiben eines eigenen Postings fast überflüssig gemacht hätte. Unter anderem steht da:
<p></p>
<div style="border-style:dotted;border-width:1px;padding:6px;background-color:#DDDDDD; width:100%; max-width:40em; box-sizing:border-box;">
Hingegen ist etwa im geschäftlichen E-Mail-Verkehr TOFU eine weit verbreitete Form der Antwort. Hier würde das isolierte Zitieren und Kommentieren einzelner Sätze als ungewöhnlich empfunden.
<p></p>
[...]
<p></p>
Kritik an TOFU kommt meist beim Aufeinandertreffen von Benutzern dieses Zitierstils mit traditionellen Vertretern des Inline-Quotings (zum Beispiel im Usenet oder in Mailinglisten) auf. In traditionelleren Anwendungen des Internets hat sich im Laufe der Jahre das Inline-Quoting durchgesetzt. Es ist in zahllosen FAQs zur Netiquette ausführlich beschrieben. Unkenntnis oder Missachtung dieser einfachen Regeln durch Neulinge stößt zum Beispiel bei routinierten Usenet- oder Webforen-Benutzern auf Widerstand. Umgekehrt stößt die Kritik an TOFU dort auf Unverständnis, wo TOFU die übliche Form unkomplizierten Mailaustauschs zwischen Privatpersonen oder Firmen ist.
<p></p>
Inhaltlich dreht sich die Kritik um zwei Fragen, Reihenfolge und Umfang des Zitats. Bei TOFU kommt erst die zusammenhängende Antwort (Text oben), dann muss der Leser, sofern ihm der Bezug der Antwort nicht klar ist, die vollständige zitierte Originalmail nachlesen, um herauszufinden, worauf genau geantwortet wird. Andererseits fehlen einem Leser bei zu stark gekürztem Zitat mitunter für das (vollständige) Verständnis Informationen. Daher lehnen Kritiker das Nachlesen-Müssen ab, schätzen Befürworter aber das Nachlesen-Können. Beim Inline-Quoting sind Zitat und Antwort ineinander verwoben. Hier ist sofort nachvollziehbar, auf welche Aussagen sich die neuen Argumente beziehen. Bei längeren Inline-Zitaten muss der Benutzer unter Umständen nach unten scrollen. Bei TOFU muss nur nach unten geblättert werden, wenn der Kontext unklar ist.
<p></p>
&#8230;
</div></verbatim>
<p></p>
<strong>Schön, somit weiss ich, dass meine Kommunikationspartner:innen und ich nicht alleine sind.</strong> Eine Lösung für dieses Aufeinandertreffen unterschiedlicher Kulturen haben wir damit aber noch nicht. Mit gewissen Kommunikationspartner:innen haben in den letzten Tagen beide Seiten versucht, das für sie ungewohnte Antwortschema zu nutzen. Beide Seiten berichten übereinstimmend: Es fühlt sich fremd und falsch an.
<p></p>
<strong>Darum:</strong> Wie kommen wir aus diesem Kommunikationsdilemma raus? Müssen erst alle Inline-Quoter aussterben - oder gibt es bessere Lösungen? <img class='smily' src='/pub/System/SmiliesPlugin/emoticon-0105-wink.gif' alt='wink' title='wink' />
<p></p>
<!-- -->
<p></p>
<!-- -->
      ]]></description>
    </item></channel></rss>