Geclusterte Visualisierung des Biblionetzes (Stand 2019)
what does beat döbeli think of this in the context of his biblionetz or otherwise? write a linkedin post that he would write.
und dann quote von karpathys tweet
Hier die Antwort von Claude:
Beat würde das mit einer Mischung aus amüsiertem Wiedererkennen und leiser Skepsis lesen — schließlich macht er mit dem [Biblionetz](https://beat.doebe.li/bibliothek/) seit 1996 von Hand, was Karpathy hier als LLM-Workflow skizziert: kompilierte Markdown-Wissensbasis, dichte Verlinkung, Rückverweise, inkrementelle Pflege. Der zentrale Punkt, an dem er hängenbleiben würde, ist Karpathys Satz "the LLM writes and maintains all of the data of the wiki, I rarely touch it directly" — für Beat ist das Schreiben selbst der Erkenntnisprozess. Ein Wiki, das man nicht selbst pflegt, ist für ihn kein Denkwerkzeug mehr, sondern eine Datenbank.
Hier ein Post in seinem Stil:
Andrej Karpathy beschreibt, wie er mit LLMs ein persönliches Wiki aus Markdown-Dateien aufbaut — Rohdaten rein, kompiliertes Wissen raus, alles in Obsidian durchsuchbar. Sehr lesenswert. Klingt für mich erstaunlich vertraut. Mein [Biblionetz](https://beat.doebe.li/bibliothek/) macht seit 1996 ziemlich genau das. Allerdings: ohne LLM. Mit Lesen, Tippen, Verknüpfen. ~77'000 Begriffe, über 22'000 Publikationen, dichte Rückverweise. Kompiliert im Kopf, nicht im Kontextfenster. Was mir beim Lesen von Karpathys Post auffällt: → "The LLM writes and maintains all of the data of the wiki, I rarely touch it directly." — Für mich war das Schreiben immer der eigentliche Erkenntnisprozess. Das Verknüpfen beim Tippen ist das, was hängen bleibt. Ein delegiertes Wiki hat vielleicht mehr Einträge. Aber hat es auch mehr verstanden? → Ein Personal Wiki ist für mich kein Speicher, sondern ein Denkwerkzeug. Der Unterschied ist fundamental. → Andererseits: Einen Assistenten, der inkonsistente Metadaten aufspürt, fehlende Backlinks vorschlägt, veraltete Einträge markiert — den hätte ich in den letzten 30 Jahren gerne gehabt. Als Korrektor, nicht als Autor. Vielleicht ist die spannende Frage nicht "LLM schreibt Wiki" vs. "Mensch schreibt Wiki", sondern: Wie unterstützt ein LLM den menschlichen Lese- und Denkprozess, ohne ihn zu ersetzen? PIM — Personal Information Management, wie man das früher nannte — war nie nur Datenhaltung. Es war strukturiertes Nachdenken. Das bleibt auch im LLM-Zeitalter. #Biblionetz #PKM #Wissensmanagement #DigitaleDinosaurier
Ich kann den Ton noch weiter anpassen (mehr Schalk, mehr Skepsis, kürzer, zweisprachiger) — je nachdem, ob du ihn als ironischen Veteranen oder als konstruktiven Skeptiker positionieren willst.
Mist! Damit habe ich noch ein Thema mehr: Dieses GMLS erfasst schon erstaunlich erschreckend gewisse der Aussagen, die ich tatsächlich machen würde, wenn ich Zeit hätte, ein solches Posting selbst zu schreiben! Das mit den 77'000 Begriffen stimmt zwar nicht: Es sind nur ca 3'800, dafür aber gegen 40'000 Publikationen, aber der Grundgedanke: "Was bleibt denn hängen, wenn ich die Verarbeitung einer Maschine überlasse?" ist genau der springende Punkt, den ich heute Morgen auch mit Myke Naef diskutiert habe.
So, und was fange ich jetzt damit an, dass diese Kisten bereits gewisse meiner Gedanken statistisch errechnen können, da sie offenbar nicht so innovativ sind, wie ich mir vielleicht einrede?
Ob das vielleicht der richtige Zeitpunkt ist, um mich zurückzuziehen, jetzt wo GMLS anfangen mich gar nicht so schlecht zu imitieren und die kognitive Leistungsfähigkeit in meinem Alter ja sowieso zurückgeht, wie u.a. in diesem Artikel steht, den ich ebenfalls heute Morgen mit Myke diskutiert habe?
Andrej Karpathy beschreibt, wie er mit LLMs ein persönliches Wiki aus Markdown-Dateien aufbaut — Rohdaten rein, kompiliertes Wissen raus, alles in Obsidian durchsuchbar. Sehr lesenswert. Klingt für mich erstaunlich vertraut. Mein [Biblionetz](https://beat.doebe.li/bibliothek/) macht seit 1996 ziemlich genau das. Allerdings: ohne LLM. Mit Lesen, Tippen, Verknüpfen. ~77'000 Begriffe, über 22'000 Publikationen, dichte Rückverweise. Kompiliert im Kopf, nicht im Kontextfenster. Was mir beim Lesen von Karpathys Post auffällt: → "The LLM writes and maintains all of the data of the wiki, I rarely touch it directly." — Für mich war das Schreiben immer der eigentliche Erkenntnisprozess. Das Verknüpfen beim Tippen ist das, was hängen bleibt. Ein delegiertes Wiki hat vielleicht mehr Einträge. Aber hat es auch mehr verstanden? → Ein Personal Wiki ist für mich kein Speicher, sondern ein Denkwerkzeug. Der Unterschied ist fundamental. → Andererseits: Einen Assistenten, der inkonsistente Metadaten aufspürt, fehlende Backlinks vorschlägt, veraltete Einträge markiert — den hätte ich in den letzten 30 Jahren gerne gehabt. Als Korrektor, nicht als Autor. Vielleicht ist die spannende Frage nicht "LLM schreibt Wiki" vs. "Mensch schreibt Wiki", sondern: Wie unterstützt ein LLM den menschlichen Lese- und Denkprozess, ohne ihn zu ersetzen? PIM — Personal Information Management, wie man das früher nannte — war nie nur Datenhaltung. Es war strukturiertes Nachdenken. Das bleibt auch im LLM-Zeitalter. #Biblionetz #PKM #Wissensmanagement #DigitaleDinosaurier
Ich kann den Ton noch weiter anpassen (mehr Schalk, mehr Skepsis, kürzer, zweisprachiger) — je nachdem, ob du ihn als ironischen Veteranen oder als konstruktiven Skeptiker positionieren willst.
(Biblionetz:t33438)
Der Mac Mini auf meinem Büchergestell
Warum ein lokales GMLS?
Aus meiner Sicht gibt es zwei Gründe, warum man ein lokales GMLS (LGMLS) (Biblionetz:w03773) statt eines Serverdienstes nutzen möchte:- Kosten: Grosse Sprachmodelle verlangen ab einem bestimmten Nutzungsumfang Gebühren. Lokale Modelle verlangen keine Gebühren. Ob aber die Hardwareinvestitionen, der Stromverbrauch und die Zeit zum Einrichten und Konfigurieren letztendlich weniger Geld kosten als die Nutzungsgebühren kommerzieller Anbieter, wage ich zu bezweifeln.
- Datenschutz / Digitale Souveränität: Wichtiger scheint mir die Überlegung, dass man mit einem lokalen GMLS eine grössere digitale Souveränität hat als bei der Nutzung von GMLS im Internet:
- Modellwahl & -stabilität: Bei einem lokalen System kann ich selbst entscheiden, welche Modelle ich nutze und im Gegensatz zu Anbietern im Internet, die öfters mal Modelle auch durch andere ersetzen oder schon nur Modellparameter auch ohne Information ändern, ist es an mir, Modelle oder Parameter zu ändern,
- Datenschutz: Führe ich einen Dialog mit einem lokalen GMLS, dann verlassen im Idealfall* keine Daten meinen Computer. Damit verringert sich die Gefahr, dass meine Daten in falsche Hände kommen und ausgewertet werden können. (* Auch bei einem lokalen System besteht die Gefahr, dass Daten abfliessen, entweder durch prompt injection (Biblionetz:w03423) oder klassisches Hacking und Malware)
Was läuft bei mir derzeit?
Ich baue derzeit einen Mac Mini 4 mit 16 GB zu einem kleinen Hausserver aus, auf dem verschiedene Dienste laufen sollen, unter anderem lokale GMLS.
- Als "Modellprovider" verwende ich derzeit Ollama und LM Studio parallel (weil ich noch nicht weiss, was besser geeignet ist für meine Bedürfnisse)
- Als Modelle nutze ich derzeit (Stand 18.04.26) (und bin völlig überfordert mit der Geheimwissenschaft der Modellwahl...):
- gemma-4-e4b-it
- qwen3.5:9b
- mistral-small:24b
- mistral-3-3b
- Um die Funktion auch auf anderen Computern nutzen zu können, läuft Open Web UI. Zusammen mit dem VPN-Dienst Tailscale ermöglicht mir das, von jedem meiner Geräte von irgendwo auf der Welt auf meine lokalen Dienste zugreifen zu können.
- piper und whisper sind ebenfalls auf dem Gerät installiert, um Text zu Sprache und Sprache zu Text ebenfalls lokal nutzen zu können (unter anderem für die Hausautomatisation).
- Zudem experimentiere ich derzeit mit einer selbst gevibecodeten MCP-Schnittstelle (Biblionetz:w03705) zur lokalen Volltextsuche auf meinem Notebook. Damit möchte ich versuchen, mit begrenzten Computerressourcen meine lokalen Daten einzubinden (so wie z.B. Claude Cowork).
Zwischenfazit
Es ist faszinierend, wie insbesondere gemma-4-e4b-it rasche, rein lokal generierte, deutsche Antworten liefert und sowohl Websuche als auch per MCP lokale Suche mit integrieren kann. Trotzdem ist der Qualitätsunterschied zu serverbasierten Modellen riesig und es fragt sich, wofür ich die lokal verfügbare Qualität - von der ich Anfang 2023 noch total begeistert war bei ChatGPT - tatsächlich würde nutzen wollen (u.a. evtl. für gewisse Automatismen innerhalb des Biblionetzes...). Primär aber: Ich habe deutlich zu wenig Zeit, um mich mit den Möglichkeiten auseinanderzusetzen, auch wenn ich weiss, dass vieles Versions- und Produktwissen ist, das in wenigen Monaten, wenn nicht Wochen bereits wieder veraltet ist. @ENDE @ANFANG 26 March 2026 HmmUndWasIstJetztComputationalThinking Hmm, und was ist jetzt Computational Thinking? Computational thinking (CT) (Biblionetz:w02206) ist ein Dauerbrenner in meinem beruflichen Umfeld (z.B. Dezember 2025: Nein, es geht nicht um computergestütztes Denken!). Der 2006 von Jeannette Wing (Biblionetz:p09720) mit einem Artikel in den Communications of the ACM
(Biblionetz:t12130) popularisierte Begriff taucht seit Jahren sowohl in fachdidaktischen als auch bildungspolitischen Diskussionen auf. Auf den ersten Blick ist es ganz einfach. Die meisten Definitionen des Begriffs lassen sich zusammenfassen als
Denken wie Informatiker:innen
Doch was simpel klingt, ist bei näherer Betrachtung doch nicht so eindeutig. Dies zeigt sich, wenn man nachfragt, was denn das Verhältnis von CT zu Informatik sei. Ich habe dazu als eine Art Lakmustest eine Grafik erstellt:
Ja, mit den aktuellen Batterien schaffe ich es von Zürich nach Goldau (48km), meine Reichweite Überland beträgt aktuell ca. 55km)
Frequently Asked Questions zum Twike
- Allgemeine Informationen zum Twike:
- Artikel bei Wikipedia (deutsch)
- Datenblatt auf twike.com
- Artikel im elweb wiki (mit vielen technischen Daten)
- Twikeclub Schweiz (inkl. Occ.-Markt)
- Wie weit kommt man mit einem Twike?
Das hängt von den eingebauten Batterien und von der Fahrweise ab. Wer viel Geld ausgibt, kann heute Batterien mit einer Reichweite von 250 km kaufen.
Derzeit bringe ich es im Stadtverkehr auf 35-40km, ausserhalb auf 55km mit einer Ladung.
- Wie schnell fährt das Twike?
Auf gerader Strecke fährt das Twike 85km/h. Danach wird die Energiezufuhr elektronisch begrenzt. Auf der Forchautostrasse habe ich abwärts ca. 105km/h erreicht. Wirklich angenehm ist das dann allerdings nicht mehr, da auf dem lenkenden Vorderrad zu wenig Gewicht liegt.
- Darf das Twike auf die Autobahn?
Es darf, will aber nicht. Denn beim Twike spürt man sehr deutlich, dass grössere Geschwindigkeiten massiv mehr Energie benötigen.
- Wie lädt man das Twike?
Das Twike lässt sich an jeder haushaltüblichen 230V-Steckdose laden. Je nach Sicherung kann es dabei 6A, 10A oder maximal 16A saugen (dann aber besser an einer CEE- aka Camping-Steckdose). Je nach Ladestrom und Batteriegrösse dauert die Ladung unterschiedlich lange. Daumenregel: Schnellladung 1km/min Ladezeit.
- Hat das nicht Pedalen?
Das ursprünglich Twike (active) hatte Pedalen, um dem Elektromotor zu helfen. Das Twike easy verzichtet auf die Pedalen, da diese je nach Nutzung nicht viel bringen. (In der Stadt kann ich nicht pedalen, da ich immer bremsbereit sein muss, da mich Autofahrer unterschätzen / nicht ernst nehmen und Fussgänger/Fahrradfahrer nicht hören. Pedalen würde meine Reaktionszeit vergrössern).
- …
Ich nutze die Zugfahrt für ein fokussiertes Deep-Dive in mein didaktisches High-Performance-Mindset, um maximale Stakeholder-Alignment-Power zu entfalten und die nächste Generation von Informatik-Lehrkräften mit einem 10x-Growth-Approach zu disrupten. 🚀🔥💎
schlägt mir der LinkedIn-Bullshit-Generator als Tätigkeitsbeschreibung für heute vor. (Beim Bullshit-Generator handelt es sich um einen Preprompt, der einem GMLS gefüttert aus jeder banalen Tätigkeitsbeschreibung eine (leider derzeit häufige) LinkedIn-Übertreibung macht.)
Was ich grad wirklich mache: Ich bin im Zug für die Einstiegsveranstaltung Grundlagen der Informatik der PHSZ im zweiten Semester unseres Fernstudiengangs zur Primarlehrperson und lese (ebenfalls bei LinkedIn), dass sich die Schweiz an der PISA-Untersuchung 2029 (Biblinetz:w03699) beteiligen wird und da auch das Modul Media & Artificial Intelligence (MAIL) (Biblionetz:w03700) nutzen will. Das finde ich grundsätzlich begrüssenswert, denn es ist sinnvoll zu wissen, was Jugendliche in der Schweiz in digitalen Dingen wissen und können.
Weil ich meinen mechanischen Binärzähler für den heutigen Unterricht dabeihabe, frage ich mich, wie der denn zum MAIL-Modul von PISA 2029 passt.
Das Media & Artificial Intelligence (MAIL)-Modul von PISA 2029 dürfte das allgemeine Verständnis, was denn "KI-Kompetenz" bedeutet stark prägen, weil die von der OECD durchgeführte PISA-Untersuchung in vielen Ländern mitprägt, was in den Schulen unterrichtet wird (teaching to the test...). Sagt z.B. Ben Williamson (Biblionetz:p04079):
Given the OECD’s enduring influence through educational testing, its AI literacy intervention could, then, be consequential in setting the international standard in relation to students’ competencies to engage with AI.
What the OECD test will accomplish is to provide a concrete global definition of AI literacy, subject it to quantitative and comparative measurement, and encourage educators and students to “perform” to the test.
Quelle: Performing AI literacy (2025) (Biblionetz:t32555)
Der erste, kürzlich veröffentlichte Entwurf des Media & Artificial Intelligence (MAIL)-Frameworks und dem Titel Navigating an Evolving digital world
(Biblionetz:b09255) macht mir nun gewisse Sorgen.
AI literacy represents the technical knowledge, durable skills and future-ready
attitudes required to thrive in a world influenced by AI systems.
Trotzdem scheinen mir die drei Perspektiven des Dagstuhl-Dreiecks (Biblionetz:w02886) sehr ungleich vertreten. Es wird viel mehr über die Wirkung von AI berichtet als darüber, wie man AI technisch verstehen müsse. Damit sehe ich die Balance der Dagstuhl-Perspektiven gefährdet.
Zudem lese ich bei gewissen Begriffen ein mitschwingendes Werturteil. So wird beispielsweise der Begriff „Algorithmus“ (oder „algorithmisch“) im Text fast ausschliesslich in problematischen oder kritischen Kontexten verwendet, während für Potenziale andere Begriffe dominieren. Fünf Beispiele:
| Manipulation & psychische Belastung | „...the emotional impact of algorithmic manipulation or deep fakes, can erode social connections and trust, foster anxiety, and thus challenge healthy development.“ |
|---|---|
| Krimineller Missbrauch | „AI can automate and scale phishing scams, deepfake-based fraud and malware attacks, using algorithmic targeting to amplify virality.“ |
| Unsichtbare Kontrolle | „...largely invisible algorithms and increasingly invisible information systems... these systems can shape the narrative, select visuals and determine the tone of the message with minimal human oversight.“ |
| Fragmentierung & Echokammern | „The rapid advancement of algorithmic and AI personalisation … has fragmented audiences, fostered the emergence of echo chambers and filter bubbles, and made it easier to monetise attention.“ |
| Verstärkung von Angst & Wut | „... algorithmically promoted content … [which] tend to amplify content that sparks strong emotional reactions, including outrage and fear, as this content keeps people engaged.“ |
Diese Grafik zu Beginn des Dokuments illustriert meine Sorge sehr plakativ, dass Informatik im Bildungsdiskurs untergehen und durch AI ersetzt werden könnte - wobei aber gleichzeitig auch die technologische Perspektive des Dagstuhl-Dreiecks (Biblionetz:w02888) weitgehend verloren geht.
Naja:
Mit einem klaren High-Performance-Mindset vollziehe ich einen bewusst orchestrierten Transition-Move vom mobilen Deep-Work-Space in das nächste Impact-Ökosystem und skaliere meine physische Präsenz als strategischen Erfolgsfaktor.
Oder banaler formuliert: Ich muss jetzt aus dem Zug aussteigen und angehenden Lehrpersonen Informatik mit 0 und 1 erklären gehen (denn AI literacy erfordert fundiertes Informatikwissen …)
@ENDE
@ANFANG 04 March 2026 DasSchulischeCloudDilemma Das schulische Cloud-Dilemma
Das folgende Posting ist keine abschliessende Haltung, sondern - Problem ignorieren: Vermutlich die häufigste Reaktion. Das Thema ist entweder noch unbekannt oder verglichen mit anderen aktuellen Herausforderungen nicht relevant genug für eine Reaktion.
- Schulischen Zwang zu Clouddiensten verbieten: Weder Lehrpersonen noch Schülerinnen und Schüler dürfen gezwungen werden, Clouddienste zu nutzen.
- Jegliche schulische Nutzung von Clouddiensten verbieten: Allen Lehrpersonen wird verboten, Clouddienste für schulische Zwecke zu nutzen.
- Grundsätzliche, staatspolitische Ebene: Der Einsatz muss verboten werden, wenn es den geltenden Datenschutzgesetzen widerspricht, um den Anbietern die Stirn zu bieten und sie zu zwingen, lokale Datenschutzgesetze zu akzeptieren. Oft wird diese Haltung als lächerlich und utopisch abgetan, aber ich bin mir da nicht ganz so sicher. Vermutlich würden Anbieter ihre Datenschutzbestimmungen anpassen wollen, wenn genügend viele Verbote ausgesprochen werden. Auf einer normativ-staatlichen Ebene finde ich deshalb diese Haltung nicht ganz abwegig. Problematisch ist natürlich dabei, dass der (berechtigte oder unberechtigte) Eindruck entstehen kann, dass solche Verbote auch Ausdruck einer allgemeinen Technikfeindlichkeit, Abwehrhaltung und Bewahrpädagogik sein könnten...
- Technisch-organisatorische Ebene: Oft wird auf technisch-organisatorische Lösungen verwiesen:
- Auf Open Source Lösungen setzen: Derzeit häufig zu hören ist der Ruf nach Open Source- Lösungen. Das scheint mir ein eigenes Blog-Posting wert zu sein, in Kürze nur dies: Alltagstauglich sind Open-Source-Lösungen derzeit für Office-Lösungen und für Desktops und Notebooks, nicht aber für Tablets, Handhelds und Smartphones.
- Daten in der Cloud verschlüsseln etc.: Solche Lösungen funktionieren im Einzelfall, sind aber meiner Ansicht nach (bisher) nicht schulalltagstauglich.
- Clouds selbst hosten: Man könnte eigene Clouds nutzen, statt solche im Ausland. Wobei dann zu definieren wäre, was "eigene" heissen soll: Im eigenen Land/Kanton/Bundesland oder im Keller des Schulhauses? Und damit wären wir dann bei weiteren Support- und Sicherheitsfragen. Internationale Clouddienste haben das Geld und das Know-how, um ihre Clouds einigermassen sicher zu machen...
- Pragmatische, schulpraktische Ebene: Hier empfehle ich Lehrpersonen oft, Clouddienste dann zu nutzen, wenn sie es für sinnvoll halten, Verbote hin oder her. Der Einsatz digitaler Medien in der Schule wird zu Recht kritisch auf Effektivität und Effizienz abgeklopft. Da macht es aus schulpraktischer Sicht wenig Sinn, wenn staatspolitische Überlegungen dazu führen, dass der Einsatz digitaler Medien in der Schule mühsamer und umständlicher als notwendig ist. Denn das ist wieder Wasser auf die Mühlen derjenigen, die den Sinn von ICT in der Schule eh bezweifeln.
Ich habe den Artikel auch kopfschüttelnd gelesen. Wenn die "Lösung" des Problems eine überteuerte, selbst gehostete Schrott-Plattform ist, so ist niemandem gedient. Die 'üblichen Verdächtigen' verletzen keineswegs Datenschutzbestimmungen: Der heikel Punkt sind bspw. von Lehrpersonen veröffentliche persönliche Daten... Nicht der Hammer ist das Problem, aber dessen Nutzung. -- JuergStuker - 20 Aug 2013
ja, auf der praktischen "lebens-" bzw schulweltlichen ebene muss man pragmatisch reagieren - muddling through, mal so, mal anders. Eine wirkliche Lösung, die die Widersprüche auf neuer Ebene entlastet, scheint mir mehr und mehr zu erfordern, solche Probleme nicht mehr als kantonale oder nationale (gesetzlich) lösen zu wollen, sondern zu transnationalen Verhandlungen und Vereinbarungen zu gelangen, denn alle Länder und Regionen sind doch global von diesen Problemen betroffen. -- LisaRosa - 20 Aug 2013
ich arbeite seit jahren auf der pragmatischen ebene, immer nach den jeweils für mich und die betr. kolleginnen praktikabelsten möglichkeiten. seit google drive smartphone optimiert ist, verwalte ich meine >250 SuS dort und teile die dokumente mit eben den kolleginnen. nein, darin sind keine persönlichen daten zu finden: julinda, aufmerksam, 5.5 sind keine persönlichen daten. -- BeatRueedi - 20 Aug 2013 @ENDE @ANFANG 25 February 2026 SolltenWirWenigerArbeitenWeilUnsDieDigitalsierungRoutinearbeitenAbnimmt Sollten wir weniger arbeiten weil uns die Digitalisierung Routinearbeiten abnimmt? Dies ist vorerst nur lautes Denken und evtl. nicht zu Ende gedacht.
- Softare entwickeln: Aus einem Verständnis für die zu lösende Aufgabe und den verfügbaren technischen Möglichkeiten ein Architektur planen und umsetzen, welche die Aufgabe effektiv, effizient und zuverlässig und sicher löst.
- Programmieren: Einen Ablauf in lauffähigen Code umsetzen.
Die zweite Grafik visualisiert unterschiedliche Arten von "Schreiben":
Welche der beiden Grafiken transportiert die Botschaft besser?
Warum blogge ich überhaupt darüber? Man könnte mir vorwerfen, dass ich als ausgebildeter Informatiker einen Statusverlust befürchte, wenn jetzt dankt GMLS das Herstellen von Software einfacher geworden ist. Ich hoffe, dass das nicht mein heimlicher Treiber ist, auf diese Problematik hinzuweisen. Ich freue mich, dass mehr Menschen durch GMLS ihre Möglichkeiten erweitern können, sich digital auszudrücken und/oder in digitalen Strukturen zu denken. Programmieren kann dazu führen, dass man sich vermehrt Gedanken über Strukturen und Abläufe im digitalen Raum macht. Es sind mehrere berufliche Fragen, die mich beschäftigen:
- Brauchen wir künftig noch ausgebildete Informatiker:innen? ist eine wichtige bildungspolitische Frage, die mich beruflich beschäftigt. Insofern ist es wichtig zu beobachten, wo die Potenziale und Grenzen von GMLS im Bereich der Software-Entwicklung sind.
- Müssen wir uns vor schlecht programmierten Systemen fürchten? ist die grössere Frage, die mich umtreibt. So wie wir in der Schweiz und in der EU für gewisse Berufe eine Ausbildung verlangen (z.B. Elektriker:innen) oder bei gewissen Produkten ein gewisses Sicherheitslevel mit einem Prüfsiegel auf dem Produkt belegt werden muss (und chinesische Direktimporte das Siegel teilweise nicht oder nur gefälscht haben), so müssen wir bei gewisser Software auch sicher sein können, dass sie gewisse Sicherheitsstandards genügt. Das gilt nicht nur für selbstfahrende Autos, sondern auch für Lernsoftware und andere Programme, mit denen Kindern und Jugendliche zu tun haben (oder gar zu tun haben müssen).
Was aber sofort klar wird: Es ist lange, sehr lange her. (Hinweis sowohl für jüngere als auch ältere Menschen: Das war für mich noch vor dem Internet. Es handelt sich um das Mailboxnetzwerk FidoNet). Und es zeigt auch, wie ich damals gelernt, habe Mails zu schreiben. Dieser Zitierstil sorgt heute in meinem Arbeitskontext öfters für Verwirrung. Eine Betrachtung zu digitaler Zusammenarbeit, die ich in Jöran Muuß-Merholz' beiden empfehlenswerten Büchern zu digitaler Zusammenarbeit (Biblionetz:b08860 und Biblionetz:b08924) erstaunlicherweise nicht gefunden habe.
Ich wurde so mail- und newsgroup-sozialisiert, dass ich selektiv zitiere. Ich schreibe meine Antworten möglichst nahe zu einer Frage oder Aussage, die ich kommentieren möchte. Von früher her war ich mir gewohnt, dass Mailclients diese Arbeitsweise unterstützen, indem sie unterschiedliche Einrückungen automatisch farblich codieren. (Für Menschen, die das nicht selbst erlebt haben: Diese Farben stehen nicht in der Mail drin, die besteht aus reinem Text, sondern werden vom Mailclient bei der Anzeige der eigentlich schwarz/weissen Mail zur besseren Lesbarkeit eingesetzt). Der Fachbegriff für diese Zitationsweise heisst Inline-Quoting. Heute unterstützen Mailclients diese Zitierweise immer weniger.
Menschen, die später mail-sozialisiert wurden (und das Usenet gar nie erlebt haben), antworten auf Mails ganz anders. Sie schreiben einfach ihre Antwort oben an die erhaltene Mail hin, die dann nach unten rutscht, und schicken beides wieder an die Absenderadresse zurück. Dieser Zitierstil wird von Anhänger:innen des Inline-Quotings verächtlich als TOFU bezeichnet: Text Oben, Fullquote Unten.
In letzter Zeit habe ich von mehreren Kommunikationspartner:innen die Rückmeldung erhalten, dass sie meine Art, Mails zu beantworten, irritiert oder gar ihre Effizienz mindert: Es fehlt ihnen der Kontext, wenn ich darüber entscheide, was ich zurückschicke und was ich beim Beantworten lösche. Ich finde das spannend, denn aus meiner Sicht ist meine Art der Mailbeantwortung effizient für das Gegenüber und eigentlich eine Folge dessen, was Jöran Muuß-Merholz als Pre-Empathie (Biblionetz:w03655) bezeichnet: Ich überlege mir, was mein Gegenüber in Zukunft bei dieser Kommunikation für die weitere Arbeit noch benötigt, und lösche alles (aus meiner Sicht) Irrelevante (z.B. alle bisherigen Mails mitsamt ihren technischen Kopfzeilen und Signaturen).
Ich versuche eigentlich, die cognitive load beim Gegenüber zu senken, indem ich meine Antwort möglichst nahe zur Frage platziere. Ich versuche damit, einem grundlegenden Prinzip der Usability zu folgen: dem Gesetz der Nähe. Zudem: Ich hasse es, in einer längeren Kommunikation zigmal die ellenlangen Signaturen aller Beteiligten zu lesen (Besonders anstrengend bei interner Kommunikation, wenn mich die Mailsignatur mehrfach zu überzeugen versucht, doch an der der eigenen Hochschule ein Studium zu beginnen...). Wer den Kontext aufgrund meiner Kürzungen nicht mehr versteht oder etwas von früher nachschauen will, kann in meiner Überlegung problemlos im Thread einer Mailkommunikation nachschauen. Damit versuche ich dem Design-Prinzip Schrittweises Enthüllen zu folgen. (Diese und andere Designprinzipien sind im lesenswerten Buch Universal Principles of Design von William Lidwell, Kritian Holden und Jill Butler zu finden (Biblionetz:b02137)
Aber ich gebe zu, bei den Kürzungen besteht ein schmaler Grat zwischen willkommener Pre-Empathie und unwillkommener Übergriffigkeit, was ich dem Gegenüber vorenthalte.
Beim Recherchieren für dieses Posting bin ich darauf gestossen, dass TOFU einen eigenen Wikipedia-Artikel besitzt, der eigentlich das Schreiben eines eigenen Postings fast überflüssig gemacht hätte. Unter anderem steht da:
Hingegen ist etwa im geschäftlichen E-Mail-Verkehr TOFU eine weit verbreitete Form der Antwort. Hier würde das isolierte Zitieren und Kommentieren einzelner Sätze als ungewöhnlich empfunden.
[...]
Kritik an TOFU kommt meist beim Aufeinandertreffen von Benutzern dieses Zitierstils mit traditionellen Vertretern des Inline-Quotings (zum Beispiel im Usenet oder in Mailinglisten) auf. In traditionelleren Anwendungen des Internets hat sich im Laufe der Jahre das Inline-Quoting durchgesetzt. Es ist in zahllosen FAQs zur Netiquette ausführlich beschrieben. Unkenntnis oder Missachtung dieser einfachen Regeln durch Neulinge stößt zum Beispiel bei routinierten Usenet- oder Webforen-Benutzern auf Widerstand. Umgekehrt stößt die Kritik an TOFU dort auf Unverständnis, wo TOFU die übliche Form unkomplizierten Mailaustauschs zwischen Privatpersonen oder Firmen ist.
Inhaltlich dreht sich die Kritik um zwei Fragen, Reihenfolge und Umfang des Zitats. Bei TOFU kommt erst die zusammenhängende Antwort (Text oben), dann muss der Leser, sofern ihm der Bezug der Antwort nicht klar ist, die vollständige zitierte Originalmail nachlesen, um herauszufinden, worauf genau geantwortet wird. Andererseits fehlen einem Leser bei zu stark gekürztem Zitat mitunter für das (vollständige) Verständnis Informationen. Daher lehnen Kritiker das Nachlesen-Müssen ab, schätzen Befürworter aber das Nachlesen-Können. Beim Inline-Quoting sind Zitat und Antwort ineinander verwoben. Hier ist sofort nachvollziehbar, auf welche Aussagen sich die neuen Argumente beziehen. Bei längeren Inline-Zitaten muss der Benutzer unter Umständen nach unten scrollen. Bei TOFU muss nur nach unten geblättert werden, wenn der Kontext unklar ist.
…
Schön, somit weiss ich, dass meine Kommunikationspartner:innen und ich nicht alleine sind. Eine Lösung für dieses Aufeinandertreffen unterschiedlicher Kulturen haben wir damit aber noch nicht. Mit gewissen Kommunikationspartner:innen haben in den letzten Tagen beide Seiten versucht, das für sie ungewohnte Antwortschema zu nutzen. Beide Seiten berichten übereinstimmend: Es fühlt sich fremd und falsch an.
Darum: Wie kommen wir aus diesem Kommunikationsdilemma raus? Müssen erst alle Inline-Quoter aussterben - oder gibt es bessere Lösungen? Number of topics: 10
