Archiv

Kategorien

Mehr als 0 und 1

Letzte Postings

Tweets

für gesamten Blog

You are here: Beats Weblog » SpambotFalleImWiki

Spambot-Falle im Wiki

02 Mar 2008 - 14:36 | Version 3 |
Seit mehr als fünf Jahren (September 2002) betreibe ich meinen Wiki-Server ohne Lesebeschränkungen. Jedermann kann weltweit alle Wikiseiten lesen. Diese Offenheit (Biblionetz:w01882) ist mir wichtig, denn ich bin der Meinung, dass wir bei eLearning immer noch am Anfang stehen und voneinander lernen können sollten. Learning Management Systeme, bei denen ich nicht über den Login-Screen hinaus komme, ermöglichen mir aber kein Lernen an anderen Beispielen.

Die Inhalte dieses Wikiservers sind aber meist nur für Personen interessant und relevant, die den Kontext ihrer Entstehungsgeschichte einordnen können. Wenn Schüler/innen den zweiten Weltkrieg bearbeiten, dann sind ihre Gedanken für sie selbst, die Lehrperson, ihre persönliche Umgebung und andere eLearning-Interessierte relevant, nicht aber für den Rest der Welt. Aus diesem Grund ist es nicht sinnvoll, dass die Seiten dieses Wikiservers von Suchmaschinen gefunden werden. Darum schliesse ich mit der Datei robots.txt von Anfang an alle Suchroboter aus. Die grossen Suchmaschinen wie z.B. Google halten sich an diesen Hinweis und verzichten darauf, Seiten dieses Wikiservers zu indexieren.

Nicht an diesen Hinweis halten sich hingegen Spambots, d.h. bösartige Suchroboter auf der Suche nach E-Mailadressen oder der Möglichkeit, Werbung auf einem Wiki zu deponieren. In den letzten Monaten musste ich eine Zunahme solcher Spambots feststellen, die teilweise mit der gesamten zur Verfügung stehenden Bandbreite die Inhalte dieses Wiki-Servers abgegrast haben.

Um keine Lesebeschränkungen für Besucherinnen und Besucher einführen zu müssen, musste ein anderer Schutz gefunden werden. Gestern hat nun Benedikt eine Spambot-Falle installiert, die folgendermassen funktioniert: Auf allen Wikiseiten ist ein für den Menschen unsichtbarer Link platziert. Dumme Spambots, die allen Links nachgehen, werden auch diesen Link abrufen. Dies löst jedoch eine sofortige Sperre ihrer IP-Adresse aus. Somit sollten Spambots vom Abgrasen des gesamten Wikis abgehalten werden, während normale Wikiuser nichts von dieser Massnahme bemerken sollten.

Bevor nun ein schlauer Schüler auf die Idee kommt, das Wiki seiner Schule durch den Abruf dieses verbotenen Links aus dem Schulnetz lahmzulegen und damit eine Wikistunde zu sabotieren, hier noch folgende Hinweise: Gesperrte IP-Adressen erhalten als Antwort eine Erklärungsseite mit Captcha (Biblionetz:w01616) zurück, auf der sie die Sperre durch Eingabe von nur menschenlesbaren Zahlen wieder aufheben können. Zudem kann ich einzelne IP-Adressen auch in eine Whitelist eintragen, so dass das Abrufen des verbotenen Links von dieser IP-Adresse aus wirkungslos bleibt.

Ein letzter Hinweis für Techies: Bitte die Spambotfalle nicht an meinem Wiki testen: Erstens erhalte ich jeweils ein Mail, wenn sich ein Spambot in der Falle verfängt und zweitens will ich eine unverfälschte Statistik, wie viele Spambots wir fangen konnten. Wer die Funktionsweise testen will, ist eingeladen, dies auf der Website der verwendeten Software zu tun: http://www.spider-trap.de/

Why do I blog this:
  • Naja, einerseits damit die User dieses Wikis von diesem Feature wissen. Dieser Blog dient auch als Announcement-Board für das Gesamtwiki.
  • Andererseits, weil diese Massnahme ein schönes Beispiel für soft security (Biblionetz:w01915), die zeigt, dass man mit dem notwendigen technischen Know-how nicht nur die Wahl zwischen sicher und brauchbar hat, sondern dass differenzierte Lösungen möglich sind.

 
Zum Kommentieren ist eine Registration notwendig.

Kategorien: IsaBlog, IsaWiki