Wo sind die Grenzen des Computers? (Es bewegt sich etwas II)

Ich habe im letzten Jahrtausend mal an der ETH Zürich Informatik studiert und war danach der Meinung, in etwa einschätzen zu können, wo die Grenzen des Computers liegen. Schliesslich hatte ich mich in der Theoretischen Informatik mit dem Halteproblem (Biblionetz:w140) und der Frage P=NP? (Biblionetz:f113) und in anderen Veranstaltungen mit neuronalen Netzwerken (Biblionetz:w133) und Co. herumgeschlagen und das auch mindestens ansatzweise verstanden wink

Nebenbei hatte ich mich damals auch mit dem Turing-Test (Biblionetz:w1) beschäftigt und meinen eigenen Chat-Roboter (Biblionetz:w1151) betrieben, mit dem sich meine Studierenden unterhalten mussten, um zu erkennen, wie leicht man mit einem Computer Standardsituationen eines Chats meistern kann.

Doch irgendwie scheint mir das alles lange her zu sein. Das Moore'sche Gesetz (Bibblionetz:w862) hat dazu geführt, dass die Rechenleistung und die Speicherkapazitäten von Computern eben exponentiell zugenommen haben. Nun gut, jetzt können Computer das Gleiche wie früher eben schneller, was soll's?

In letzter Zeit bin ich mir da nicht mehr so ganz sicher und ich habe mir deshalb vorgenommen, die Bücher, die ich vor 15-20 Jahren erstmals gelesen hatte, wieder mal hervor zu nehmen und erneut zu studieren: Wo liegen die Grenzen dessen, was Computer können?

Zwei Ereignisse, die mich zu diesem Schritt bewegt haben: Vor vielen Jahren (Wikipedia weiss, vor wie vielen genau) hat der Computer den Weltmeister im Schach geschlagen. Die einen waren fasziniert oder erschüttert, die anderen haben glaubhaft erläutert, dass der Computer einfach schneller und somit weiter vorausplanen könne in einem logisch absolut eindeutigen und abgeschlossenen Bereich - kein Grund zur Panik also. Im Frühling 2016 hat ein Computer von Google den Weltmeister im Spiel Go 4:1 geschlagen. Auf den ersten Blick eine klare Folge des Moore'schen Gesetzes: Go ist um einiges komplexer als Schach, also hat es einfach ein paar Jahre länger gedauert, bis der Computer so leistungsfähig war, um auch in Go zu brillieren.

Was mich jedoch beunruhigt hat, war die Reaktion der Berufs-Go-Spieler:

Und alle stutzten hier und da und wunderten sich über unkonventionelle und abenteuerliche Züge der KI, die aber funktionierten.
Nun ist es selbst für den Go-kundigen Amateur kaum nachzuvollziehen, wieso die Profis einen Zug als innovativ bezeichnen, ist doch praktisch jede Stellung mit mehr als 20 Steinen auf dem Go-Brett einmalig und vermutlich noch nie zuvor gespielt worden. Aber aus der einhelligen Meinung der Kommentatoren zu bestimmten Zügen kann man schließen, dass AlphaGo über seine Schöpfer hinausgewachsen ist.
Das ist vielleicht nicht ganz verwunderlich. Die neuronalen Netze, die zentraler Bestandteil von AlphaGo sind, wurden nämlich nur zu Beginn mit Millionen von Stellungen aus Partien starker menschlicher Spieler trainiert. Hier lernten sie zunächst, Menschen in ihrem Spiel zu imitieren. Dann kam aber eine Phase des Reinforcement Learning: Das neuronale Netz spielte Millionen von Partien gegen sich selbst und lernte daraus, wie man dieses Spiel noch besser spielt. Während ein werdender Profi in Asien sein halbes Leben damit verbringt, das Jahrhunderte alte Wissen und die Traditionen zu verinnerlichen, durfte AlphaGo ganz alleine lernen, ohne die Vorurteile eines Lehrers.
So sah denn Michael Redmond nach dem Zwischenstand 3:0 für den Computer das Go mitnichten dem Untergang geweiht, sondern spekulierte sogar, dass vielleicht durch die Computer eine dritte Revolution der Eröffnungstheorie bevorsteht.
Quelle: Haradl Bögeholz Jubel und Ernüchterung c't 7/2016, S. 44 (Biblionetz:t19295).

Hmm, Berufs-Go-Spieler werden künftig anders spielen, weil sie durch den Computer neue Strategien kennen gelernt haben? Das klingt irgendwie nicht mehr so ganz nach dem Anti-Künstliche Intelligenz-Mantra "Der Computer kann nur das wiedergeben, was ihm programmiert worden ist." Irgendwie hat er doch etwas gespielt, was noch keinem Menschen in den Sinn gekommen ist (auch wenn es vielleicht in der Spiellogik implizit schon enthalten ist).

In eine ähnliche Richtung geht die Meldung von Google, dass ihr neues neurales Netz, das bei Google Translate eingesetzt wird, auch bei Sprachpaaren brauchbare Übersetzung liefert, die so nie trainiert worden sind: D.h. das Netzwerk wurde mit den Sprachpaaren Englisch-Japanisch und Englisch-Koreanisch trainiert und kann danach auch brauchbare Übersetzungen Koreanisch-Japanisch liefern:

image01.gif

Gewisse Berichte im Internet deuten das nun dahingehend, dass das neuronale Netzwerk von Google eine interne Repräsentation der sprachlichen Aussagen gefunden habe, also eine eigene interne Sprache, die bisher kein Mensch versteht. Auch da wieder: Entsteht hier etwas, das mehr ist, als was dem Computer einprogrammiert worden ist?

Klar, ich mag mich noch an Searles Metapher des Chinesischen Zimmers (Biblionetz:w42) erinnern. Etwa zur gleichen Zeit habe ich aber auch Bücher über Emergenz (Biblionetz:w505) und emergente Phänomene gelesen. Die Zeit ist reif, all diese Bücher spätestens über Weihnachten wieder einmal hervorzunehmen.



 
Zum Kommentieren ist eine Registration notwendig.

Kategorien: IsaBlog

Kontakt

  • Beat Döbeli Honegger
  • Plattenstrasse 80
  • CH-8032 Zürich
  • E-mail: beat@doebe.li