Wo sind die Grenzen des Computers? (Es bewegt sich etwas II)
Ich habe im letzten Jahrtausend mal an der
ETH Zürich Informatik studiert und war danach der Meinung, in etwa einschätzen zu können, wo die Grenzen des Computers liegen. Schliesslich hatte ich mich in der
Theoretischen Informatik mit dem
Halteproblem (
Biblionetz:w140) und der Frage
P=NP? (
Biblionetz:f113) und in anderen Veranstaltungen mit
neuronalen Netzwerken (
Biblionetz:w133) und Co. herumgeschlagen und das auch mindestens ansatzweise verstanden
Nebenbei hatte ich mich damals auch mit dem Turing-Test (
Biblionetz:w1) beschäftigt und meinen eigenen
Chat-Roboter (
Biblionetz:w1151) betrieben, mit dem sich meine Studierenden unterhalten mussten, um zu erkennen, wie leicht man mit einem Computer Standardsituationen eines Chats meistern kann.
Doch irgendwie scheint mir das alles lange her zu sein. Das
Moore'sche Gesetz (Bibblionetz:w862) hat dazu geführt, dass die Rechenleistung und die Speicherkapazitäten von Computern eben exponentiell zugenommen haben. Nun gut, jetzt können Computer das Gleiche wie früher eben schneller, was soll's?
In letzter Zeit bin ich mir da nicht mehr so ganz sicher und ich habe mir deshalb vorgenommen, die Bücher, die ich vor 15-20 Jahren erstmals gelesen hatte, wieder mal hervor zu nehmen und erneut zu studieren:
Wo liegen die Grenzen dessen, was Computer können?
Zwei Ereignisse, die mich zu diesem Schritt bewegt haben: Vor vielen Jahren (Wikipedia weiss, vor wie vielen genau) hat der Computer den Weltmeister im Schach geschlagen. Die einen waren fasziniert oder erschüttert, die anderen haben glaubhaft erläutert, dass der Computer einfach schneller und somit weiter vorausplanen könne in einem logisch absolut eindeutigen und abgeschlossenen Bereich - kein Grund zur Panik also. Im Frühling 2016 hat ein Computer von Google den Weltmeister im Spiel
Go 4:1 geschlagen. Auf den ersten Blick eine klare Folge des Moore'schen Gesetzes: Go ist um einiges komplexer als Schach, also hat es einfach ein paar Jahre länger gedauert, bis der Computer so leistungsfähig war, um auch in Go zu brillieren.
Was mich jedoch beunruhigt hat, war die Reaktion der Berufs-Go-Spieler:
Und alle stutzten hier und da und wunderten sich über unkonventionelle und abenteuerliche Züge der KI, die aber funktionierten.
Nun ist es selbst für den Go-kundigen Amateur kaum nachzuvollziehen, wieso die Profis einen Zug als innovativ bezeichnen, ist doch praktisch jede Stellung mit mehr als 20 Steinen auf dem Go-Brett einmalig und vermutlich
noch nie zuvor gespielt worden. Aber aus der einhelligen Meinung der Kommentatoren zu bestimmten Zügen kann man
schließen, dass AlphaGo über seine Schöpfer hinausgewachsen ist.
Das ist vielleicht nicht ganz verwunderlich. Die neuronalen Netze, die zentraler Bestandteil von AlphaGo sind, wurden nämlich nur zu Beginn mit Millionen von Stellungen aus Partien starker menschlicher Spieler trainiert. Hier lernten sie zunächst, Menschen in ihrem Spiel zu imitieren. Dann kam aber eine Phase des Reinforcement Learning: Das neuronale
Netz spielte Millionen von Partien gegen sich selbst und lernte daraus, wie man dieses Spiel noch besser spielt. Während ein werdender Profi in Asien sein halbes Leben damit verbringt, das Jahrhunderte alte Wissen und die Traditionen zu verinnerlichen, durfte AlphaGo ganz alleine lernen, ohne die Vorurteile eines Lehrers.
So sah denn Michael Redmond nach dem Zwischenstand 3:0 für den Computer das Go mitnichten dem Untergang geweiht, sondern spekulierte sogar, dass vielleicht durch die Computer eine dritte Revolution der Eröffnungstheorie bevorsteht.
Quelle: Haradl Bögeholz
Jubel und Ernüchterung c't 7/2016, S. 44 (
Biblionetz:t19295).
Hmm, Berufs-Go-Spieler werden künftig anders spielen, weil sie durch den Computer neue Strategien kennen gelernt haben? Das klingt irgendwie nicht mehr so ganz nach dem
Anti-Künstliche Intelligenz-Mantra "Der Computer kann nur das wiedergeben, was ihm programmiert worden ist." Irgendwie hat er doch etwas gespielt, was noch keinem Menschen in den Sinn gekommen ist (auch wenn es vielleicht in der Spiellogik implizit schon enthalten ist).
In eine ähnliche Richtung geht
die Meldung von Google, dass ihr neues
neurales Netz, das bei
Google Translate eingesetzt wird, auch bei Sprachpaaren brauchbare Übersetzung liefert, die so nie trainiert worden sind: D.h. das Netzwerk wurde mit den Sprachpaaren Englisch-Japanisch und Englisch-Koreanisch trainiert und kann danach auch brauchbare Übersetzungen Koreanisch-Japanisch liefern:
Gewisse Berichte im Internet deuten das nun dahingehend, dass das neuronale Netzwerk von Google eine interne Repräsentation der sprachlichen Aussagen gefunden habe, also eine eigene interne Sprache, die bisher kein Mensch versteht. Auch da wieder: Entsteht hier etwas, das
mehr ist, als was dem Computer einprogrammiert worden ist?
Klar, ich mag mich noch an Searles Metapher des
Chinesischen Zimmers (
Biblionetz:w42) erinnern. Etwa zur gleichen Zeit habe ich aber auch Bücher über
Emergenz (
Biblionetz:w505) und emergente Phänomene gelesen. Die Zeit ist reif, all diese Bücher spätestens über Weihnachten wieder einmal hervorzunehmen.
Zum Kommentieren ist eine Registration notwendig.
Kategorien:
IsaBlog