Magazin, Vol. 3: Digitalisierung
Schreibe einen Kommentar

„Die Intelligenz an sich hat kein Interesse am Konzept der Herrschaft“

0 1 #9 © Max Dauven

Der freundliche Roboter von nebenan: Eine optimistische Betrachtung Künstlicher Intelligenz

 

Müssen wir uns vor Künstlicher Intelligenz in Acht nehmen? Im Interview mit 42 teilt Professor Robert Trappl, Direktor des Österreichischen Forschungszentrums für Künstliche Intelligenz (OFAI), seine Einsichten über das Zusammenspiel von Rationalität und Emotionen, ein mögliches Zusammenleben von Mensch und Maschine, und zeigt auf, warum es Grund zum Optimismus gibt.

 


 

Prof. Dr. Trappl – Mit welchem Vorurteil in Bezug auf Künstliche Intelligenz würden Sie gerne aufräumen?

Ich würde gerne mit dem Vorurteil aufräumen, dass die Weiterentwicklung von künstlicher Intelligenz mit dem Risiko einer Superintelligenz einhergeht, die die Weltherrschaft antritt und den Menschen versklavt oder ganz abschafft. Ich glaube das nicht. Auch wenn diese Position von Leuten vertreten wird, die in anderen Bereichen durchaus kompetent sind, wie Elon Musk oder Stephen Hawking.

Warum zweifeln Sie an der Idee einer feindseligen Superintelligenz?

Der Ausdruck Superintelligenz spricht Intelligenz eine Eigenschaft zu, die ihr nicht zu eigen ist, nämlich die Intention. Intelligenz ist zuerst einmal das Bemühen, Probleme zu lösen und in einer nicht immer vorhersagbaren Umwelt zu überleben. Motive und damit verbundene Zielsetzungen – natürlich angepasst an die jeweilige Lebensumwelt –, die entspringen in uns, im Menschen, aus einem anderem System. Die Intelligenz an sich hat aber kein Interesse am Konzept der Herrschaft. Allerdings arbeiten auch wir am OFAI gegenwärtig an der Modellierung von Persönlichkeiten. Ich möchte nicht vollkommen ausschließen, dass eine solche Simulation von Persönlichkeiten irgendwann problematisch für die Menschheit werden könnte.

 

„Intelligenz ist zuerst einmal das Bemühen, Probleme zu lösen und in einer nicht immer vorhersagbaren Umwelt zu überleben“

 

Wie entwickelt sich das Verhältnis von Mensch und Maschine mit der zunehmenden Menschwerdung künstlicher Intelligenz?

Hierzu ein Beispiel: Das Buch des Engländers David Levy „Love and Sex with Robots“ zeigt eine Zukunft, in der es möglich ist, Roboter zu heiraten. Weil ich neugierig war, habe ich daher das österreichische Ehegesetz studiert. Roboter sind demnach als Ehepartner keineswegs ausgeschlossen. Das Ehegesetz verlangt allerdings, dass beide Partner mindestens 16 Jahre alt sind. Und wer möchte schon einen 16 Jahre alten Roboter heiraten?

Ein weiteres Buch, das interessante Ansätze in dieser Hinsicht diskutiert, ist „The Intimate Machine“ von Neil Frude aus den 1980er Jahren. Demnach müssten Roboter als Partner bis zu einem gewissen Grad unvorhersehbar sein, um interessant zu bleiben, sozusagen den menschlichen Faktor haben. Auf einem ähnlichen Prinzip bauen die Algorithmen von Online-Partnervermittlungen auf, die möglichst ähnliche Partner suchen, bei denen die kleinen Unterschiede den Reiz ausmachen. Das Abenteuer des zufälligen Treffens wird dabei durch die geplante Ähnlichkeitspartnerwahl ersetzt. Von da ist es dann auch nicht mehr weit, bis zwischen Mensch und Roboter vermittelt werden kann.

In der Vergangenheit wurde schon oft das Zeitalter der Künstlichen Intelligenz proklamiert, eingetreten ist es bisher aber nicht. Was ist diesmal anders?

Inzwischen wurden die notwendigen Schritte in der technologischen Entwicklung gemacht, und das wird den Menschen gerade bewusst. Die Niederlage von Gari Kasparow gegen den IBM-Computer Deep Blue im Schach 1997 war vorhersehbar, da die Entwicklung der Rechenleistung dem Mooreschen Gesetz folgte, sich also immer in einem Zeitraum von 12-24 Monaten verdoppelte. Die Niederlage des weltbesten GO-Spielers Lee Sedol gegen das Programm „Alpha GO“ hat allerdings alle Experten verblüfft. Dort sind zum ersten Mal öffentlichkeitswirksam die Prinzipien des „Deep Learning“ zum Einsatz gekommen. Das Deep Learning ist ein Teilbereich des Machine Learning und kombiniert große Datenmengen mit jener der Struktur neuronaler Netzwerke, wie wir sie aus dem menschlichen Gehirn kennen. Durch diese Netzwerkstruktur kann das System, beispielsweise ein Algorithmus, das Erlernte immer wieder mit neuen Inhalten verknüpfen und sich so selbstständig weiterentwickeln. Zwar wurden diese Ansätze auch schon in den 70er und 80er Jahren verwendet, konnten aber ihr Potenzial nicht entfalten, weil die Computer damals nicht schnell genug waren, nicht genug Speicher hatten und weil es die Verbindung mit dem Internet nicht gab.

Es sind vor allem die Möglichkeiten des Deep Learnings, die dazu führen, dass die Leute denken: „Das ist ja eine echte Gefahr“, Maschinen und Algorithmen könnten ja auf lange Sicht tatsächlich menschliche Arbeitskraft ersetzen. In der Tat werden viele Jobs überflüssig – interessanterweise weniger auf Seiten der Arbeiter und Handwerker als angenommen und dafür mehr auf Seiten der Büroangestellten. Wenn Sie heute in eine Bank gehen, sitzt da fast niemand mehr. Die Positionen gibt es einfach nicht mehr. Das ist natürlich schon unheimlich. Prognosen wie beispielsweise von der Unternehmensberatung McKinsey International erwarten, dass 40-50% der Jobs durch den digitalen Wandel ersetzt werden könnten.

Solche Prognosen schwanken mitunter allerdings stark. Das unterstreicht in seiner Gesamtheit also vor allem, dass die Digitalisierung einen Wandel in der Arbeitswelt einleitet.

Ja, absolut, aber dass etwas Disruptives kommt, da sind sich eigentlich alle einig. Die Entwicklungen der Digitalisierung, also die gestiegene Rechenleistung und der Grad der Vernetzung, das sind die Entwicklungen, die das Thema der künstlichen Intelligenz erst greifbar gemacht haben.

Stichwort Deep Learning: Schon Alan Turing hat die Idee der „Child Machine“ entwickelt, einen einfachen Basisalgorithmus, der in der Lage ist, selbstständig zu lernen. Bedeutet dies, dass zukünftige KI, ähnlich wie ein Kind, einen Prozess des Heranwachsens durchläuft?

Gegenwärtig arbeiten wir an zwei Projekten, die untersuchen, wie Kinder sprechen lernen, indem sie mit ihrer Umwelt interagieren. Diese Projekte leisten einen wichtigen Beitrag zu unserer Forschung darüber, wie man einem Roboter beibringen kann, gewisse Arbeiten zu erledigen, zum Beispiel einen Automotor zu reparieren. Dafür müssen wir aber zuerst ein gemeinsames Vokabular schaffen, damit Mensch und Maschine effektiv miteinander interagieren können. Das kann dann erweitert werden, indem man Dinge präsentiert und zum Beispiel sagt: „Das ist ein Schlauch, im Gegensatz zu einem Rohr“. Und so kann ein Roboter, ähnlich wie ein Lehrling oder auch ein Kind, Zusammenhänge verstehen und Instruktionen anwenden. Es ist zwar noch viel aufwendiger als man glaubt, aber es ist möglich.

Die Entwicklung hin zur Augmented Personality oder Augmented Reality ist schon deutlich zu erkennen, schließlich ist mein Smartphone nichts anderes als eine Erweiterung meiner Selbst, nur dass eben die Schnittstelle Finger auf Touchscreen noch verhältnismäßig simpel ist.

Ja, das stimmt, aber die Technologie wird stetig verbessert. Allerdings sind wir noch weit von dem entfernt, was man in Science-Fiction-Filmen sieht. Die Idee, dass wir unser „Ich“ in Form eines Hirn-Programms in Zukunft downloaden könnten, ist in gewissem Sinne eine Illusion, denn in unserem Gehirn sind „Hardware“ und „Software“ untrennbar, werden manchmal auch als „Wetware“ bezeichnet. Ich kann da also Nichts downloaden. Im Gegensatz zum Computer, bei dem ich weiß: Wenn ich diese und jene Zusammensetzung der Hardware habe und dieses Betriebssystem, dann lade ich beliebige Programme drauf. Das haben wir als Menschen alles nicht. Diese Vision scheint derzeit also nicht realisierbar, aber wer weiß, wie es in 50 Jahren aussieht.

 

„Ich glaube, wir haben in der KI-Forschung einen ziemlichen Fehler gemacht, indem wir Intelligenz als rationales Verarbeiten betrachtet und Emotionen vernachlässigt haben“

 

Nun hat die Forschung gezeigt, dass wir auch emotionale Intelligenz benötigen, um erfolgreiche Entscheidungen zu treffen.

Ich glaube, wir haben in der KI-Forschung einen großen Fehler gemacht, indem wir Intelligenz als rationales Verarbeiten betrachtet und Emotionen vernachlässigt haben. Spätestens seit Mitte der 1990er Jahre weiß man, dass weniger emotionale Menschen auch schlechtere rationale Entscheidungen treffen. Die ursprüngliche Idee, Rationalität und Emotionalität als gegensätzliche Pole zu betrachten, ist also falsch, denn sie bedingen einander aus diversen Gründen. Nicht nur in der Kommunikation, wo das Zwischenmenschliche ja ungeheuer wichtig ist, sondern auch beim Abrufen von Gedächtnisinhalten. Das, was emotional am stärksten geladen ist, wird aus dem episodischen Gedächtnis in Zusammenhängen bevorzugt abgerufen. Wenn wir also über künstliche Intelligenz nachdenken, dann kommen wir an Emotionalität nicht vorbei. Computer haben derzeit höchstwahrscheinlich keine Emotionen. Aber was sie ganz gut können, ist, Emotionen zu erkennen, zu verarbeiten und zu äußern. Also das, was zum Beispiel ein Schauspieler macht, der die Emotionen, die er nach außen hin darstellt, nicht unbedingt selbst empfinden muss. Er spielt uns etwas vor und das können Computer, Roboter, Synthetic Actors eben auch immer besser.

Können zwischen Mensch und Maschine somit ähnliche Beziehungen und ein ähnliches Verständnis füreinander entstehen wie zwischen Menschen?

Ehrlich gesagt, ich weiß es nicht. Aber ich glaube, dass in dieser Hinsicht viel möglich ist. Denn Menschen lieben schon jetzt Objekte, die absolut keine Intelligenz besitzen – zum Beispiel simuliertes tierisches Leben. Angefangen hat es mit „Paro“, der Roboter-Robbe. Darauf folgte „Aibo“, der Roboter-Hund. Der ist aber eher ein Gegenbeispiel. Roboter aus Metall oder Plastik lassen sich einfach nicht so sympathisch greifen wie Fell, auch wenn es Kunstfell ist. Aber ich kann natürlich nicht ausschließen, dass es irgendwann einen Roboter gibt, der so etwas wie ein Ich-Erlebnis hat. Es gibt jetzt schon die Ansicht, dass Roboter vielleicht als eine Art Vorläufer von Bewusstsein über eine Form von „Awareness“ verfügen, weil sie wissen, wo sie sich befinden und wo sie hingehen müssen. Sie verfügen also über eine Repräsentation der Außenwelt, ansonsten würden sie sich ständig irgendwo stoßen. Über tatsächliches Bewusstsein verfügen sie aber höchstwahrscheinlich noch nicht. Aber vielleicht wird es dazu kommen. Vielleicht müssen Roboter irgendwann einmal so etwas wie ein Bewusstsein haben, weil gewisse Aufgaben nicht anders erledigt werden können. Zwar sind weit über 90 Prozent unserer Handlungen unbewusst, aber wir haben einen Großteil davon einmal gelernt. Da waren sie bewusst und wir haben sie abgespeichert. So könnte es auch bei Robotern funktionieren.

 

„Wir sind so enthusiastisch darin, Gefahren zu sehen!“

 

Gibt es kulturelle Unterschiede in der Akzeptanz beziehungsweise dem Umgang mit Robotern und künstlicher Intelligenz?

Ja, die gibt es. Die Deutschen – und auch die Österreicher – sind wahrscheinlich aufgrund der Hochtechnologie, die während des Zweiten Weltkriegs in den Konzentrationslagern zum Ermorden von Menschen eingesetzt wurde, die größten Technikskeptiker weltweit. Wenn renommierte Wissenschaftler, beispielsweise auf dem Gebiet der KI, nach Deutschland kommen, dann geht es oft nur um die Gefahren und Schrecknisse, die mit der Technologie assoziiert werden. Wir sind so enthusiastisch darin, Gefahren zu sehen! Ganz im Gegensatz zu anderen Nationen, die eher das Positive sehen, die dann am Beispiel des Autos sagen: „Ja klar sind dadurch Menschen gestorben, aber es hat auch den Grad der Mobilität signifikant erhöht.“ Deutschland ist momentan in einem Denken gefangen, das ich nicht nachvollziehen kann. Da muss ich ganz klar sagen, Deutschland und auch Österreich laufen Gefahr, technisch zurückzufallen. In Japan ist der Bezug zur Technologie zum Beispiel ein ganz anderer. Dort werden etwa Pflegeroboter viel eher akzeptiert, weil es dort etwas Peinliches ist, Schwäche zu zeigen. Im Krankenbett zu liegen und vom Pflegeroboter betreut zu werden, ist für den Patienten demnach viel weniger unangenehm, als wenn ein Mensch das übernehmen würde. Bei uns würde man sagen: „Die Krankenkasse spart und schickt mir einen Roboter, wo ich doch lieber die Frau XY gehabt hätte, mit der ich übers Wetter reden kann.“ Niemand hat hier recht oder unrecht, es gibt einfach kulturelle Unterschiede im Umgang mit Technologie. Ich habe mich auch gewundert, dass einer der bekanntesten japanischen Roboterforscher ein Buch geschrieben hat mit dem Titel „The Buddha in the Robot“. Wenn jemand in der katholischen Kirche von „Christus als Roboter“ sprechen würde, dann wäre das pure Blasphemie. Ich habe mir vor kurzem einen Spaß erlaubt und als Reaktion auf Harari’s Buch „Homo Deus“ einen Vortrag über den „Roboter Deus“ gehalten. Wenn schon alle sagen, der Roboter wird der Herr der Welt werden, dann sollten wir rechtzeitig eine Theologie des zukünftigen Robotergottes entwickeln. Im Silicon Valley hat diese Idee auch schon ganz praktische Anwendung gefunden, da hat Anthony Levandowski die Kirche „Way of the Future“ gegründet, die eine Künstliche Intelligenz in den Mittelpunkt ihrer religiösen Praktiken stellt.

Sie haben ganz offensichtlich keine Angst vor einer Zukunft, in der Künstliche Intelligenz eine wachsende Rolle in der Gesellschaft spielt. Woher kommt Ihr Optimismus?

Ein Grund ist sicher meine persönliche Geschichte. Ich wurde 1939 geboren und habe damit bewusst den Zweiten Weltkrieg erlebt, genauso natürlich auch den Wiederaufbau. Unser Leben hat sich durch den technologischen Fortschritt enorm verbessert – er hat uns ungeheuer viel gebracht. Wir leben länger und unter besseren Bedingungen, wir müssen nicht mehr frieren im Winter, wir arbeiten weniger und wir tragen die Encyclopedia Britannica in unserem Smartphone mit uns herum. Das bedeutet nicht, dass man jede technische Neuerung ganz unbefangen begrüßen sollte. Man muss schon skeptisch sein und die Auswirkungen neuer Technologien kritisch hinterfragen, wie am Phänomen der Fake News deutlich wird. Aber in Mitteleuropa lebt ein Großteil der Menschen schon heute unter paradiesischen Umständen. Menschen, die das nicht so sehen, haben, fürchte ich, kein Geschichtsbewusstsein.

Geht die größere Bedrohung für unsere Zukunft vom Menschen oder der Künstlichen Intelligenz aus?

Seit der Wahl von Donald Trump bin ich mir ziemlich sicher, dass es der Mensch ist. Meiner Meinung nach geht von künstlicher Intelligenz aktuell keine Gefahr aus.

Welche Rolle kann Künstliche Intelligenz für die positive Entwicklung unserer Gesellschaft spielen?

Im Idealfall arbeiten wir alle noch weniger und genießen das Leben noch mehr. Ich kann mir durchaus vorstellen, dass das, was persönliche und körperliche Bezüge schafft, größere Bedeutung bekommen wird, wenn wir mehr Zeit haben und wenn wir diese Zeit positiv nutzen können. Meine Zukunftsprognose ist: Mehr Freizeit, mehr Unabhängigkeit, mehr Fokus auf das Emotionale, auf das Künstlerische, auf Persönlichkeit und Literatur. Ich denke, die Kunst und das Schöpferische werden einen noch viel größeren Stellenwert haben, als es jetzt schon der Fall ist. Das eröffnet uns unendlich viele Möglichkeiten. Und wenn man davon keine materiellen Einbußen hat, finde ich es persönlich sehr erstrebenswert, von Fronarbeit befreit zu werden.

Welche Schritte sind noch notwendig, damit wir dieses positive Potenzial im Hinblick auf KI und Robotik realisieren können?

Ich denke, dass sich die mitunter abschätzige Art, mit der oft von Mathematik und Informatik gesprochen wird, ändern muss. Wir brauchen eine Mentalitätsänderung, hin zur Schönheit, zur Ästhetik des Abstrakten. Eine mathematische Formel kann beispielsweise als etwas sehr Schönes empfunden werden und als intuitiv richtig, ohne, dass man ihre Herleitung kennt. Natürlich sollte man nicht nur Formeln nach dem ästhetischen Empfinden erstellen, aber das Ergebnis kann einen schon begeistern. Und genau so kann auch ein Algorithmus begeistern, die Ästhetik, die in diesen MINT-Fächern steckt, müssen wir erlebbar machen. In diese Richtung würde ich mir eine gute Bildung vorstellen. Denn dass die Interaktion bisher darin besteht, mit dem Finger über die Oberfläche einer Glasplatte zu wischen, ist ja letztendlich ein Trauerspiel.

Wir brauchen also eine stärkere Wertschätzung für das Technologische, dürfen aber gleichzeitig nicht die Wertschätzung für das Nicht-Technologische verlieren?

Absolut. Man muss beides schätzen lernen und es vor allem nicht in Konkurrenz zueinander stellen. Aber gerade der Angst vor der Technologie wird bei uns im deutschsprachigen Raum mit den vielen Regeln und Vorschriften noch zu viel Raum gegeben – genau wie auch in der europäischen Union. Wobei es dort eine interessante Arbeitsgruppe unter der Leitung von Mady Delvaux gab, die den Vorschlag entwickelte, dass auch intelligente Computer so etwas Ähnliches wie eine juristische Persönlichkeit besitzen könnten.

Das klingt nach dem Wunsch nach klareren rechtlichen Rahmenbedingungen, um einen natürlichen Umgang mit Künstlicher Intelligenz zu ermöglichen.

Ja, aber vor allem ermöglicht es die rechtliche Selbstständigkeit intelligenter Computer. Das könnte bedeuten, dass man den Stecker nicht mehr so ohne Weiteres ziehen darf. Aber bei einem Fehlverhalten, wie etwa einem Autounfall, könnte es dann direkte Folgen für den betreffenden Computer haben.

Das heißt, wir werden Künstlicher Intelligenz Verantwortung zuschreiben?

Ja natürlich, wir werden es sogar müssen. Wir haben ja früher auch den Gedanken als absurd empfunden, dass ein imaginäres Konstrukt wie ein Unternehmen Verantwortung übernehmen könnte. Heute ist es ein selbstverständlicher Aspekt unseres Wirtschaftssystems und unserer Gesellschaft. Natürlich wird man Fehler oft auf den Menschen zurückführen können. Trotzdem brauchen wir das Konzept der Eigenverantwortung für einen natürlichen, also in den gesellschaftlichen Alltag integrierten Umgang mit selbständig agierenden Artefakten.

Interview: Kurt Bille

 

 

Künstliche Intelligenz

Robert Trappl ist Direktor des Österreichischen Forschungszentrums für Künstliche Intelligenz (OFAI). Er gilt heute europaweit als Vorreiter auf den Gebieten der Kybernetik und der Künstlichen Intelligenz. Ein Schwerpunkt seiner Arbeit liegt auf der Untersuchung der Bedeutung von Emotionen für die Weiterentwicklung Künstlicher Intelligenz.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.