Werbung

Explosive Intelligenz

  • Von Hans-Arthur Marsiske
  • Lesedauer: 8 Min.

Bei uns droht die ABOkalypse!

Wir brauchen zahlende Digitalleser/innen.

Unterstütze uns und überlasse die Informationsflanke nicht den Rechten!

Mach mit! Dein freiwilliger, regelmäßiger Beitrag:

Was soll das sein

Wir setzen ab sofort noch stärker auf die Einsicht der Leser*innen, dass linker Journalismus auch im Internet nicht gratis zu haben ist – mit unserer »sanften« nd-Zahlschranke.

Wir blenden einen Banner über jedem Artikel ein, verbunden mit der Aufforderung sich doch an der Finanzierung und Sicherstellung von unabhängigem linkem Journalismus zu beteiligen. Ein geeigneter Weg besonders für nd-Online-User, die kein Abo abschließen möchten, die Existenz des »nd« aber unterstützen wollen.

Sie können den zu zahlenden Betrag und die Laufzeit frei wählen - damit sichern Sie auch weiterhin linken Journalismus.

Aber: Für die Nutzung von ndPlus und E-Paper benötigen Sie ein reguläres Digitalabo.

Künstliche Intelligenz (KI) wird die Welt verändern, und zwar grundlegend. Schon seit geraumer Zeit warnen Forscher, dass die ethischen und sozialen Konsequenzen dieser Technologie denen der Atombombe gleichkommen könnten. Angesichts der offensichtlichen Beschränkungen heutiger KI-Systeme sorgte das bislang allerdings kaum für Beunruhigung. Die Machtübernahme durch die Computer schien weit weg und konnte leicht als pure Science-Fiction-Fantasie abgetan werden.

Ein Philosoph von der University of Oxford hat jetzt jedoch wieder Bewegung in die Debatte gebracht. Künstliche Intelligenz, vermutet Nick Bostrom, Leiter des Future of Humanity Institute, könnte sich durchaus explosionsartig entwickeln und womöglich innerhalb weniger Stunden »die Menschheit von der Spitze der Denkerkette vertreiben«. In seinem Buch »Superintelligenz« hat Bostrom eine Fülle von Szenarien zusammengetragen, die auf diesen Wendepunkt hinführen können. Darunter sind auch solche, bei denen sich der Übergang zur höheren Intelligenzstufe über Jahrzehnte oder Jahrhunderte erstreckt. Einen solchen evolutionären Wandel, etwa durch Verbesserungen im Bildungssystem, bei der Gesundheitsversorgung oder Kommunikationsnetzwerken, könnten die Menschen kontrollieren und sich sozial und kulturell nach und nach darauf einstellen.

Gleichwohl hält Bostrom einen schnellen Übergang zur Künstlichen Intelligenz für wahrscheinlicher. Insbesondere wenn eine Schwelle erreicht sei, von der ab weitere Verbesserungen eines kognitiven Systems nicht mehr von außen durch menschliche Programmierer, sondern vom System selbst bewirkt werden, könnte dieser Rückkopplungseffekt zu einem exponentiellen, nicht mehr kontrollierbaren Wachstum der Intelligenz führen. Mit einem solchen raschen Übergang wachse zudem die Wahrscheinlichkeit, dass ein einzelnes KI-Projekt einen entscheidenden strategischen Vorteil erlange und alle anderen Projekte von der weiteren Entwicklung ausschließe. Bostrom spricht von der Herausbildung eines »Singletons«, einer »Weltordnung, in der es auf der globalen Ebene nur noch einen einzigen Entscheidungsträger gibt«.

Das rührt an Ängste vieler Menschen, die heute schon befürchten, dass eine Suchmaschine wie Google (Bostrom zufolge das »wohl bisher beste KI-System überhaupt«) ihnen mehr und mehr diktieren könnte, was sie wissen und denken sollen. Es ist natürlich viel Spekulation im Spiel. Bostrom leugnet die Ungewissheiten nicht, sein Buch ist voller »vielleicht«, »könnte«, »wahrscheinlich« oder »dürfte«. Die Entstehung einer Superintelligenz ist nicht sicher, sondern nur eine Möglichkeit. Weder lässt sich deren Wahrscheinlichkeit beziffern noch ein ungefährer Zeitpunkt benennen, wann deren »Start« stattfinden könnte.

Die vielleicht größte Unwägbarkeit betrifft die Intelligenz selbst: Obwohl der Begriff einen zentralen Aspekt menschlicher Identität erfasst, gibt es keine allgemein akzeptierte Definition dafür. Das schafft Raum für endlose - und zumeist ergebnislose - Debatten, bei denen mit viel Spitzfindigkeit versucht wird, Autonomie von Automatik oder komplexe Regelungstechnik von Intelligenz abzugrenzen. Computer könnten nicht wirklich denken, so ein häufiges Argument, weil sie ja immer nur ein vom Menschen geschriebenes Programm ausführten. Kein Programmierer könne alle denkbaren Situationen vorhersehen, in die ein Roboter geraten kann, und im Voraus schon die jeweils angemessenen Handlungsvarianten festlegen.

In der Tat wäre der Versuch verfehlt, einer Maschine die gesamte Intelligenz wie mit einem Nürnberger Trichter quasi einfüllen zu wollen. Dieses Konzept hat sich ja auch beim Menschen nicht bewährt. Wissen und Denkvermögen müssen vielmehr in der Auseinandersetzung mit der realen Umwelt erworben werden. Wer künstliche Intelligenz schaffen will, muss daher ein Programm schreiben, das dem Roboter diesen Lernprozess ermöglicht. Es muss nicht für alle eventuell auftretenden Probleme bereits eine Lösung parat haben, sondern den Roboter befähigen, Lösungen zu finden.

Biologen und Informatiker waren um 1990 herum unabhängig voneinander zu dem Schluss gekommen, dass das Denkvermögen nicht als abstrakte, unabhängige Größe betrachtet werden kann, sondern als Ergebnis der Auseinandersetzung eines Organismus mit seiner Umwelt: Intelligenz braucht einen Körper. Wer künstliche Intelligenz schaffen will, muss daher Roboter bauen, die sich in der realen, physischen Welt sinnvoll verhalten können.

Seinen praktischen Niederschlag fand dieses Konzept der verkörperten Intelligenz (embodied intelligence) im RoboCup, einem seit 1997 alljährlich ausgetragenen Wettbewerb, bei dem sich Roboter auf dem Fußballfeld und in verschiedenen anderen Umgebungen bewähren müssen. Hier zeigt sich sehr deutlich, was schon gut funktioniert und wo noch die größten Hürden liegen. Wegen der Vergleichbarkeit der Aufgabenstellungen von Jahr zu Jahr ist zudem sehr gut zu erkennen, wie die Maschinen immer intelligenter werden, mal in kleinen Schritten, mal in spektakulären Sprüngen - aber unaufhaltsam.

Mittlerweile zeichnet sich auch das theoretische Fundament des neuen KI-Konzepts immer deutlicher ab. So versammelte sich im Frühjahr 2013 in Leipzig die erste Konferenz über konzeptuelle und mathematische Grundlagen verkörperter Intelligenz. Zu deren Teilnehmern zählte auch Daniel Polani, der beim RoboCup anfangs mit den »Mainz Rolling Brains« in der Simulationsliga kickte und heute an der University of Hertfordshire das Team »Bold Hearts« betreut, dessen humanoide Roboter in diesem Jahr erstmals auf Kunstrasen antreten müssen. Polani will Intelligenz mit einem Minimum an Voraussetzungen erzeugen, am besten nur mit einem oder wenigen Bits. Einem Roboter oder Softwareagenten eine Motivation oder ein Ziel einzuprogrammieren, bei dessen Verfolgung er Intelligenz entwickelt, wäre schon zu viel. »Das wäre dann eine Konditionierung, die die Möglichkeiten einschränkt«, sagt Polani. Es sei besser, so etwas nicht vorzugeben, sondern durch das System selbst entdecken zu lassen. »Ansonsten bekommt man nur heraus, was man vorher hineingesteckt hat.« Die natürliche Intelligenz habe sich schließlich auch ohne Programmierer entwickelt.

Was Polani und seine Forschungskollegen umtreibt, ist nichts Geringeres als die Suche nach dem Grundbaustein des Denkens. Im Mittelpunkt der Diskussionen steht das Wechselspiel von Wahrnehmung und Aktion, die »sensomotorische Schleife«: Ein Organismus (oder »Agent«, wie die Wissenschaftler sagen) empfängt über seine Sensorik Signale aus der Umwelt, wirkt über seine Motorik auf sie ein, nimmt die veränderte Welt mit den Sensoren wahr und so weiter. Intelligenz erwächst demnach nicht aus der bloßen Wahrnehmung der Welt, sondern aus dem Wechselspiel von Wahrnehmung und Einwirkung auf die Welt.

Offen ist jedoch die Frage, wodurch die sensomotorische Dynamik in Gang gesetzt wird. Gibt es eine Größe, die im wiederholten Durchlaufen der Schleife maximiert wird und auf diese Weise Kognition hervorbringt? Und wie lässt sich dieser Prozess mathematisch beschreiben? Verschiedene Konzepte sind im Umlauf, die sich im Detail und hinsichtlich der verwendeten Rechenverfahren unterscheiden. Bei allen Ansätzen geht es aber letztlich um Vorhersagen über die Zukunft. Nach und nach entwickelt ein lernender Agent immer bessere Modelle von der Welt wie auch des eigenen Körpers und kann dadurch die Folgen seiner Handlungen immer genauer abschätzen.

Niemand weiß, ob und wann es gelingen wird, die kleinste Einheit der Kognition zu finden, auf der alles andere aufbaut. Aber allein die Möglichkeit sorgte bei der Leipziger Tagung für eine elektrisierte, erwartungsgeladene Atmosphäre. Denn wenn es tatsächlich eine einfache Formel gibt, eine Art E = mc2 des Denkens, könnte ihre Entdeckung die vielen verschiedenen Teildisziplinen, in die die KI-Forschung heute noch zerfällt, schlagartig zu einem Ganzen vereinigen. So wie Einsteins berühmte Formel im Blitz der Atombombe eine spektakuläre Bestätigung fand, könnte solch ein Denkalgorithmus unter Umständen die von Bostrom skizzierte explosive Entwicklung einer Superintelligenz einleiten.

Nikolaus Kopernikus, Charles Darwin und Sigmund Freud stehen für drei große Kränkungen des Menschen, die ihn seiner bis dahin angenommenen Einzigartigkeit und Besonderheit beraubten. Steht jetzt die vierte Kränkung bevor, die den Menschen seine Position als intelligentestes Wesen des bekannten Universums kosten wird?

Im Kern handelt es sich um eine Frage des Glaubens: Derzeit kann niemand wissen, ob die Entwicklung künstlicher Intelligenz eines Tages vielleicht doch an eine fundamentale, unüberwindbare Grenze stößt und der Mensch sich weiterhin als Krönung zumindest der irdischen Schöpfung empfinden darf. Das derzeit vorherrschende Glaubenssystem geht genau davon aus. Seine Protagonisten sind sich dessen so sicher, dass sie sogar die Ausstattung von Militärrobotern mit tödlichen Waffen für verantwortbar halten.

Vielleicht glaubt manch einer auch, dass, wenn es so weit ist, so etwas wie die Asimowschen Robotergesetze (siehe Kasten) das Verhältnis der Maschinen zum Menschen regeln könnten. Doch die gängige Vorstellung, solche Regeln könnten den Robotern einfach einprogrammiert werden, ist naiv: Bei einer KI, die sich dadurch auszeichnet, dass sie lernfähig ist und sich selbst vervollkommnet, also ihren eigenen Programmcode verändern kann, wird sich ethisches Verhalten nicht technisch gewährleisten lassen. Je intelligenter die Maschinen, je umfassender ihre kognitiven Fähigkeiten, desto mehr werden sie wie Menschen angelernt, trainiert und erzogen werden müssen. Und das gilt nicht erst für die Roboter der Zukunft, sondern bereits heute für deren menschliche Entwickler. In deren Verantwortung liegt es ja zunächst, Maschinen zu bauen, die Menschen keinen Schaden zufügen, ansonsten menschlichen Befehlen folgen und für ihre Selbsterhaltung sorgen. Die Ethik der Maschinen fällt damit letztlich auf den Menschen selbst zurück und auf seine Motivationen bei der Entwicklung von Technologie.

Bostrom empfiehlt denn auch, maschinelle Intelligenz in möglichst breiter internationaler Kooperation zu entwickeln, ähnlich den Beispielen der Internationalen Raumstation oder des Kernforschungszentrums CERN bei Genf. Das hätte mehrere Vorteile: Die Zusammenarbeit, so Bostrom, »reduziert das überhastete Vorgehen bei der Entwicklung der maschinellen Intelligenz, ermöglicht größere Investitionen in die Sicherheit, verhindert gewaltsame Konflikte und erleichtert den Austausch von Ideen zur Lösung des Kontrollproblems.« Und noch einen Pluspunkt sieht Bostrom: »Die Zusammenarbeit führte eher zu Ergebnissen, bei denen die Früchte einer erfolgreich kontrollierten Intelligenzexplosion gerecht verteilt würden.«

ndLive 2018

ndPlus

Ein kleiner aber feiner Teil unseres Angebots steht nur Abonnenten in voller Länge zur Verfügung. Mit Ihrem Abo haben Sie Vollzugriff auf sämtliche Artikel seit 1990 und helfen mit, das Online-Angebot des nd mit so vielen frei verfügbaren Artikeln wie möglich finanziell zu sichern.

Testzugang sichern!

Die Serie aus dem studentischem Kosmos.

Leben trotz Studium?!

Jetzt 14 Tage das »nd« gratis und unverbindlich als App, digital oder gedruckt lesen und keine Folge verpassen.

Kostenlos bestellen!

ndLive 2018
ndLive 2018