Werbung
  • Wissen
  • Künstliche Intelligenz

Von Superintelligenz ist keine Rede

Regierungspläne zur Künstlichen Intelligenz konzentrieren sich auf wirtschaftliche Aspekte.

  • Von Hans-Arthur Marsiske
  • Lesedauer: 7 Min.

Echt jetzt? Ihr wollt Geld von mir?

Ja, herrgottnochmal, es kostet!

Auch, wenn's nervt – wir müssen die laufenden Kosten für Recherche und Produktion decken.

Also, mach mit! Mit einem freiwilligen regelmäßigen Beitrag:

Was soll das sein

Wir setzen ab sofort noch stärker auf die Einsicht der Leser*innen, dass linker Journalismus auch im Internet nicht gratis zu haben ist – mit unserer »sanften« nd-Zahlschranke.

Wir blenden einen Banner über jedem Artikel ein, verbunden mit der Aufforderung sich doch an der Finanzierung und Sicherstellung von unabhängigem linkem Journalismus zu beteiligen. Ein geeigneter Weg besonders für nd-Online-User, die kein Abo abschließen möchten, die Existenz des »nd« aber unterstützen wollen.

Sie können den zu zahlenden Betrag und die Laufzeit frei wählen - damit sichern Sie auch weiterhin linken Journalismus.

Aber: Für die Nutzung von ndPlus und E-Paper benötigen Sie ein reguläres Digitalabo.

Wie hältst du‘s mit der Künstlichen Intelligenz? Diese Gretchenfrage, aufgeworfen durch die rasante Entwicklung immer komplexerer Roboter und raffinierterer Verfahren zur Datenverarbeitung und schon seit geraumer Zeit in der Öffentlichkeit diskutiert, hat jetzt auch die Politik erreicht. Künstliche Intelligenz (KI) sei »mit teils großen Hoffnungen verbunden«, schrieb die Bundestagsfraktion der Grünen in einer Kleinen Anfrage an die Bundesregierung. Deutschland solle als Hochtechnologieland Vorreiter bei deren Erforschung werden und »zu einem verantwortungsvollen Umgang mit intelligenten Systemen in Wirtschaft, Wissenschaft und Verwaltung« gelangen.

Auf die Frage, wie denn die Pläne der Bundesregierung dazu aussähen, erklärte die in ihrer Antwort vom 25. April, dass bis zum Herbst von den Ministerien für Wirtschaft und Forschung ein »Masterplan« erarbeitet werden solle. Gegenstand sei »die Formulierung von Förderzielen zur grundlegenden Stärkung der KI-Wissenschaft, der Transfer von Ergebnissen in Wirtschaft und Praxis und die Entfaltung einer Gründungsdynamik, die Schaffung eines innovations- und investitionsfreundlichen Ordnungsrahmen, die systematische Nutzung von KI-Technologien in Wissenschaft und etablierten Branchen sowie die Flankierung in Bildung und gesellschaftlichem Diskurs«. Dieser Plan soll mit Beteiligung von »Wirtschaft, Wissenschaft und Zivilgesellschaft« entstehen.

Zuvor soll bis Anfang Juni im Kabinett ein Eckpunktepapier zu dem Thema verabschiedet werden. Das wird dann wahrscheinlich als Grundlage dienen für das für Mitte Juni von der Europäischen Kommission geplante Treffen hochrangiger Regierungsvertreter. Dort soll besprochen werden, wie die EU-Staaten bis Jahresende ihr Vorgehen untereinander abstimmen können. Die Brüsseler Behörde drängt die Mitglieder dazu, eigene KI-Strategien zu entwickeln und mehr Geld für die Erforschung von Grundlagen und Anwendungen der Technologien zur Verfügung zu stellen.

Dieser Forderung ist bisher nur Frankreich nachgekommen. Der Ende März vorgestellte nationale Plan konzentriert sich auf zunächst vier Anwendungsfelder für KI: Gesundheitswesen, Transport und Verkehr, Sicherheit und Verteidigung sowie Umweltschutz. Wirtschaftliche Fragen stehen im Vordergrund, es finden sich aber auch Sätze wie dieser: »KI kann zu einer besseren, gerechteren und effizienteren Gesellschaft führen. Sie kann aber auch dazu führen, dass der Wohlstand sich in den Händen einer sehr kleinen Gruppe digitaler Eliten konzentriert. Eine inklusive Politik muss im Bereich KI daher zwei Ziele verfolgen: Sicherstellen, dass die Entwicklung dieser Technologie soziale und wirtschaftliche Ungleichheiten nicht weiter verstärkt; und KI nutzen, um diese Ungleichheiten zu reduzieren.«

Die Europäische Kommission veröffentlichte ihre eigene Strategie zur KI am gleichen Tag, an dem die Bundesregierung die Anfrage der Grünen beantwortete. Sie verfolgt drei Ziele: Zum einen geht es darum, die öffentlichen und privaten Investitionen in KI zu erhöhen, zum anderen darum, sich auf den sozio-ökonomischen Wandel vorzubereiten, und drittens einen angemessenen ethischen und rechtlichen Rahmen zu gewährleisten. Bis Ende 2020 sollten die Investitionen in Forschung und Entwicklung um mindestens 20 Milliarden Euro gesteigert werden. Dazu stockt die EU-Kommissionen die Mittel im Rahmen des Forschungsprogramms Horizon 2020 um 1,5 Milliarden Euro auf und geht davon aus, dass weitere 2,5 Milliarden Euro im Rahmen von öffentlich-privaten Partnerschaften hinzu kommen. Außerdem sollen über den Europäischen Fonds für strategische Investitionen mehr als 500 Millionen Euro »mobilisiert werden«.

Mehrere europäische Wissenschaftler hatten sich am Tag davor mit einer eigenen Erklärung an die Öffentlichkeit gewandt. Darin fordern sie die Einrichtung eines Europäischen Forschungszentrums ELLIS (European Lab for Learning & Intelligent Systems), das mit 100 Millionen Euro für Infrastruktur und einem jährlichen Etat von 30 Millionen ausgestattet werden soll. Europa könne davon auf zweifache Weise profitieren: »Erstens wollen wir, dass in Europa die beste Grundlagenforschung durchgeführt wird. Europa soll dadurch in die Lage versetzt werden, die Veränderung der Welt durch maschinelles Lernen und moderne KI zu gestalten. Zweitens wollen wir ökonomische Wirkung und die Schaffung von Arbeitsplätzen und glauben, dass dies durch herausragende und freie Grundlagenforschung, unabhängig von industriellen Interessen, gewährleistet wird.«

Während in Europa die politische Debatte jetzt Fahrt aufnimmt, haben andere Länder schon vor mehreren Monaten ihre Pläne zur KI verkündet. So erklärte Taiwan im vergangenen September, über die nächsten fünf Jahre umgerechnet 330 Millionen US-Dollar investieren zu wollen, um an vier Universitäten Forschungs- und Innovationszentren einzurichten. 300 Wissenschaftler sollen gewonnen werden, um an 67 Projekten zu arbeiten. Von der taiwanesischen Industrie werde erwartet, dass sie ebenfalls einen Beitrag zu dieser Initiative leiste.

Die taiwanesische Initiative ist Teil einer Strategie, die sich auf fünf Punkte konzentriert. Dazu zählen neben der Verbesserung der Infrastruktur für Forschung und Entwicklung und der Einrichtung der Forschungszentren für KI und intelligente Roboter insbesondere die Investition in Schlüsseltechnologien für Halbleiter. Im Design und der Herstellung von Wafern und integrierten Schaltkreisen sieht das Ministry of Science and Technology (MOST) eine der Stärken des Landes neben Forschungserfolgen in den Bereichen neuronale Netze, Expertensysteme, maschinelles Lernen und Big Data. Die größten Defizite liegen laut MOST bei der Anwendung von Algorithmen. Außerdem gebe es eine vergleichsweise geringe Zahl von Patenten bei KI-Schlüsseltechnologien.

Am weitesten fortgeschritten scheint jedoch die Planung in China, wo bereits im vergangenen August ein Sechs-Punkte-Programm zur KI vorgestellt wurde. Darin wird ausdrücklich die »Stärkung der Synergien zwischen Militär und Zivilgesellschaft« gefordert und die Notwendigkeit »ganzheitlicher Planung« hervorgehoben, um »Engpässe bei grundlegenden wissenschaftlichen Theorien und Schlüsseltechnologien zu überwinden«. An erster Stelle jedoch steht die »Errichtung eines offenen und koordinierten Innovationssystems für KI-Technologie«. Die Forscher sind aufgerufen, sich Fragen zu widmen, die zu grundlegenden Durchbrüchen führen können, etwa beim selbst-adaptiven und autonomen Lernen, bei den Fähigkeiten von KI-Systemen zur Interpretation und Generalisierung oder bei der Realisierung von Computersystemen nach dem Vorbild des menschlichen Gehirns.

Das Dokument verschweigt nicht die großen Herausforderungen: »Als disruptive Technologie kann KI auf breiter Front Folgen haben: Umwandlung von Beschäftigungsstrukturen; Einfluss auf juristische und soziale Theorien; Verletzungen der Privatsphäre; Herausforderungen in internationalen Beziehungen und Normen und andere Probleme. Sie wird weitreichende Auswirkungen haben auf die Regierungsarbeit, ökonomische Sicherheit, soziale Stabilität wie auch auf die Weltordnung. Während wir die Entwicklung von KI energisch vorantreiben, müssen wir große Aufmerksamkeit auf die potenziellen Sicherheitsrisiken richten, die vorausschauende Gefahrenabwehr stärken, Risiken minimieren und eine sichere, verlässliche und kontrollierbare Entwicklung von KI gewährleisten.«

Ganz klar ist China bei der Zeitplanung: Bis 2020 soll die selbst entwickelte KI mit der westlichen gleichziehen; bis 2025 sollen chinesische Wissenschaftler für größere Durchbrüche in der Forschung sorgen; und bis 2030 soll die ganze Welt China um seine KI beneiden.

Bei all den bisher vorgelegten Strategieentwürfen fällt auf, dass die Gedanken zum gesellschaftlichen und kulturellen Wandel und den damit verbundenen Risiken tendenziell hinter den wirtschaftlichen Erwägungen zurücktreten. Im Vordergrund steht stets die Motivation, im ökonomischen Wettbewerb nicht ins Hintertreffen zu geraten. Eine starke ökonomische Position verbessere die Möglichkeiten zur Gestaltung des Wandels, wird dabei gelegentlich argumentiert. Gleichwohl erschwert die kurzfristige Orientierung auf marktfähige Produkte einen angemessenen Umgang mit den langfristigen Dimensionen der Technologie.

Wer vornehmlich auf konkrete, profitable Anwendungen von KI achtet, riskiert vor allem, die Entwicklung von allgemeiner KI, die aus dem Zusammenspiel all dieser speziellen Verfahren erwächst, aus den Augen zu verlieren. KI ist keine Technologie, die irgendwann fertig entwickelt ist. Sie durchläuft eine Evolution, deren Verlauf und Ende nicht absehbar sind. Früher oder später könnte dabei ein Punkt erreicht werden, von dem ab die weitere Optimierung nicht mehr durch Menschen, sondern durch die KI selbst betrieben wird. Damit würde KI zur nicht mehr kontrollierbaren, dem Menschen geistig überlegenen Superintelligenz.

Dieses Szenario meint der Hightech-Unternehmer Elon Musk, wenn er KI als »sehr viel gefährlicher als Atomwaffen« bezeichnet. Gegenüber dem »Handelsblatt« taten der Grünen-Politiker Dieter Janecek und Thomas Jarzombek (CDU) solche Warnungen als »unangebrachten Alarmismus« ab. Damit stehen sie nicht allein, liegen aber trotzdem falsch. Was sie übersehen: Elon Musk ist kein Gegner von KI. Er hält es nur für ungeheuer wichtig, diese Technologie so sorgfältig und vorsichtig wie möglich zu entwickeln. Die erste und wichtigste Bedingung dafür ist größtmögliche Transparenz. Dies soll die von Musk mit einer Milliarde Dollar unterstützte Organisation »Open AI« gewährleisten, eine Forschungseinrichtung mit dem erklärten Ziel, »digitale Intelligenz auf eine Weise voranzubringen, dass sie höchstwahrscheinlich der Menschheit als Ganzes dient, unbelastet von dem Zwang, finanziellen Gewinn zu generieren«.

Die bislang bekannt gewordenen Regierungspläne deuten jedoch darauf hin, dass sich diese Idee, KI als Menschheitsprojekt zu betrachten, wohl nicht durchsetzen wird. Wie es scheint, werden eine Handvoll Projekte, betrieben von Staaten und großen Firmen, um die Gestaltung unserer Zukunft wetteifern. Aber vielleicht hat das auch etwas Gutes, trotz der Überbetonung ökonomischer Aspekte: Ein einzelnes Projekt, sei es auch noch so offen betrieben, birgt immer noch das Risiko eines plötzlichen und unerwarteten Übergangs zur Superintelligenz. Wenn sich dagegen mehrere Superintelligenzen gegenseitig in Schach halten, könnte das die Entwicklung verlangsamen und damit einen besser kontrollierbaren Übergang ermöglichen.

ndPlus

Ein kleiner aber feiner Teil unseres Angebots steht nur Abonnenten in voller Länge zur Verfügung. Mit Ihrem Abo haben Sie Vollzugriff auf sämtliche Artikel seit 1990 und helfen mit, das Online-Angebot des nd mit so vielen frei verfügbaren Artikeln wie möglich finanziell zu sichern.

Testzugang sichern!

Noch kein Abo?

Jetzt kostenlos testen!

14 Tage das »nd« gratis und unverbindlich als App, digital oder gedruckt.

Kostenlos bestellen