Aufruf zur Pause bei der Entwicklung der KI-Superintelligenz gewinnt an Dynamik

20

Eine wachsende Zahl führender Persönlichkeiten aus den Bereichen Technologie, Wirtschaft und Medien drängen auf eine Verlangsamung des Strebens nach künstlicher Superintelligenz – KI, die die menschliche Intelligenz übertreffen würde. Ein von über 850 Personen unterzeichneter Brief, darunter prominente Informatiker, Unternehmer und Kulturpersönlichkeiten, fordert einen vorübergehenden Stopp dieser Entwicklung, bis Schutzmaßnahmen ergriffen werden.

Wer äußert diese Bedenken?

Die Liste der Unterzeichner liest sich wie ein Who-is-Who der Tech-Welt und darüber hinaus. Geoffrey Hinton und Yoshua Bengio, die aufgrund ihrer bahnbrechenden Arbeit oft als „Paten“ der KI bezeichnet werden, haben sich dem Aufruf angeschlossen. Daneben sind Steve Wozniak, Mitbegründer von Apple, und Richard Branson, Gründer der Virgin Group. Zur Gruppe gehören auch Akademiker, Medienpersönlichkeiten wie Stephen Fry, religiöse Führer und ehemalige Politiker. Bemerkenswerterweise fehlen auf der Liste Sam Altman (CEO von OpenAI) und Mustafa Suleyman (Microsofts KI-Leiter), trotz ihrer vorherigen Warnungen vor den potenziellen Gefahren fortschrittlicher KI.

Superintelligenz und AGI verstehen

Der Kern der Debatte dreht sich um Superintelligenz, ein Begriff, der allgemein als KI verstanden wird, die die kognitiven Fähigkeiten des Menschen in jeder Hinsicht übertrifft. Es besteht die Sorge, dass solche Systeme, sobald sie geschaffen sind, unkontrollierbar werden könnten, was möglicherweise unbeabsichtigte und schädliche Folgen haben könnte. Die Idee, dass Maschinen irgendwann die menschliche Kontrolle überflügeln, hat ihre Wurzeln in der frühen Informatik, wobei Alan Turing in den 1950er Jahren vorhersagte, dass dies das „Standardergebnis“ sein würde.

In den Diskussionen geht es auch häufig um Künstliche Allgemeine Intelligenz (AGI), die oft als Sprungbrett zur Superintelligenz angesehen wird. AGI wird im Allgemeinen als KI definiert, die den kognitiven Fähigkeiten des Menschen entspricht oder diese übertrifft. Sam Altman beispielsweise betrachtet AGI als eine potenziell transformative Kraft, die in der Lage ist, „die Menschheit zu erheben“, und unterscheidet sie von Szenarien, in denen Maschinen die Kontrolle übernehmen. Einige Kritiker argumentieren jedoch, dass AGI immer noch erhebliche Risiken bergen könnte und zu eng mit den Gefahren der Superintelligenz verbunden sei, als dass sie ohne sorgfältige Überlegung weiterverfolgt werden könnte.

Warum die Sorge wächst

Der Ruf nach einer Pause ergibt sich aus mehreren miteinander verbundenen Bedenken. Der Brief hebt insbesondere Ängste hervor vor:

  • Wirtschaftliche Störungen: KI könnte Arbeitsplätze in großem Umfang automatisieren, was zu weit verbreiteter Arbeitslosigkeit und wirtschaftlicher Instabilität führen würde.
  • Verlust der Autonomie: Menschen könnten die Kontrolle über ihr Leben verlieren, wenn KI-Systeme Entscheidungen mit weitreichenden Konsequenzen treffen.
  • Bedrohungen für Freiheit und Würde: Der Einsatz von KI zur Überwachung und Manipulation könnte die bürgerlichen Freiheiten und Menschenrechte untergraben.
  • Nationale Sicherheitsrisiken: KI könnte als Waffe eingesetzt werden, was zu neuen Formen der Kriegsführung und Instabilität führen würde.
  • Existenzielles Risiko: Im extremsten Szenario könnte eine unkontrollierte KI-Entwicklung das Überleben der Menschheit gefährden.

Die Rolle von Technologieunternehmen

Das Streben nach immer leistungsfähigerer KI wird teilweise durch den intensiven Wettbewerb zwischen Technologieunternehmen vorangetrieben. Dieses Rennen wird oft mit Blick auf nationale Sicherheit und wirtschaftliche Dominanz dargestellt. Einige Unternehmen wie Meta machen sich die Begeisterung für fortschrittliche KI zunutze, indem sie Begriffe wie „Superintelligenz“ verwenden, um für ihre neuesten Modelle zu werben. Dieses Streben nach KI-Vormachtstellung kann jedoch die Notwendigkeit einer sorgfältigen Abwägung potenzieller Risiken und der Entwicklung robuster Sicherheitsprotokolle in den Schatten stellen.

Ein Aufruf zur Vorsicht

Der immer lauter werdende Chor der Stimmen, die eine Pause im Wettlauf um die Superintelligenz fordern, spiegelt eine tiefe Besorgnis über die möglichen Folgen einer unkontrollierten KI-Entwicklung wider. Die Unterzeichner glauben, dass ein Moratorium für Superintelligenz notwendig ist, bis ein breiter wissenschaftlicher Konsens darüber besteht, dass sie mit erheblicher öffentlicher Unterstützung sicher und kontrollierbar entwickelt werden kann. Dazu gehört die Entwicklung von Schutzmaßnahmen und ethischen Rahmenbedingungen, bevor Systeme geschaffen werden, die die menschliche Intelligenz übertreffen können, anstatt zu versuchen, sie nachträglich zu kontrollieren.

Die Entwicklung der Superintelligenz birgt Risiken, die nicht nur technologischer Natur sind; Sie sind grundsätzlich menschlich und beeinflussen unsere Freiheit, unseren Wohlstand und möglicherweise unsere Existenz. – Unterzeichner des Briefes

Letztendlich unterstreicht die laufende Debatte die Notwendigkeit eines durchdachten und kollaborativen Ansatzes für die KI-Entwicklung, bei dem neben dem technologischen Fortschritt das menschliche Wohlergehen und die gesellschaftlichen Auswirkungen Vorrang haben.