Von Ezra Klein New York Times

Der Originallink: https://www.nytimes.com/2023/03/12/opinion/chatbots-artificial-intelligence-future-weirdness.html

Im Jahr 2018 sagte Sundar Pichai, der CEO von Google – und keiner der für Übertreibungen bekannten Tech-Manager –: „Künstliche Intellitgenz ist wahrscheinlich das Wichtigste, woran die Menschheit je gearbeitet hat. Ich betrachte es als etwas Bedeutenderes als Elektrizität oder Feuer.“

Versuchen Sie, für ein paar Minuten mit der Möglichkeit zu leben, dass er Recht hat. Es gibt keine tiefere menschliche Voreingenommenheit als die Erwartung, dass morgen so sein wird wie heute. Es ist ein mächtiges Werkzeug, weil es fast immer richtig ist. Morgen wird es wahrscheinlich wie heute sein. Nächstes Jahr wird es wahrscheinlich wie dieses Jahr. Aber werfen Sie Ihren Blick 10 oder 20 Jahre in die Zukunft. Typischerweise war das in der Menschheitsgeschichte meistens möglich. Ich glaube nicht, dass es das jetzt auch noch ist.

Künstliche Intelligenz (KI) ist ein loser Begriff, und ich meine ihn locker. Ich beschreibe nicht die Seele der Intelligenz, sondern die Textur einer Welt, die von ChatGPT-ähnlichen Programmen bevölkert ist, die sich für uns anfühlen, als wären sie intelligent, und die einen Großteil unseres Lebens formen oder bestimmen. Solche Systeme sind zu einem großen Teil bereits vorhanden. Aber was kommt, wird sie wie Spielzeug aussehen lassen. Was an KI am schwierigsten zu einzuschätzen ist, ist die Geschwindigkeit und die Qualität, in der sie sich verbessert.

„Die breitere intellektuelle Welt scheint stark zu überschätzen, wie lange es dauern wird, bis KI-Systeme sich von ‚großen Auswirkungen auf die Welt‘ zu einer „Welt, die nicht mehr wiederzuerkennen ist“ wandeln werden, schrieb Paul Christiano 2022, ein Schlüsselmitglied von OpenAI, der Firma, die ChatGPT entwickelt hat. „Das werden eher Jahre als Jahrzehnte sein, und es besteht eine reale Chance, dass es Monate sind.“

Vielleicht stoßen die Entwickler auf eine Wand, mit der sie nicht gerechnet haben. Aber was, wenn sie es nicht tun?

Es gibt ein natürliches Tempo menschlicher Überlegungen. Vieles geht kaputt, wenn uns der Luxus der Zeit verweigert wird.

Aber in einem solchen Moment befinden wir uns jetzt, glaube ich. Wir können uns nicht den Luxus leisten, so langsam zu reagieren, zumindest nicht, wenn sich die Technologie so schnell entwickeln wird.

Seit 2018 habe ich versucht, regelmäßig Zeit mit den Leuten zu verbringen, die an KI arbeiten. Ich weiß nicht, ob ich vermitteln kann, wie seltsam diese Kultur ist. Und das meine ich nicht abwertend; Ich meine es beschreibend. Es ist eine Gemeinschaft, die mit einem veränderten Sinn für Zeit und Konsequenzen lebt. Sie erschaffen eine Macht, die sie nicht verstehen, in einem Tempo, das sie oft nicht glauben können.

In einer Umfrage von 2022 wurden KI-Experten gefragt: „Wie hoch schätzen Sie die Wahrscheinlichkeit, dass die Menschen unfähig sind, künftige weiter entwickelte Künstliche Intelligenz zu kontrollieren? Systeme zu kontrollieren, die das Aussterben der Menschheit oder eine ähnlich dauerhafte und schwere Entmachtung der menschlichen Spezies verursachen? Die mittlere Antwort lag bei 10 Prozent.

Ich finde das schwer nachzuvollziehen, obwohl ich mit vielen gesprochen habe, die diese Wahrscheinlichkeit im Moment noch höher schätzen. Würden Sie an einer Technologie arbeiten, von der Sie dachten, sie hätte eine 10-prozentige Chance, die Menschheit auszulöschen?

Ich stelle den Programmierern oft die gleiche Frage: Wenn Sie Unheil für möglich halten, warum tun Sie es dann überhaupt? Verschiedene Leute haben unterschiedliche Dinge zu sagen, aber nach ein paar Pushs stelle ich fest, dass sie oft von einem Standpunkt aus antworten, der wie die Perspektive der KI selbst klingt. Viele – nicht alle, aber genug, dass ich mich bei dieser Charakterisierung wohlfühle – fühlen sich dafür verantwortlich, diese neue Form der Intelligenz in die Welt zu bringen.

Ein verlockender Gedanke könnte sein: Diese Leute sind verrückt. Das war oft meine Antwort. Vielleicht führt eine zu große Nähe zu dieser Technologie zu einem Perspektivverlust. Könnten diese Systeme eine neue Ära des wissenschaftlichen Fortschritts einleiten? Im Jahr 2021 gelang es einem von DeepMind gebauten System, die 3-D-Struktur von Zehntausenden von Proteinen vorherzusagen, ein Fortschritt, der so bemerkenswert ist, dass die Herausgeber der Zeitschrift Science ihn als ihren Durchbruch des Jahres bezeichneten. Wird KI unsere Welt mit nichtmenschlichen Gefährten und Persönlichkeiten bevölkern, die unsere Freunde und unsere Feinde und unsere Assistenten und unsere Gurus und vielleicht sogar unsere Liebhaber werden?

Könnte KI Millionen arbeitslos machen? Wie es Automatisierung schon immer getan hat? Könnte KI Terroristen oder antagonistischen Staaten helfen, tödliche Waffen und lähmende Cyberangriffe zu entwickeln? Diese Systeme bieten bereits eine Anleitung zum Bau biologischer Waffen, wenn Sie eine klug genug gestellte Frage eingeben. Könnte KI dazu führen, dass kritische soziale Prozesse oder die öffentliche Infrastruktur auf eine Weise kontrolliert werden, die wir nicht verstehen und vielleicht nicht mögen?

Ich glaube nicht, dass uns diese Fragen weiterhelfen. Was kommt, wird seltsamer sein. Ich kann es nicht genug betonen: Wir verstehen diese Systeme nicht, und es ist nicht klar, dass wir das jemals können werden.

Wenn wir Äonen hätten um uns anzupassen, könnten wir das vielleicht sauber tun. Aber wir haben die Zeit nicht. Die großen Technologieunternehmen liefern sich einen Wettlauf um K.I. Dominanz. Die USA und China liefern sich ein Rennen um diese Dominanz. Geld fließt in Unternehmen mit K.I. Sachverstand. Zu suggerieren, wir sollten langsamer fahren oder sogar ganz aufhören, erscheint kindisch. Wenn ein Unternehmen langsamer wird, beschleunigt ein anderes. Wenn ein Land pausiert, werden die anderen härter drängen.

Eins von zwei Dingen muss passieren. Die Menschheit muss ihre Anpassung an diese Technologien beschleunigen oder es muss eine kollektive, durchsetzbare Entscheidung getroffen werden, um die Entwicklung dieser Technologien zu verlangsamen. Aber auch beides wird vielleicht nicht ausreichen.