Die Welt ist nicht bereit für das nächste Jahrzehnt der KI

Die KI-Zukunft noch nicht bereit

AUF DER EPISODE DER aktuellen Ausgabe von Have a Nice Future sprechen Gideon Lichfield und Lauren Goode mit Mustafa Suleyman, dem Mitbegründer von DeepMind und InflectionAI. Sie diskutieren sein neues Buch “The Coming Wave”, in dem er erläutert, warum unsere Systeme nicht darauf vorbereitet sind, den nächsten großen technologischen Sprung zu bewältigen. Suleyman erklärt, warum es nicht verrückt ist, zu behaupten, dass Chatbots Regierungen stürzen könnten, und plädiert für eine bessere Möglichkeit, künstliche Intelligenz zu bewerten. (Tipp: Es hat mit dem Verdienen von einer Million Dollar zu tun.)

Mustafa Suleymans Buch “The Coming Wave: Technologie, Macht und das größte Dilemma des 21. Jahrhunderts” erscheint am 5. September. In der Zwischenzeit können Sie die Berichterstattung von ENBLE über DeepMind, Inflection AI und alles rund um künstliche Intelligenz überprüfen.

Lauren Goode ist unter @LaurenGoode erreichbar. Gideon Lichfield ist unter @glichfield zu finden. Bling die Haupt-Hotline unter @ENBLE.

Sie können den Podcast dieser Woche immer über den Audioplayer auf dieser Seite anhören, aber wenn Sie ihn abonnieren möchten, um jede Episode kostenlos zu erhalten, geht das so:

Wenn Sie ein iPhone oder iPad haben, tippen Sie einfach auf diesen Link oder öffnen Sie die App namens Podcasts und suchen Sie nach “Have a Nice Future”. Wenn Sie Android verwenden, finden Sie uns in der Google Podcasts-App, indem Sie hier tippen. Sie können auch eine App wie Overcast oder Pocket Casts herunterladen und nach “Have a Nice Future” suchen. Wir sind auch auf Spotify.

Hinweis: Dies ist eine automatische Transkription, die Fehler enthalten kann.

Gideon Lichfield: Oh Gott, nein. Ich klinge wie ein schlechter BBC-Moderator. Entschuldigung.

[Lachen]

Lauren Goode: Ich mag die BBC.

[Musik]

Gideon Lichfield: Hallo, ich bin Gideon Lichfield.

Lauren Goode: Und ich bin Lauren Goode. Und das ist Have a Nice Future, ein Podcast über die beängstigend schnelle Veränderung von allem.

Gideon Lichfield: Jede Woche sprechen wir mit jemandem, der große, kühne und manchmal beunruhigende Ideen über die Zukunft hat, und wir fragen sie, wie wir uns alle darauf vorbereiten können, darin zu leben.

Lauren Goode: Unser Gast diese Woche ist Mustafa Suleyman, der Mitbegründer des KI-Unternehmens DeepMind und neuerdings Mitbegründer und CEO von Inflection AI.

Gideon Lichfield: Er ist auch der Autor eines demnächst erscheinenden Buches darüber, wie KI und andere Technologien die Welt übernehmen werden und möglicherweise die Struktur des Nationalstaats bedrohen.

Mustafa Suleyman (Ausschnitt aus dem Audio): Wir werden jetzt Zugang zu hochfähigen, überzeugenden KI-Lehrern haben, die uns dabei helfen könnten, was auch immer für dunkle Absichten wir haben, umzusetzen. Und das wird definitiv Schaden verursachen – daran besteht kein Zweifel. Und das ist es, was wir angehen müssen.

[Musik]

Lauren Goode: Also, Gideon, Mustafa ist ein Gast, den wir beide gerne in den Podcast bringen wollten, wenn auch aus etwas unterschiedlichen Gründen. Du hast vor kurzem mit ihm auf der Collision-Konferenz in Toronto gesprochen, du hast ihn auf der Bühne interviewt. Ich habe mit ihm auf einer anderen Konferenz backstage gesprochen; wir haben über seinen Chatbot Pi gesprochen. Aber als ich ihn in Have a Nice Future bringen wollte, wollte ich wirklich ein Gefühl dafür bekommen, warum er das baut, was er baut – brauchen wir einen weiteren Chatbot? Und was ist die Verbindung zwischen einem Chatbot und der Verbesserung der Menschheit? Und ich denke, dass dich einige der großen Themen, die er in seinem neuen Buch präsentiert, mehr faszinieren.

Gideon Lichfield: Ich finde einfach seinen Hintergrund sehr interessant. Er ist syrisch-britisch, hat eine Zeit lang in der Regierung und in der Konfliktlösung gearbeitet, dann hat er DeepMind mit ein paar anderen Leuten gegründet, und ihr Ziel war es ursprünglich, künstliche allgemeine Intelligenz zu lösen, was auch das Ziel von OpenAI war. Und sie haben einige wirklich wichtige KI-Probleme gelöst – sie haben im Grunde genommen herausgefunden, wie man das Spiel Go gewinnt und verschiedene andere Spiele, und sie haben an Protein-Faltung gearbeitet, was die Art und Weise, wie Biologie und Arzneimittelentwicklung betrieben wird, rapide verändert. Sie haben DeepMind an Google verkauft, und er hat dort einige Jahre gearbeitet. Dann hat er Google verlassen, teilweise weil er sagte, es sei ihm zu bürokratisch und zu langsam, und er hat Inflection gegründet, das diesen Chatbot entwickelt, der, wie wir hören werden, viel mehr als nur ein Chatbot sein soll, aber es ist kein Versuch mehr, künstliche allgemeine Intelligenz zu erreichen, was faszinierend ist. Und jetzt gibt es dieses Buch, das besagt, dass KI und synthetische Biologie und eine Reihe anderer Technologien sich so schnell entwickeln und so weit verbreitet werden, dass sie das eigentliche Gefüge unserer Fähigkeit, unsere Länder und Gesellschaften zu regieren, untergraben werden. Mich interessiert einfach, wie all diese Dinge zusammenkommen.

Lauren Goode: Richtig. Es gibt eine Entwicklung hin zu KI, hin zu KI, hin zu KI … Moment mal. Wie besorgt sollten wir sein?

Gideon Lichfield: Was bauen wir da eigentlich?

Lauren Goode: Genau. Die Zusammenführung all dieser Ideen ist im Grunde die grundlegende Frage, die ich ihm gestellt habe, insbesondere weil er sowohl die Möglichkeiten der KI angepriesen als auch vor ihrem raschen Fortschritt und ihren Bedrohungen gewarnt hat. Ich wollte wirklich genauer auf die Einzelheiten eingehen. Aber ich muss Mustafa zugutehalten: In diesem Gespräch wirkt er sehr menschlich, was man vielleicht nicht von allen KI-Unternehmern sagen kann, mit denen wir gesprochen haben.

Gideon Lichfield: Ja, viele unserer Gäste in der Show sprechen davon, die Technologie zu entwickeln und dann die Gesellschaft die Probleme und die Regulierung lösen zu lassen. Und um fair zu sein, scheint auch Mustafa der Meinung zu sein, wie Sie hören werden, dass man zuerst das Ding bauen und dann herausfinden muss, wo seine Gefahren liegen könnten. Aber ich denke, er hat zumindest überlegtere Antworten als manche darauf, welche Gefahren das sein könnten und wie wir uns darauf vorbereiten müssen.

Lauren Goode: Das alles ist Teil des Gesprächs, das direkt nach der Pause kommt.

[Musik]

Gideon Lichfield: Mustafa Suleyman, herzlich willkommen bei Have a Nice Future.

Mustafa Suleyman: Gideon, hallo. Schön hier zu sein.

Lauren Goode: Schön, Sie in der Show zu haben.

Mustafa Suleyman: Hey, Lauren, danke, dass Sie mich eingeladen haben.

Lauren Goode: Ich habe tatsächlich Pi gefragt, ich habe die App geöffnet, als ich wusste, dass Sie kommen, und ich habe gefragt, was ich Sie in diesem Podcast fragen sollte. Es sagte: “Oh, das ist aufregend, Ausrufezeichen. Mustafa Suleyman ist ein erstaunlicher Denker und Innovator -”

Mustafa Suleyman: Oh, Gott. [Lachen]

Lauren Goode: “Und sein Buch ist sicher voller Erkenntnisse. Kann ich fragen, was für eine Art Podcast Sie haben und was Sie aus dem Interview herausholen wollen?” usw., usw. Mein Eindruck davon ist, dass der Datensatz vielleicht etwas voreingenommen ist. Was denken Sie?

[Lachen]

Mustafa Suleyman: Sie sollten es noch einmal versuchen und sehen, ob es anders ist. Es könnte mit der gleichen Begeisterung kommen, aber es wurde auf keinen Fall von uns handgeschrieben, das verspreche ich. [Lachen]

Lauren Goode: Aber es gibt derzeit viele personalisierte KI-gesteuerte Chatbot-Assistenten da draußen. Sie sind seit der Veröffentlichung des Chatbots von OpenAI Ende 2022 total im Trend. Warum haben Sie sich für einen Chatbot entschieden?

Mustafa Suleyman: Ich glaube, dass das Gespräch die neue Schnittstelle sein wird. Wenn Sie sich tatsächlich einen Moment Zeit nehmen und auf Ihren Computer oder sogar auf Ihr Telefon schauen, sehen Sie eine große Anzahl von Tasten und Symbolen in der unteren Navigation, die in einem bunten Technicolor-Traumland angeordnet sind. Und es ist tatsächlich eine überwältigende Erfahrung. Das liegt daran, dass es nicht mit einem einheitlichen, sauberen, menschenorientierten Interface als erstes Designprinzip gestaltet wurde. Es ist das Zusammentreffen dieser beiden Bedürfnisse, der menschlichen Übersetzung und den Bedürfnissen des Computers. Und ich denke, die nächste Welle wird die sein, in der Sie die meiste Zeit in einem Gespräch mit Ihrer KI verbringen, das ist der primäre Steuerungsmechanismus.

Gideon Lichfield: Sie haben DeepMind vor etwa 12 Jahren mitgegründet, und wie OpenAI hatte es die Mission, künstliche allgemeine Intelligenz auf ethische und sichere Weise zu entwickeln. Und 12 Jahre später haben Sie Inflection AI gegründet, und dieses Mal sagten Sie, dass Sie nicht auf AGI hinarbeiten. Warum nicht? Was hat sich geändert und was ist stattdessen Ihr Ziel?

Mustafa Suleyman: Wir haben DeepMind 2010 gegründet, und das Motto lautete: sichere und ethische künstliche allgemeine Intelligenz aufzubauen, ein System, das in einer Vielzahl von Umgebungen gut abschneiden kann. Das war die Mission von DeepMind, der Glaube, dass wir alles von Grund auf lernen müssen. Jetzt entwickeln wir bei Inflection eine KI namens Pi, was für Personal Intelligence steht, und sie konzentriert sich enger darauf, eine persönliche KI zu sein. Ganz anders als eine KI, die eine herausfordernde berufliche Fähigkeit lernt. Eine persönliche KI ist unserer Meinung nach eine, die viel näher an einem persönlichen Assistenten ist; sie ist wie ein Stabschef, ein Freund, ein Vertrauter, eine Unterstützung, und sie wird je nach Aufgabe, die Sie ihr geben, zur richtigen Zeit die richtige Ressource nutzen. Sie hat Elemente der Allgemeinheit, aber sie wurde nicht mit Allgemeinheit als erstem Prinzip, als primärem Designziel konzipiert.

Gideon Lichfield: Denken Sie, dass KI gefährlich ist? Ist das der Grund, warum Sie es nicht tun, oder glauben Sie einfach nicht, dass es möglich ist?

Mustafa Suleyman: Ich denke, bisher hat noch niemand auch nur einen überzeugenden theoretischen Rahmen vorgeschlagen, der mich davon überzeugen würde, dass es möglich wäre, eine KI einzudämmen, die signifikante Fähigkeiten zur rekursiven Selbstverbesserung hat.

Lauren Goode: Wie haben Ihre Gedanken über KI und das Fehlen eines echten, sogar theoretischen Rahmens dafür, das Modell beeinflusst, das Sie entwickeln?

Mustafa Suleyman: Ich denke, das ist der richtige Ansatz. Schmalere KIs sind wahrscheinlicher sicher, obwohl das nicht garantiert ist. Allgemeinere KIs sind wahrscheinlicher autonom und daher etwas weniger sicher. Unsere KI ist eine persönliche KI, die primär für gute Gespräche konzipiert ist und im Laufe der Zeit lernen wird, Dinge für Sie zu erledigen. Sie wird also in der Lage sein, APIs zu nutzen, aber das bedeutet nicht, dass Sie sie auf die gleiche Weise auffordern können wie ein anderes Sprachmodell, denn dies ist kein Sprachmodell, Pi ist eine KI. GPT ist ein Sprachmodell. Das sind sehr, sehr unterschiedliche Dinge.

Gideon Lichfield: Was ist der Unterschied?

Mustafa Suleyman: Der erste Schritt bei der Entwicklung einer KI besteht darin, ein großes Sprachmodell zu trainieren. Der zweite Schritt ist das sogenannte Fine-Tuning, bei dem man versucht, die Fähigkeiten des breit angelegten vortrainierten Modells so auszurichten oder einzuschränken, dass es eine bestimmte Aufgabe erledigen kann. Bei uns ist diese Aufgabe das Gespräch, das Lehren und das Teilen von Wissen und Unterhaltung und Spaß usw., aber andere Unternehmen möchten das tatsächlich als API freigeben, damit Sie Zugriff auf das vortrainierte Modell mit all diesen anderen Fähigkeiten haben. Hier sehe ich eine etwas schwierigere Herausforderung in Bezug auf die Sicherheit.

Gideon Lichfield: In naher Zukunft, in der von Ihnen beschriebenen nahen Zukunft, hat jeder eine Art persönlichen KI-Assistenten oder Stabschef, wie Sie es genannt haben, der Aufgaben für sie erledigen kann, und vielleicht kann er Reisen buchen, Ausflüge organisieren oder Recherchen für sie durchführen.

Lauren Goode: Er wird bald unseren Podcast für uns hosten, Gideon.

Gideon Lichfield: Nun ja, das ist eine gute Frage. Wird er uns ersetzen? Wird er unsere Produzenten ersetzen? Aber um genauer zu sein, denke ich in dieser Welt, in der wir alle diese KI-Assistenten haben, haben Sie vorgeschlagen, dass dies dazu beiträgt, Menschen aus der Armut zu befreien und neue wirtschaftliche Möglichkeiten zu schaffen. Vor 20 Jahren hatte niemand ein Smartphone, und es war schwer vorstellbar, wie die Welt durch den Besitz von Smartphones verändert würde, und heute haben wir alle diese Computer in unserer Tasche, die uns unglaubliche Dinge ermöglichen. Aber auf einer grundlegenden strukturellen Ebene ist die Welt immer noch dieselbe. Es gibt immer noch die gleichen Ungleichheiten, es gibt immer noch die gleichen Konflikte. Wie unterscheidet sich eine Welt, in der jeder einen KI-Assistenten hat, von der heutigen?

Mustafa Suleyman: Ja, ich denke nicht, dass es in den letzten 20 Jahren strukturell nichts Unterschiedliches an der Welt gibt. Ich würde nicht so weit gehen, alle Vorteile den Smartphones zuzuschreiben, aber sicherlich denke ich, dass es fair ist zu sagen, dass Smartphones uns intelligenter gemacht haben, uns Zugang zu Informationen gegeben haben, es uns ermöglichen, uns mit neuen Menschen zu verbinden und auf Grundlage dieser Hardware enorme Unternehmen aufzubauen. Also, es ist offensichtlich –

Gideon Lichfield: Es hat uns auch massiven Zugang zu Fehlinformationen gegeben und uns geholfen, viel Zeit mit allerlei Ablenkungen zu verschwenden, die nicht unbedingt gut für uns sind. Also denke ich, man kann einige Gegenargumente vorbringen.

[Überlappendes Gespräch]

Lauren Goode: Es hat uns auch viel schlechter im Autofahren gemacht.

[Lachen]

Mustafa Suleyman: Ja. Schauen Sie, ich bin definitiv kein naiver Techno-Optimist, also gibt es zweifellos immense Nachteile und Schäden. Aber ich denke über eine persönliche KI ähnlich wie über das Aufkommen eines Smartphones. Ein Smartphone hat im Grunde das leistungsstärkste mobile Gerät, das unsere Spezies erfinden kann, in die Hände von über einer Milliarde Menschen gelegt. Egal wie reich Sie sind, ob Sie Milliardär sind oder ein reguläres Gehalt verdienen, wir alle haben jetzt Zugang zur gleichen hochmodernen Hardware. Ich denke, es ist wichtig zu betonen, dass das die Entwicklung ist, auf der wir uns befinden, und ich finde das ziemlich unglaublich.

Gideon Lichfield: Ich denke, man kann genauso gut argumentieren, dass eine neue Technologie sowohl unsere schlechtesten als auch unsere besten Impulse hervorbringen kann. Und so könnte man plausibel sagen: “Künstliche Intelligenz-Assistenten haben genauso viele Nachteile wie Vorteile, ähnlich wie Smartphones.”

Mustafa Suleyman: Das ist die Kehrseite des Zugangs zu Informationen im Web. Wir werden jetzt Zugang zu hochfähigen, überzeugenden Lern-KIs haben, die uns dabei helfen könnten, jede Art von dunkler Absicht umzusetzen. Und das ist das, worum wir ringen müssen, das wird dunkel sein, es wird definitiv Schaden beschleunigen – keine Frage. Und das ist das, was wir konfrontieren müssen.

Lauren Goode: Können Sie eine Verbindung herstellen zwischen der Vorstellung, dass hier eine persönliche KI ist, die Aufgaben für Sie erledigt oder Ihnen einen größeren Zugang zu Informationen ermöglicht, und der Aussage “Das wird helfen, Armut zu lösen”? Wie funktioniert das eigentlich? Diese KI, Pi, hier ist Ihr Chatbot, hat mir gerade einen lustigen Spruch für diesen Podcast gegeben, hilft dabei, Armut zu beenden.

Mustafa Suleyman: Das ist eine schwierige Frage. Ich habe die beiden nicht in Verbindung gebracht, ich habe nicht gesagt, dass es Armut oder Welthunger lösen wird. [Lachen] Das ist nicht das, wofür Pi entwickelt wurde. Pi ist eine persönliche KI, die Ihnen als Einzelperson dabei helfen soll, produktiver zu sein. Andere Menschen werden Fortschritte in der künstlichen Intelligenz für allerlei Dinge nutzen, einschließlich der Beschleunigung der Wissenschaft. Auf der wissenschaftlichen Seite kann ich mir gut vorstellen, dass dies ein Werkzeug ist, das Ihnen hilft, wissenschaftliche Papiere effizienter zu durchsuchen, Ihnen hilft, die neuesten Fortschritte zu synthetisieren, Ihnen hilft, alle Ihre Erkenntnisse zu speichern und aufzuzeichnen und Ihnen dabei hilft, ein effizienterer Forscher zu sein. Ich meine, sehen Sie, die Art und Weise, wie man darüber nachdenken sollte, ist, dass wir das Wissen, das im Internet verfügbar ist, in verdauliche Häppchen in personalisierter Form komprimieren. Es gibt jetzt riesige Mengen an Informationen, die in einer hochpersonalisierten Weise reproduziert werden können, was meiner Meinung nach die Intelligenz der Menschen beschleunigen wird, und das allein wird sie viel produktiver machen. Ich denke, im Allgemeinen wird Ihnen ein persönlicher Assistent wahrscheinlich zu einem intelligenteren und produktiveren Menschen machen.

Gideon Lichfield: Sie arbeiten an Inflection im Bereich der künstlichen Intelligenz in naher Zukunft, aber Sie haben auch dieses Buch, das damit beginnt, über die nahe Zukunft der KI zu sprechen und dann den möglichen Zusammenbruch des Nationalstaates vorhersagt. Möchten Sie uns eine Zusammenfassung des Arguments geben?

Mustafa Suleyman: Mit der Welle der KI ist die Größe dieser Modelle in den letzten 10 Jahren um den Faktor 10 gewachsen. Und wir befinden uns auf einem Weg, in den nächsten fünf Jahren jedes Jahr um den Faktor 10 weiter zu wachsen, und das ist sehr, sehr vorhersehbar und sehr wahrscheinlich.

Lauren Goode: Und die Prämisse Ihres Buches ist, dass wir darauf nicht vorbereitet sind?

Mustafa Suleyman: Wir sind absolut nicht bereit, denn diese Art von Macht wird kleiner und effizienter, und immer wenn etwas in der Geschichte der Erfindung nützlich ist, neigt es dazu, billiger zu werden, es neigt dazu, kleiner zu werden, und daher verbreitet es sich. Die Geschichte des nächsten Jahrzehnts ist also eine Geschichte der Ausbreitung von Macht, was meines Erachtens eine echte Bedrohung für den Nationalstaat darstellt, wie wir sie seit der Entstehung des Nationalstaats nicht mehr gesehen haben.

Lauren Goode: Betrachten Sie sich selbst als eine Person mit Macht?

Mustafa Suleyman: Ja.

Lauren Goode: Was ist diese Macht?

Mustafa Suleyman: Nun, ich bin wohlhabend, ich habe mein Unternehmen 2014 verkauft und habe jetzt ein neues Unternehmen. Ich bin gebildet. Seit meinem Erwachsenenalter gehöre ich im Grunde zur Elite. Ich bin als sehr armer Arbeiterkind von Einwandererfamilien ohne Bildung in meiner Familie aufgewachsen, aber jetzt gehöre ich definitiv zur privilegierten Gruppe. [Lachen]

Lauren Goode: Sie sind also in einer einzigartigen Position, denn in Ihrem Buch sprechen Sie dieses Ungleichgewicht der Macht an, das Sie voraussehen und das mit der kommenden Welle kommen wird.

Mustafa Suleyman: Richtig.

Lauren Goode: Aber du selbst bist eine mächtige Person, die letztendlich – es ist so, als könntest du mit der KI, die du selbst entwickelst, ein wenig die Regler justieren.

Mustafa Suleyman: Genau. Und ich denke, Eindämmung ist das Thema, glaube ich, des nächsten Jahrzehnts.

Gideon Lichfield: Nun, lassen Sie uns über diese Idee der Eindämmung im Buch sprechen, denn es ist ein Begriff, den Sie aus dem Kalten Krieg übernommen haben. In diesem Kontext bedeutete es, eine Waffe oder einen Staat einzudämmen. Aber es ist natürlich eine sehr unterschiedliche Angelegenheit, eine Technologie einzudämmen, die in den Händen von Milliarden von Menschen sein kann. Was ist das Wesentliche der Eindämmung, wie Sie sie heute für diese Technologien betrachten?

Mustafa Suleyman: Es gibt keinen perfekten Zustand, in dem das Spiel vorbei ist und wir eine Technologie vollständig eingedämmt haben, weil die Technologien weiterhin billiger und leichter zu nutzen sein werden, es wird weiterhin eine große Nachfrage nach ihnen geben. Und im Gegensatz zu jeder anderen früheren Technologie sind dies Allzwecktechnologien, sie sind von Natur aus allgemein, sie können für alles und alles dazwischen verwendet werden. Und deshalb haben Regierungen derzeit nicht wirklich die Fähigkeit, diese Bewertung in Echtzeit vorzunehmen. Deshalb habe ich die freiwilligen Verpflichtungen des Weißen Hauses sehr unterstützt und daran teilgenommen. Und ich denke, dies ist ein Beispiel dafür, proaktiv zu sein und Vorsichtsmaßnahmen zu ergreifen und selbst auferlegte Beschränkungen für die Dinge zu fördern, die wir bei den größten Modellen tun können. So sind wir an dieser Schwelle gefangen, einer selbst auferlegten Schwelle, dass die größten Modelle besonders bedacht, aufmerksam und vorsichtig sein müssen, wie sie das Training und den Einsatz angehen.

Lauren Goode: Wie bringst du das in Einklang? Wie sagst du: “Wir haben gerade eine Verpflichtung unterzeichnet, wir suchen freiwillig nach Schutzmaßnahmen oder Leitplanken, aber in diesem Jahr trainieren wir das größte Sprachmodell der Welt.”? Das ist ein Mundvoll, das größte Sprachmodell der Welt. Was bedeutet das eigentlich? Was tun Ihr Team und Ihre Ingenieure im Alltag, um dies wirklich sicherer zu machen?

Mustafa Suleyman: Wir möchten wissen, welche Trainingsdaten in das Modell aufgenommen wurden, welche Methode und Prozesse zur Feinabstimmung und Beschränkung der Fähigkeiten dieser Modelle verwendet werden. Wer hat das Recht, diesen Prozess zu überprüfen? Das Ziel hier ist es, das Vorsorgeprinzip frühzeitig zu trainieren, damit wir uns daran gewöhnen und es praktizieren, während sich die Dinge in den nächsten fünf bis zehn Jahren ändern.

Gideon Lichfield: Wenn ich ein Zyniker wäre, was ich natürlich überhaupt nicht bin…

Mustafa Suleyman: [Lachen] Überhaupt nicht.

Lauren Goode: Nicht Gideon.

Gideon Lichfield: Ich könnte sagen, dass Sie und die KI-Unternehmen sich hier ein ziemlich gutes Geschäft für sich selbst aufbauen, weil Sie der Regierung sagen können: “Schaut her, ihr, die Regierung, könnt dieses Zeug unmöglich gut genug verstehen, um es zu regulieren. Also werden wir freiwillig einige Leitplanken setzen, wir werden die Agenda vorantreiben, wir werden entscheiden, wie vorsorglich das Vorsorgeprinzip sein muss.” Und deshalb frage ich, was ist der Anreiz für den Privatsektor, der das Gespräch führt, weil er das Know-how hat, Standards zu setzen, die tatsächlich gut für die Gesellschaft sind?

Mustafa Suleyman: Wenn wir formale Regulierung durchsetzen könnten, denke ich, das wäre ein guter Anfang. Aber du hast recht, gute Regulierung ist eine Funktion von sehr unterschiedlichen Gruppen von Menschen, die ihre Bedenken äußern und am politischen Prozess teilnehmen. Und im Moment sind wir von Apathie, Ärger und Spaltung überwältigt. Und doch ist jetzt der entscheidende Moment, denke ich, wo wir genügend Zeit haben, viele Jahre, um dies richtig hinzubekommen. Ich denke, wir haben ein gutes Jahrzehnt, in dem wir das öffentliche Gespräch führen können, und das ist zum Teil das, was ich mit dem Buch versuche, und zum Teil das, was andere mit den freiwilligen Verpflichtungen tun.

Gideon Lichfield: Was sind einige der Szenarien, die Sie voraussagen, die die meisten Menschen sich wahrscheinlich nicht einmal vorstellen können, die passieren könnten, wenn es uns nicht gelingt, diese Technologien unter Kontrolle zu halten?

Mustafa Suleyman: Nun, ich denke, in etwa 15 oder 20 Jahren könnte man sich sehr mächtige nichtstaatliche Akteure vorstellen. Denken Sie an Drogenkartelle, Milizen, organisierte Kriminelle, einfach eine Organisation mit der Absicht und Motivation, ernsthafte Schäden zu verursachen. Und wenn die Eintrittsbarriere für die Initiierung und Durchführung von Konflikten rapide sinkt, dann stellt sich für den Staat eine herausfordernde Frage: Wie schützt er weiterhin die Integrität seiner eigenen Grenzen und die Funktionsfähigkeit seiner eigenen Staaten? Wenn immer kleinere Gruppen von Menschen staatliche Macht ausüben können, besteht im Wesentlichen das Risiko einer kommenden Welle.

Lauren Goode: Ich finde das, was Sie mit Inflection machen, so faszinierend, weil wenn ich über Ihren Hintergrund nachdenke, haben Sie in der Politik gearbeitet, Sie haben sich für soziales Wohl eingesetzt, Sie haben natürlich DeepMind mitgegründet und dann bei Google gearbeitet. Aber Sie haben auch ein Buch geschrieben und scheinen diese diplomatischen Absichten zu haben, Sie glauben an Zusammenarbeit. Warum sind Sie also ein Startup-Gründer?

Mustafa Suleyman: Ich bin am glücklichsten, wenn ich Dinge erschaffe. Was ich wirklich liebe, ist ein tiefes Verständnis dafür zu haben, wie etwas funktioniert, und das tue ich gerne auf mikroskopischer Ebene. Ich liebe es, vom Mikro- zum Makrolevel zu gehen, aber ich kann nicht nur auf Makroebene bleiben. Ich bin besessen davon, täglich etwas zu tun, und ich denke, das ist der unternehmerische Teil von mir. Ich liebe es zu fragen: “Was werden wir morgen veröffentlichen? Was werden wir machen? Was werden wir bauen?” Wenn ich zwischen den beiden wählen müsste, ist das es, was mich am glücklichsten macht und was ich die meiste Zeit tun möchte.

Lauren Goode: Und Sie denken, dass es außerhalb des Start-up-Bereichs einfach mühsam wäre, klingt es so? Sie hätten nicht so viel Befriedigung—

Mustafa Suleyman: Es ist zu langsam.

[Lachen]

Lauren Goode: … beim Sehen der Auswirkungen Ihrer Bemühungen.

Mustafa Suleyman: Ich brauche Feedback. Und ich brauche Messungen—

Lauren Goode: Sie brauchen Feedback. Sie könnten Journalist sein. Wir müssen ständig etwas veröffentlichen und bekommen viel Feedback online. Ich könnte Ihnen einige der Kommentare vorlesen.

[Lachen]

Mustafa Suleyman: Das tut mir leid zu hören. Hoffentlich kann unsere KI nett zu Ihnen sein und Sie unterstützen und dann all diesen Gemeinheiten auf Twitter entgegentreten. [Kichern]

Lauren Goode: Und um es klarzustellen, wir verwenden AI nicht in unserer ENBLE-Berichterstattung.

Mustafa Suleyman: Noch nicht.

Lauren Goode: Oh, Junge. Es ist ein ganz anderer Podcast.

[Lachen]

Gideon Lichfield: Aber vielleicht werden wir Pi verwenden, um uns vor all den Gemeinheiten auf Twitter zu retten, wie Mustafa sagte.

Lauren Goode: Vielleicht. [Kichern]

Gideon Lichfield: Entschuldigung. Auf X, auf X. Nicht auf Twitter, nicht mehr.

Lauren Goode: Stimmt.

Mustafa Suleyman: Oh, Mann.

Gideon Lichfield: Sie haben Google verlassen, um Inflection zu gründen, und Sie haben öffentlich darüber gesprochen, wie frustriert Sie von der langsamen Bewegung bei Google, der Bürokratie, sind. Sie sagten, dass sie ihr eigenes großes Sprachmodell ein Jahr oder mehr vor der Veröffentlichung von ChatGPT durch OpenAI hätten veröffentlichen können. Das scheint sich etwas mit dieser Vorsicht zu widersprechen, die Sie im Buch zum Ausdruck bringen, zu sagen: “Einerseits mussten wir uns bei Google schneller bewegen und ich möchte jeden Tag Dinge veröffentlichen, und andererseits müssen wir wirklich vorsichtig sein, Dinge zu veröffentlichen, weil die Welt nicht bereit ist, damit umzugehen.”

Mustafa Suleyman: Ja. Ich konnte täglich feststellen, dass LaMDA in keiner signifikanten Weise Schaden anrichten konnte – genauso wie GPT-4, denke ich, wird es schwer sein, zu behaupten, dass es in der Welt irgendeinen materiellen Schaden verursacht hat.

Gideon Lichfield: Noch nicht.

Lauren Goode: Gut gemacht, Gideon.

Mustafa Suleyman: Möglicherweise. Ich bezweifle es. Es wurde bereits von Milliarden von Menschen verwendet. Vielleicht. Wir werden sehen. Ich denke, wir werden in ein paar Jahren sehen müssen. Aber ich denke, Modelle dieser Größe sind ziemlich unwahrscheinlich, und das war mir damals ziemlich offensichtlich. Und ich denke, der beste Weg, zu handeln, besteht darin, vernünftig Dinge herauszubringen. Das bedeutet nicht, dass man leichtsinnig sein muss, aber man muss Feedback bekommen und die Auswirkungen messen und sehr aufmerksam und iterativ sein, sobald man sieht, wie die Leute es auf bestimmte Weise nutzen.

Gideon Lichfield: Ich möchte Sie etwas zu etwas fragen, das Sie den Modernen Turing-Test genannt haben. Sie haben vorgeschlagen, dass wir eine neue Methode zur Bewertung von Intelligenz benötigen, anstatt des veralteten Konzepts von etwas, das nur wie ein Mensch klingen kann. Eines der von Ihnen vorgeschlagenen Beispiele für eine Maschine, die diesen Turing-Test bestehen könnte, oder etwas, das man zu ihr sagen könnte, ist: “Mach aus einer kleineren Summe eine Million Dollar.” Und sie wird es tun. Warum war das Ihr Maßstab?

Mustafa Suleyman: Meiner Meinung nach ist eine moderne Version des Turing-Tests eine, bei der man KI ein ziemlich abstraktes Ziel geben kann. Ich habe “Geh weg und produziere ein Produkt, lass es herstellen, vermarkte es und bewirb es und versuche dann, eine Million Dollar zu verdienen” gewählt. Ich denke, die erste Welle des Modernen Turing-Tests würde eine angemessene Menge menschlicher Intervention erfordern, vielleicht drei oder vier oder fünf Momente, in denen ein Mensch einen Vertrag abschließen, ein Bankkonto eröffnen oder alle Arten von rechtlichen und finanziellen Genehmigungen vornehmen müsste, die damit verbunden wären. Aber ich denke, die meisten anderen Elemente, wie das Versenden von E-Mails an Hersteller in China, das Dropshipping, der Versuch, das Marketing durch die Produktion neuer Marketinginhalte zu optimieren, all diese Dinge als einzelne Komponenten, sind wir fast da. Die Herausforderung wird darin bestehen, sie zu einer Sequenz von Aktionen zusammenzufügen, angesichts dieses breiten Ziels.

Lauren Goode: Das ist so interessant, weil ich anfangs dachte: “Oh, das ist nur ein Turing-Test, ob man KI in kurzer Zeit in einen Risikokapitalgeber verwandeln kann.” Aber ich verstehe, was Sie sagen, dass es diese Verbindung fehlt. Also, was hält Sie nachts wach?

Mustafa Suleyman: Ich denke, die größte Herausforderung des nächsten Jahrzehnts wird die Verbreitung von Macht sein, die Ungleichheit verstärken und die Polarisierung beschleunigen wird, weil es einfacher sein wird, Fehlinformationen zu verbreiten als je zuvor. Und ich denke, es wird unsere derzeit instabile Welt erschüttern.

Gideon Lichfield: Glauben Sie, dass KI einige Lösungen dafür hat, aber auch die Ursache einiger Probleme ist?

Mustafa Suleyman: Interessanterweise denke ich, dass die Technologieplattformen hier eine wichtige Rolle spielen werden, weil sie tatsächlich eine wichtige Funktion bei der Moderation des Webs haben. Ich denke, wir sollten uns viel mehr mit der Idee einer ständigen Echtzeitmoderation der Hauptplattformen und des Webs selbst vertraut machen. Ich denke, es wird sehr schwierig sein zu sagen, wer welchen Inhalt produziert hat, und ich denke, der einzige echte Weg, das zu kontrollieren, besteht darin, dass die Plattformen das zur Regel machen müssen.

Lauren Goode: Eine abschließende Frage an Sie. Nachdem Pi, Ihr persönlicher Assistent, damit fertig war, Sie zu loben, habe ich es gebeten, Ihnen schwierigere Fragen zu stellen, und eine der Dinge, die es gesagt hat, war: “Wenn Sie eine Sache wählen müssten, die Sie möchten, dass die Menschen heute aufhören zu tun, damit wir eine bessere Zukunft haben, was wäre das?”

Mustafa Suleyman: Ich denke, es wäre anzunehmen, dass die andere Person böse Absichten hat. Wir sehen uns gegenseitig nicht mehr an, und wir wählen fast unbewusst aus, sie nicht zu hören, weil wir ihre bösen Absichten bereits etikettiert haben. Ich denke, wenn wir einander einfach mit dem Versuch begegnen, uns wirklich in die Schuhe des anderen zu stellen – je mehr ich das tue, desto demütiger fühle ich mich dabei. Es ist eine schwierige Sache zu tun. Pi hat es definitiv geschafft, mir eine schwierige Frage zu stellen.

Lauren Goode: Wir sollten alle unsere eigenen Wege finden, um ein bisschen Feldarbeit zu leisten, ist das, was Sie sagen.

Mustafa Suleyman: Ja, man muss hingehen und eine andere Umgebung berühren, riechen, atmen und Teil davon sein, als man es gewohnt ist.

[Musik]

Gideon Lichfield: Das hat wirklich Spaß gemacht, Mustafa. Vielen Dank, dass du bei Have a Nice Future dabei warst.

Mustafa Suleyman: Vielen Dank. Es hat Spaß gemacht.

[Musik]

Lauren Goode: Gideon, ich bin so fasziniert von dem, was Mustafa antreibt. Er hat einen interessanten Hintergrund – er ist nicht der typische weiße Kerl, der die Stanford Universität abgebrochen hat, eine App gestartet hat und zum Technikfreak geworden ist. Er hat eine globale Perspektive. Er will offensichtlich eine Art Meinungsführer sein. Aber ich denke, es sagt auch etwas über unsere kapitalistische Gesellschaft und den unglaublichen Einfluss einiger unserer erfolgreichsten Kapitalisten aus, dass er den privaten Sektor als den Ort sieht, an dem er Dinge schaffen kann und Einfluss haben kann. Was hast du von ihm erfahren, was ihn antreibt?

Gideon Lichfield: Im Interview hat er gesagt, dass er gerne Dinge aufbaut und jeden Tag etwas verschickt. Er mag diese Motivation, die Dinge voranzutreiben. Und es scheint, als glaube er auch, dass man diese komplexen Probleme, was Technologie mit der Welt anstellen wird, nur lösen kann, indem man die Technologie selbst entwickelt. In seinem Buch sagt er, dass seine Erfahrungen in der Regierung und bei der Konfliktlösung ihn dazu inspiriert haben, sich heute Fragen darüber zu stellen, wie wir unsere Gesellschaften führen. Es ist schwer zu sagen, wie viel davon real ist und wie viel davon das Narrativ ist, das Menschen in seiner Position zwangsläufig aufbauen, aber da ist definitiv ein Verstand, der sich um diese Probleme sorgt und versucht, die richtigen Antworten zu finden.

Lauren Goode: Ich weiß, dass du dich durch das Buch gearbeitet hast, das Mustafa zusammen mit jemand anderem geschrieben hat. Was hältst du von dem Buch?

Gideon Lichfield: Also, ich fand das Buch sehr faszinierend, weil er die gleichen Fragen stellt, die mich gerade sehr interessieren und an denen ich auch nach meinem Ausscheiden bei ENBLE später in diesem Jahr weiterarbeiten werde. Es geht im Wesentlichen darum, wie wir unsere Gesellschaften im 21. Jahrhundert führen, wenn unsere Institutionen im 18. Jahrhundert entworfen wurden. Heutzutage bewegt sich die Technologie viel schneller, wir sind viel stärker vernetzt, alles ist viel größer und komplexer, und diese Institutionen, die wir vor Jahrhunderten geschaffen haben, sind für die Aufgabe nicht mehr wirklich geeignet. Seine Vorhersage, wie die heutige Technologie die Zukunft beeinflussen wird, hat bei mir einen Nerv getroffen, aber gleichzeitig auch einige Zweifel aufgeworfen. Ich bin mir nicht sicher, ob ich seinen Optimismus teile, wie mächtig KI-Modelle werden können. Er weiß offensichtlich mehr über KI als ich, also sollte ich ihm vielleicht glauben. Aber andererseits haben wir schon oft gesehen, wie Tech-Gründer sehr gewagte Vorhersagen über die Fähigkeiten der Technologie gemacht haben, die sich letztendlich als zu hoch gegriffen erwiesen haben.

Lauren Goode: Ich tendiere dazu, dir zuzustimmen, dass das exponentielle Tempo, mit dem KI sich weiterentwickeln wird, möglicherweise nicht unbedingt zutrifft. Aber ich fand seinen Punkt wichtig, dass dies die Zugangshürden zu diesen Werkzeugen für jeden senkt. Denn ich gebe zu, wir können manchmal etwas kurzsichtig sein, wir erleben Technologie durch unsere eigene Brille, unsere eigene Weltsicht, unsere eigenen Erfahrungen. Selbst wenn wir versuchen, eine breite Palette von Technologiethemen abzudecken, sehen wir immer noch nicht jeden Aspekt davon. Und ich fand interessant, was er zum Beispiel über die Fähigkeiten von nichtstaatlichen Akteuren gesagt hat, diese Werkzeuge zu nutzen und einzusetzen. Wenn die Einstiegshürde für die Initiierung und Durchführung von Konflikten gesenkt wird, dann ist das eine herausfordernde Frage, denn plötzlich geht es um potenzielle KI-Probleme, die viel größer sind als nur “Kann mein Chatbot mir Therapie bieten oder meinen Passantrag bearbeiten?”

Gideon Lichfield: Ja, ich denke, mein Skeptizismus rührt daher, dass ich mir anschaue, welche Auswirkungen Technologie in den letzten, sagen wir, zehn Jahren gehabt hat, und ich sehe sowohl mehr als auch weniger Auswirkungen, als man erwarten würde. Schauen wir uns den Arabischen Frühling an und sehen, wie effektiv soziale Medien Aufstände und den Sturz von Regierungen und populäre Bewegungen ermöglicht haben, aber 10 Jahre später sieht der Nahost immer noch ziemlich genauso aus wie vorher, weil im Grunde genommen die Autoritären die gleichen Techniken eingeholt haben, die von den Revolutionären verwendet wurden, und die grundlegenden Machtstrukturen und Wohlstandsstrukturen in der Region haben sich nicht wirklich verschoben. Es hat nicht die Idee des Nationalstaats ausgelöscht, es hat nicht die Idee von Grenzen ausgelöscht, es hat die Welt nicht in irgendeinem makroskopischen Sinne umgekrempelt. Und deshalb, wenn ich über Mustafas Vorhersagen nachdenke, dass nichtstaatliche Akteure generative KI nutzen werden, um in gewisser Weise die politische Struktur der Welt grundlegend zu verändern, kann ich mir vorstellen, wie es lokal passieren könnte, aber ich denke, wenn man sich das Ganze betrachtet, wird die Welt in 20 oder 30 Jahren nicht sehr anders aussehen als heute. Aber wer weiß, ich könnte immer noch falsch liegen.

Lauren Goode: Wirklich? Du glaubst nicht, dass sich die Welt seit dem Internet in wesentlicher Weise verändert hat?

Gideon Lichfield: Natürlich, ich denke, die Welt hat sich enorm verändert, und wenn man sich unser Alltagsleben ansieht, ist es unermesslich anders als vor dem Internet. Aber wenn ich herauszoome und das ganz große Bild betrachte, sehe ich immer noch eine Welt, in der eine Handvoll Länder die Politik dominieren, eine Handvoll reicher Menschen das Geschäft und die Gesellschaft beherrschen, und diese Ungleichheiten werden größer, nicht kleiner, trotz des sogenannten demokratisierenden Effekts der Technologie. Die Art und Weise, wie Menschen Macht und Einfluss handeln, ist immer noch grundsätzlich die gleiche. Vielleicht bin ich einfach zu zynisch, aber auf irgendeiner Ebene sehe ich die menschliche Gesellschaft ziemlich genauso, unabhängig davon, welche Technologie wir haben.

Lauren Goode: Ich bin auch froh, dass er seine Gedanken hinter dem neu konzipierten Turing-Test erklärt hat. [Lachen]

Gideon Lichfield: Weil du so warst: “Warum ist der Turing-Test ein Test dafür, wie gut ein Roboter Kapitalist sein kann?”

Lauren Goode: Ziemlich genau, ja. Ob ein Bot eine Million Dollar verdienen kann, schien mir eine wirklich absurde Interpretation des Turing-Tests zu sein, aber dann hat er erklärt, was er damit meinte, und im Moment scheint das tatsächlich eine der Lücken in der KI-Entwicklung zu sein. Selbst einige der ausgefeiltesten generativen KI-Tools haben diese Umsetzungslücke. Du kannst eine wirklich beeindruckende Brainstorming-Sitzung oder sogar eine Therapiesitzung mit einem Bot haben, aber sobald du sagst: “OK, erneuere meinen Pass für mich”, kann er das wahrscheinlich nicht tun. Alle Teile sind noch nicht miteinander verbunden. Und deshalb hat er wahrscheinlich die Idee verwendet, ob er Geld investieren und für dich Geld verdienen kann, während du schläfst, um festzustellen, ob das tatsächlich funktioniert.

Gideon Lichfield: Ja. Und eine Frage, die ich mir stelle, ist, wie viele dieser Barrieren einfach mit der Leistungsfähigkeit der Modelle zusammenhängen? Du machst sie leistungsfähiger und irgendwann finden sie heraus, wie man alle Dinge macht. Und wie viel davon sind einfach lächerlich banale Probleme, die der Computer nicht lösen kann, weil du immer noch einen Menschen brauchst, der ihn mit den richtigen APIs verbindet oder ihm den Zugriff auf die richtigen Daten ermöglicht? Auf derselben Konferenz, auf der ich Mustafa auf der Bühne interviewt habe, traf ich jemanden, der mit einem rudimentären KI-Agenten experimentierte. Was es war, war im Grunde ein großes Sprachmodell, das an einige APIs und Webdienste angebunden war. Und er hatte es verwendet, um die Liste der Konferenzteilnehmer, die Tausende umfasste, zu durchsuchen und ihm 100 Personen zu empfehlen, mit denen er sich verbinden sollte. Und das schien mir ein wirklich, wirklich nützlicher Anwendungsfall für KI zu sein, wenn man es zum Laufen bringen könnte. Und ich konnte sehen, dass es möglicherweise scheitern könnte, erstens musste er das Ding bauen, das es ihm ermöglichte, die Daten von der Konferenzwebsite abzurufen, es konnte nicht selbst herausfinden, wie man das macht. Und so muss oft ein Mensch diese Verbindungen zwischen verschiedenen digitalen Diensten herstellen, damit sie tatsächlich zusammen funktionieren können. Aber dann war da noch die Frage, wie gut kennt dich deine KI? Und wie gut wird sie in der Lage sein, Empfehlungen für dich zu machen, mit wem du auf der Konferenz sprechen solltest? Und der Unterschied zwischen Empfehlungen, die nur so la la sind, und solchen, die wirklich sehr gut sind, könnte von einer riesigen Menge an Wissen über dich und Daten über dich abhängen, die du ihr möglicherweise nicht geben kannst, weil diese Daten möglicherweise nicht in einer Form vorliegen, die sie verwerten kann. Ich denke, es sind diese Art von sehr spezifischen Anwendungen, in denen wir anfangen werden, herauszufinden, wie mächtig KI ist oder wie viel mehr es brauchen wird, um nützlich zu sein. Und ich glaube wirklich, dass wir noch keine gute Vorstellung davon haben, wie schwierig das sein wird.

Lauren Goode: Und am Ende des Tages müsstest du immer noch all diese Meetings machen. Du, Gideon.

Gideon Lichfield: Ja, ich müsste immer noch all diese Meetings machen. Ich glaube, der nächste Schritt besteht darin, eine KI zu entwickeln, die die Meetings für mich übernimmt und die Ergebnisse in mein Gehirn herunterlädt. Und das ist etwas, was wir in absehbarer Zeit nicht sehen werden.

[Musik]

Lauren Goode: Das ist unsere Show für heute. Vielen Dank fürs Zuhören. Ihr könnt Mustafas Buch “The Coming Wave: Technology, Power, and the 21st Century’s Greatest Dilemma” lesen, wenn es am 5. September in den Buchhandlungen erhältlich ist.

Gideon Lichfield: Have a Nice Future wird von mir, Gideon Lichfield, moderiert.

Lauren Goode: Und von mir, Lauren Goode. Wenn Ihnen die Show gefällt, lassen Sie es uns wissen, hinterlassen Sie uns eine Bewertung und eine Rezension, wo auch immer Sie Ihre Podcasts erhalten. Wir lieben es, Ihre Kommentare zu lesen. Und vergessen Sie nicht, sich zu abonnieren, damit Sie jede Woche neue Folgen erhalten können.

Gideon Lichfield: Sie können uns auch per E-Mail unter [email protected] erreichen.

Lauren Goode: Have a Nice Future ist eine Produktion von Condé Nast Entertainment. Danielle Hewitt von Prologue Projects produziert die Show. Unsere Assistentin ist Arlene Arevalo.

Gideon Lichfield: Und wir werden nächste Woche wieder hier sein. Bis dahin, haben Sie eine schöne Zukunft.


Wenn Sie etwas über Links in unseren Geschichten kaufen, können wir eine Provision verdienen. Dies unterstützt unseren Journalismus. Erfahren Sie mehr.