Künstliche Intelligenz: Was kommt nach ChatGPT?

Seit Jahrzehnten gibt es Pläne, Versprechungen und Ankündigungen. Das Ziel ist eine Maschine, die denken kann wie ein Mensch – oder besser. Seit Ende 2022 scheint die technische Entwicklung sich drastisch beschleunigt zu haben. Nun scheint eine AGI, eine Allgemeine Künstliche Intelligenz, in greifbarer Nähe. In der aktuellen Ausgabe versucht MIT Technology Review eine Bestandsaufnahme der Entwicklung.

Anzeige

Was genau eine AGI allerdings sein soll, ist nicht einmal klar definiert. Als die KI-Forscher Shane Legg und Ben Goertzel den Begriff AGI Anfang der 2000er-Jahre populär machten, schrieben sie etwas unbestimmt von einer KI, die in der Lage sein müsse, "eine Reihe von kognitiven Aufgaben zu bewältigen, die Menschen lösen können". Was für Menschen und was für Aufgaben sie meinten, erklärten sie nicht weiter. Goertzel verkauft seine esoterisch angehauchten Zukunftsvisionen heute auf der Veranstaltungsplattform Singularity.net. Shane Legg hat DeepMind mitbegründet und arbeitet heute als "Chief AGI Scientist" der Google-Tochter. Gemeinsam mit sieben seiner Kolleginnen und Kollegen veröffentlichte er im November 2023 ein Paper, das die scheinbar endlose Debatte um Definitionen und Kriterien voranbringen sollte. Darin listen Legg und sein Team neun verschiedene Definitionen des Begriffes auf.

Ist die AGI schon da oder noch nicht?

Sicher scheint im Moment nur eines: Die Community ist sich einig, nicht einig zu sein. Blaise Agüera y Arcas von Google Research und Peter Norvig von der Stanford University beispielsweise haben in einem Aufsatz für die Zeitschrift Noema bereits 2023 geschrieben, dass AGI "bereits da ist". Denn große Sprachmodelle könnten eine Vielzahl unterschiedlicher Aufgaben lösen sowie aus dem Kontext heraus und mit wenigen Beispielen neue Fähigkeiten lernen könnten. Beides setze menschenähnliche Intelligenz voraus.

Glaubt man KI-Kritikern wie dem Kognitionsforscher Gary Marcus oder der Computerlinguistin Emily Bender, sind große Sprachmodelle dagegen dumm wie geschnitten Brot. Sie funktionieren rein statistisch und verstehen kein Stück von der Sprache, die sie bearbeiten. Von internen Weltmodellen keine Spur.

Die KI-Expertin und Komplexitätsforscherin Melanie Mitchell vom Santa Fe Institute hingegen argumentiert, das könne man nicht wissen. Es gäbe zumindest "etwas Verständnis" in diesen Modellen – "in gewissen Rahmen" könnten sie vorhandenes Wissen auf neue Situationen anwenden, "in anderen Fällen jedoch nicht". Da wir schlicht nicht genügend über die innere Funktion der Modelle wüssten, ließe sich die Frage zurzeit kaum sinnvoll beantworten.

Nach dem Rätselraten um OpenAIs möglichem Durchbruch auf dem Gebiet der Allgemeinen Künstlichen Intelligenz ist es an der Zeit ist, sich mit den möglichen Folgen auseinanderzusetzen: Was bedeutet es, wenn wir es eines Tages mit einer menschenähnlichen Künstlichen Intelligenz zu tun bekommen? Highlights aus dem Heft:

Politische Agenda

Und Timnit Gebru, eine der profiliertesten Kritikerinnen der KI-Pläne der großen Silicon-Valley-Konzerne, vermutet hinter dem Vorhaben keine technische, sondern eine politische Agenda: Gemeinsam mit anderen Autoren wie Émile P. Torres zieht Gebru eine historische Linie von den amerikanischen Eugenikern über die Transhumanisten zu den führenden Köpfen von OpenAI, in der es nie um die Zukunft und das Wohl der gesamten Menschheit ging, sondern darum, alles Unnütze und Überflüssige auszusortieren.

Was aktuellen KI-Systemen zweifelsfrei noch fehlt, darin sind sich fast alle Experten einig, ist die Fähigkeit, selbstständig dazuzulernen. Dazu gibt es allerdings ziemlich spannende Forschung.

Der isländische KI-Forscher Kristinn Thórisson, der seit 30 Jahren zum Thema AGI forscht, will KI-Agenten entwickeln, die vollständig autonom vorgehen – nur mit grundlegendem Wissen über das Lernen an sich starten und dann im Lauf der Zeit ihre eigene Programmierung ändern. Sein Vorbild: das Lernen eines Kindes. Bereits 2008 entwickelte Thórisson gemeinsam mit seinem Team einen Demonstrator für diese Fähigkeiten: die Autocatalytic Endogenous Reflective Architecture (AERA).

Das "ist eine kognitive Architektur – und eine Blaupause – für die Konstruktion von Agenten mit einem hohen Maß an operativer Autonomie", schreibt er. Sie gehe von "einer kleinen Menge an vom Designer spezifiziertem Code – einem Seed" aus, und verändere dann ihre eigene Programmierung. Mit frischen Forschungsgeldern will er das Modell nun weiterentwickeln.

Autonome Agenten entwickeln unbekannte Rezepte

Pierre-Yves Oudeyer von der Universität Bordeaux nennt solche "Developmental AIs", die "kontinuierlich und selbst motiviert" lernen, "autotelisch" – sich selbst einen Sinn gebend. Sein Ziel sind allerdings keine AGIs – Oudeyer und sein Team interessieren sich mehr für die Modellierung des Lernens. Die Forscher koppelten autotelische Software-Agenten mit großen Sprachmodellen: Das Team ließ Software-Agenten, die selbstständig ihre Umgebung erkunden können, auf eine virtuelle Küche los, in der sich neben einigen Lebensmitteln, Möbeln und Werkzeugen auch ein virtuelles Kochbuch mit einigen kurzen Rezepten befand. Tatsächlich konnten die mit einem großen Sprachmodell gekoppelten Agenten einige neue, bisher für sie unbekannte Rezepte entwickeln, indem sie das im Lauf der Zeit Gelernte miteinander kombinierten und neu anordneten. Allerdings, beklagen die Forscher, sei die Nutzung kommerzieller großer Sprachmodelle im Moment viel zu teuer, und die Modelle seien zu intransparent, um im großen Stil zu experimentieren.

"Um Vorhersagen über etwas zu treffen, das noch nie gesehen wurde und möglicherweise gar nicht existiert, ob es sich nun um außerirdisches Leben oder um superintelligente Maschinen handelt, sind Theorien erforderlich, die auf allgemeinen Grundsätzen beruhen", schreibt Melanie Mitchell in einem aktuellen Gastbeitrag für Science. "Letztendlich werden die Bedeutung und die Folgen der ‚AGI‘ nicht durch Debatten in den Medien, Gerichtsverfahren oder unsere Intuitionen und Spekulationen geklärt, sondern durch die langfristige wissenschaftliche Erforschung dieser Prinzipien."

Hier MIT Technology Review lesen:

(wst)


Title: Künstliche Intelligenz: Was kommt nach ChatGPT?
URL: https://www.heise.de/news/Kuenstliche-Intelligenz-Was-kommt-nach-ChatGPT-9668301.html?wt_mc=rss.red.tr.tr.atom.beitrag.beitrag
Source: Technology Review
Source URL: https://www.heise.de/tr/
Date: March 28, 2024 at 07:12AM
Feedly Board(s): Technologie