Forschende warnen immer wieder vor einer Verselbstständigung von Künstlicher Intelligenz. Doch große KI-Sprachmodelle können kein Eigenleben entwickelt. Das geht aus einer aktuellen Studie hervor.
Die Entwicklungen im Bereich Künstliche Intelligenz haben vor allem seit der Veröffentlichung von ChatGPT enorm an Fahrt aufgenommen. Doch der Boom ruft auch regelmäßig Kritiker:innen auf den Plan, die davor warnen, dass sich KI-System irgendwann verselbstständigen könnten.
Das ist jedoch nicht möglich, wie eine neue Untersuchung der Technischen Universität Darmstadt und der University of Bath zeigt. Demnach sind ChatGPT und Co. nicht dazu in der Lage, selbstständig und komplex zu denken.
KI-Sprachmodelle können kein Eigenleben entwickeln
Für ihre Untersuchung haben die Forschenden mit 20 KI-Sprachmodellen experimentiert. Dabei wurden die vier Modell-Familien GPT, LLama, T5 und Falcon 2 untersucht.
Im Mittelpunkt standen die sogenannten emergenten Fähigkeiten von KI-Modellen – also unvorhergesehene und plötzliche Leistungssprünge der Sprachmodelle.
Dabei kamen die Forschenden allerdings zu dem Schluss, dass die sogenannten Large Language Models (LLMs) nicht dazu neigen, ein allgemeines „intelligentes“ Verhalten zu entwickeln. Daher ist es ihnen auch nicht möglich, planvoll oder intuitiv vorzugehen oder gar komplex zu denken.
Emergente Fähigkeiten im Fokus
Nach der Einführung von Sprachmodellen stellten Forscher:innen zunächst fest, dass diese mit zunehmender Größe auch leistungsfähiger wurden. Das lag unter anderem auch an der Menge der Daten, mit denen sie trainiert wurden.
Je mehr Daten für das Training zur Verfügung standen, desto größer wurde auch die Anzahl der sprachbasierten Aufgaben, die die Modelle lösen konnten. Forscher:innen hofften deshalb, dass die Modelle immer besser werden, je mehr Daten in ihr Training fließen.
Kritiker:innen warnten jedoch auch vor den Risiken durch die so entstehenden Fähigkeiten. So wurde beispielsweise angenommen, dass sich die KI-Sprachmodelle verselbstständigen und so auch der menschlichen Kontrolle entziehen könnten.
Doch dafür gibt es laut den Forschungsergebnissen keine Beweise. Demnach sein ein differenziertes Denkvermögen bei den KI-Sprachmodellen unwahrscheinlich.
Stattdessen erlangten die LLMs die oberflächliche Fertigkeit, relativ einfachen Anweisungen zu folgen, wie die Forschenden zeigten. Von dem, was Menschen können, seien die Systeme noch weit entfernt.
„Unsere Ergebnisse bedeuten jedoch nicht, dass KI überhaupt keine Bedrohung darstellt“, erklärt Studienautorin Iryna Gurevych von der TU Darmstadt. „Wir zeigen vielmehr, dass die angebliche Entstehung komplexer Denkfähigkeiten, die mit bestimmten Bedrohungen verbunden sind, nicht durch Beweise gestützt wird und dass wir den Lernprozess von LLMs doch gut steuern können.“
Gurevych empfiehlt daher, nachfolgende Forschungsprojekte auf die Risiken der KI-Nutzung zu fokussieren. Dabei hätten KI-Sprachmdelle zum Beispiel großes Potenzial, um zur Generierung von Fake News genutzt zu werden.
Auch interessant:
- Selbstheilendes Stromnetz: Künstliche Intelligenz soll Blackouts vermeiden
- Studie zeigt: Google drosselt seine KI-Suchergebnisse
- Sex und Hausaufgaben: Über diese 7 Dinge sprechen wir mit Chatbots
- Facebook bezahlte Nutzer für KI-Spam – über Bonus-Programm
Der Beitrag Studie offenbart: KI-Sprachmodelle können kein Eigenleben entwickeln von Maria Gramsch erschien zuerst auf BASIC thinking. Folge uns auch auf Facebook, Twitter und Instagram.
Title: Studie offenbart: KI-Sprachmodelle können kein Eigenleben entwickeln
URL: https://www.basicthinking.de/blog/2024/08/14/ki-sprachmodelle-kein-eigenleben/
Source: BASIC thinking
Source URL: https://www.basicthinking.de/blog
Date: August 14, 2024 at 07:07PM
Feedly Board(s): Technologie