Studie offenbart: KI lernt von KI – und wird immer schlechter

KI lernt von KI, Roboter, Künstliche Intelligenz

Für ihre Weiterentwicklung benötigt Künstliche Intelligenz intensives Training. Doch was passiert, wenn KI von KI lernt? Laut einer neuen Studie wirkt sich das negativ aus, denn die KI-Systeme werden dadurch immer schlechter.

Ein KI-System benötigt für sein Training Unmengen an Daten. Doch was passiert, wenn diese Daten selbst KI-generiert sind? Mit dieser Frage haben sich Forschende der Rice University im texanischen Houston und der Stanford University beschäftigt.

Sie sind in ihrer Studie „Self-Consuming Generative Models Go MAD“ zu dem Schluss gekommen, dass KI-Systeme schlechter werden, wenn KI-generierte Bilder für ihre Training eingesetzt werden.

Was passiert, wenn KI von KI lernt?

Die Forschenden haben sich für ihre Untersuchung auf Bildgeneratoren wie DALL·E 3 von OpenAI sowie Midjourney und Stable Diffusion konzentriert.

Die rasanten Fortschritte bei generativen KI-Algorithmen für Bilder, Texte und andere Datentypen haben dazu geführt, dass die Versuchung groß ist, synthetische Daten zum Trainieren von Modellen der nächsten Generation zu verwenden.

Fließen wiederholt KI-generierte Daten in das Training neuer KI-Generationen ein, entsteht laut den Forschende eine autophage – „sich selbst verzehrende“ – Schleife. In ihrem Test haben sie die verschiedenen KI-Modelle solchen autophagen Schleifen ausgesetzt.

Im Ergebnis litten dabei sowohl Qualität als auch Vielfalt. Beide Merkmale verringerten sich progressiv. Die Forschenden bezeichnen diesen Zustand als Model Autophagy Disorder (MAD) in Anlehnung an den Rinderwahnsinn.

Künstliche Intelligenz generiert schraffierte Gesichter

Für ihre Untersuchung haben die Forschenden KI-Modelle mit verschiedenen Daten trainiert. Dabei griffen sie in jeder neuen Stufe stärker auf die bereits durch KI erzeugten Bilder zurück.

Diese wiesen bereits in Stufe drei eine vollständige synthetische Schleife auf, wodurch sich in den Bildern kreuzschraffierten Artefakte zeigten. In jeder weiteren Generation nahmen diese Artefakte zu. Die Forschenden vermuten hier möglicherweise einen architektonischen Fingerabdruck.

Je weniger echte Daten die KI-Modelle also erhalten haben, desto eher waren die erzeugten Bilder verzerrt. Doch nicht nur die Kreuzschraffierungen traten dabei auf.

Auch entstanden so Datensätze, bei denen die Personen in den Ergebnissen sich immer stärker ähnelten. Am Ende sahen diese teilweise aus, als wären sie ein und dieselbe Person.

KI könnte sich selbst zerstören

Laut Studien-Autor Richard Baraniuk, Professor an der Rice University, könnte dies ernsthafte Folgen für die Entwicklung von Künstlicher Intelligenz haben. KI-Systeme könnten sich bereits schon nach wenigen Generationen durch KI-basiertes Training in einer Feedbackschleife befinden.

So könnten die Modelle „irreparabel beschädigt werden“. Das wiederum würde nach nur kurzer Zeit zum Modellkollaps der Systeme führen.

Auch interessant:

Der Beitrag Studie offenbart: KI lernt von KI – und wird immer schlechter von Maria Gramsch erschien zuerst auf BASIC thinking. Folge uns auch auf Facebook, Twitter und Instagram.


Title: Studie offenbart: KI lernt von KI – und wird immer schlechter
URL: https://www.basicthinking.de/blog/2024/08/08/studie-ki-lernt-von-ki/
Source: BASIC thinking
Source URL: https://www.basicthinking.de/blog
Date: August 8, 2024 at 05:47AM
Feedly Board(s): Technologie