Generative KI: OpenAI & Co. unterzeichnen Regelwerk für Ethik und Transparenz

Generative KI: OpenAI & Co. unterzeichnen Regelwerk für Ethik und Transparenz

https://ift.tt/2EzFcm9


Zehn bekannte IT-Unternehmen, Dienstleister und Medienanbieter haben sich auf neue Richtlinien geeinigt, wie KI-generierte Inhalte künftig verantwortungsvoll entwickelt, erstellt und verbreitet werden könnten. Unterzeichnet haben unter anderem der ChatGPT-Macher OpenAI, der chinesische Videoservice TikTok, der britische Sender BBC und die Dating-App Bumble.

Die Empfehlungen der sogenannten „Partnership on AI“ (PAI) fordern sowohl die Entwickler der Technologie (wie etwa OpenAI) als auch die Anbieter digital erzeugter Medien (wie BBC oder TikTok) dazu auf, transparenter zu machen, was die Technik tatsächlich kann und was nicht. Außerdem soll offengelegt werden, wenn Menschen mit KI-Inhalten interagieren.

Die freiwilligen Empfehlungen wurden von der PAI, einer gemeinnützigen KI-Forschungsorganisation, in Absprache mit über 50 Organisationen weltweit erarbeitet. Zu den Beteiligten gehören große Technologieunternehmen sowie universitäre Organisationen, zivilgesellschaftliche Gruppen und Medienorganisationen. Die ersten zehn Unternehmen, die die Regelungen für sich umsetzen wollen, sind Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, Witness (eine Organisation, die Menschenrechtsverletzungen dokumentiert) und die Start-ups Synthesia, D-ID und Respeecher.

„Wir wollen sicherstellen, dass synthetische Medien nicht eingesetzt werden, um den Menschen zu schaden, sie zu entmachten oder zu entrechten, sondern um Kreativität, Wissensaustausch und Kommentare zu fördern“, sagt Claire Leibowicz, PAI-Leiterin für KI und Medienintegrität.

Eines der wichtigsten Elemente der nun erarbeiteten Richtlinien ist die Zusage der Unternehmen, Wege zu finden, wie Nutzer darauf hingewiesen werden können, wenn sie mit etwas interagieren, das von KI-Systemen generiert wurde. Dies könnten Wasserzeichen oder vertragliche Regelungen sein – oder auch für den Menschen nachvollziehbare Elemente in den Trainings- oder Metadaten eines KI-Modells.

Gesetzliche Regelungen zur Eindämmung potenzieller Schäden im Zusammenhang mit generativer KI hinken der Technik noch hinterher. Die Europäische Union zum Beispiel versucht, generative KI in ihr bevorstehendes KI-Gesetz, den AI Act, aufzunehmen, das Elemente wie die Offenlegung der Interaktion von Menschen mit Deepfakes und die Verpflichtung von Unternehmen zur Erfüllung bestimmter Transparenzanforderungen enthalten könnte. Zuletzt befürchteten Kommentatoren, dass Dienste wie ChatGPT dadurch erschwert oder verboten werden könnten.

Generative KI sei im Moment noch der wilde Westen, sagt Branchenexperte Henry Ajder, der an den PAI-Regeln mitgearbeitet hat. Er hoffe, dass sie den Unternehmen wichtige Impulse geben, auf die sie bei der Integration der Technik in ihr Geschäft achten müssen.

Es sei wichtig, das Bewusstsein zu schärfen und das Gespräch über verantwortungsvolle Denkansätze bei solchen synthetischen Medien zu beginnen, meint auch Hany Farid, Professor an der University of California, Berkeley, der sich unter anderem mit Deepfakes beschäftigt. Doch „freiwillige Richtlinien und Prinzipien funktionieren selten“, kritisiert er.

Während Unternehmen wie OpenAI versuchen, die von ihnen entwickelten Systeme wie den Textgenerator ChatGPT oder den Bildgenerator DALL-E mit eigenen „Leitplanken“ zu versehen, könnten andere Akteure, die nicht Teil des Pakts sind, tun und lassen, was sie wollen. Schon jetzt lassen Konkurrenten wie Stability.AI – das Start-up, welches das quelloffene KI-Modell Stable Diffusion entwickelt hat – problematischere Inhalte durch.

„Wenn wir diese Probleme wirklich angehen wollen, müssen wir ernst machen“, sagt Farid. Er fordert zum Beispiel, dass Cloud-Service-Anbieter und App-Stores wie die von Amazon, Microsoft, Google und Apple, die alle bereits Teil der PAI sind, von sich aus Dienste verbieten, die es Menschen ermöglichen, problematische Inhalte zu erstellen. Damit meint er etwa Deepfake-Technik, die sexualisierte Bilder Fremder ohne Einwilligung erstellt. Wasserzeichen auf alle KI-generierte Inhalten sollten ebenfalls obligatorisch und nicht nur freiwillig sein, sagt er.

Ein weiterer wichtiger Punkt, der bislang fehle, sei die Frage, wie die KI-Systeme selbst verantwortungsbewusster gestaltet werden können, meint Ilke Demir, leitende Forscherin bei Intel, die die Arbeit des Unternehmens an der verantwortungsvollen Entwicklung generativer KI leitet.

Ihre Beispiele sind breit: Dazu könnten mehr Details darüber gehören, wie das KI-Modell trainiert wurde, welche Daten in das Modell eingeflossen sind und ob generative KI-Modelle irgendwelche Verzerrungen aufweisen.

In den Leitlinien wird nicht erwähnt, wie sichergestellt werden kann, dass der Datensatz generativer KI-Modelle keine toxischen Inhalte enthält. „Das ist eine der zentralen Möglichkeiten, wie diese Systeme Schaden anrichten können“, sagt Daniel Leufer, politischer Analyst bei der Digital-Rights-Gruppe Access Now.

Die Richtlinien enthalten immerhin eine Liste von schädlichen Bereichen, die die Unterzeichner über ihre KI-Systeme verhindern wollen, wie z. B. Betrug, Belästigung und Desinformation. Aber ein generatives KI-Modell, das stets Menschen weißer Hautfarbe erschafft, richte ebenfalls Schaden an, und das sei derzeit nicht aufgeführt, fügt Demir hinzu.

Farid wirft zudem ein grundsätzliches Problem auf. Die an PAI beteiligten Unternehmen erkennen zwar an, dass die Technik schwerwiegenden Schäden anrichten könnte. Diese wolle man abmildern. Doch eines werde nicht bedacht: „Warum stellen sie nicht die Frage, ob wir das alles überhaupt tun sollten?“

(jle)

Technologie

via Technology Review https://ift.tt/8bSuit6

February 28, 2023 at 02:26PM