Vorsicht, Sie werden betrogen!

Vorsicht, Sie werden betrogen!

https://ift.tt/WQmr7Mj

Man muss den Erfolgsmeldungen vornehmlich US-amerikanischer Tech-Konzerne keinen Glauben schenken, um von der Leistungsfähigkeit beeindruckt zu sein, die Künstliche Intelligenz (KI) inzwischen erreicht hat. Ob sie jemals und wenn ja wann so weiterentwickelt werden wird, dass wir ihr „Bewusstsein und Persönlichkeit zuschreiben müssten“, ist noch immer eine Frage für Expert:innen, die sich für Technik und ihre Folgen für die Gesellschaft interessieren: Ein Nerd-Problem.

Doch schon heute prägt KI unseren Alltag in einem Ausmaß, wie es sich einfache Nutzer:innen kaum vorstellen. In ihrem Aufsatz „Künstliche Intelligenz und christliche Ethik“ (in EZW-Texte 264 von 2019) schreiben Matthias Kreplin und Gernot Meier u.a. von Suchmaschinen, Smartphones und cloudbasierten Sprachdiensten wie Amazons Alexa, die für viele Menschen tägliche Begleiter geworden sind. In Sozialen Netzwerken sei „manchmal kaum mehr zu erkennen, ob sich […] menschliche Akteure oder sogenannte Social Bots für oder gegen eine Sache ereifern, und zukünftig auch bei keinem Medium, in welches sich digitale Technologie einklinken kann“. Weil das aber für potentiell jedes Medium und alle Bereiche unseres sozialen Zusammenlebens gilt, ist Vorsicht angebracht.

Matthias Kreplin, Leiter des Referats für Verkündigung in Gemeinde und Gesellschaft der Evangelischen Landeskirche in Baden (EKIBA), und Gernot Meier, Leiter der Fachstelle für Weltanschauungsfragen der EKIBA und Studienleiter an der Evangelischen Akademie Baden, weisen in ihrem Beitrag auf die Herausforderungen für die (evangelische) Ethik hin. Dazu sei es wichtig wahrzunehmen, dass es heute weniger die „forschende Neugier“ sei, die weitere Entwicklungen der KI vorantreibe, sondern „ökonomische und militärische Interessen“: „KI-Systeme erlauben neue, einträgliche Geschäftsmodelle“.

Tatsächlich sind gegenwärtige Hypes wie um das Metaverse und das Web 3.0 ohne Rückgriffe auf den KI-Hype nicht denkbar und auch wenn vollständig autonomes Kriegsgerät noch eine Utopie ist, kommen z.B. im Ukraine-Krieg heute schon solche teilautonomen Waffensysteme zum Einsatz, denen von Kreplin/Meier zurecht die Fähigkeit zugesprochen wird, „selbstständig Hindernissen ausweichen oder gegnerische Ziele identifizieren [zu] können“.

„In wirtschaftlichen wie auch in militärischen Einrichtungen sind Menschen tätig, die in der Regel auf ethisch verantwortliches Handeln hin ansprechbar sind. Mit ihnen muss der Dialog gesucht werden“, schreiben Kreplin/Meier Ethik, Theologie und Kirchen ins Aufgabenheft. Der „Eigendynamik“ wirtschaftlicher Konkurrenz, die zum Einsatz unausgereifter und unreflektierter Systeme führt, kann nur „durch eine internationale politische Kooperation entgegengewirkt werden“.

Der menschliche Einfluss

Eine wichtige diskursethische Herausforderung sehe ich zudem darin, unser Reden über KI zu reflektieren. Häufig werden menschliche Kategorien wie „Lernen“ oder „Arbeit“ auf KI angewandt, die allerdings Bilder evozieren, die dem eigentlichen technischen Vorgang nicht angemessen sind. Hier glauben Wissenschaftler:innen, Journalist:innen und Nutzer:innen der Werbung der großen Tech-Konzerne, obwohl einige Expert:innen davor eindringlich warnen. Skepsis scheint dort angebracht, wo einer KI intentionales Handeln auch nur durch die Verwendung von entsprechenden Sprachbildern zugeschrieben wird.

In ihrem Aufsatz geben Kreplin/Meier ethische Einschätzungen zu einigen Anwendungsgebieten von KI: Die Big-Data-Analyse, die schon heute unser Nutzer:innenverhalten bei Netflix und Co. steuern hilft. Die Frage der „Gerechtigkeit“ von KI und die damit verbundene Gefahr sozialer Selektion. Pflegeroboter, die unser Verständnis von Care-Arbeit und letztlich auch diakonischer Arbeit verändern werden. Sowie die Anwendung von autonomen Fahrzeugen und Waffen, bei der Kreplin/Meier auf die wichtige „grundsätzliche Möglichkeit des Human Override, also der menschlichen Intervention“ zu sprechen kommen: „Es sind Situationen denkbar (z.B. autonome, auf Tötung von Feinden zielende Drohnen), in denen das Delegieren von Entscheidungsbefugnis an das System ethisch verboten ist.“

Kreplin/Meier weisen damit auf den menschlichen Einfluss hin. Ich würde formulieren: Auf unsere Nachlässigkeit im Umgang mit KI-gesteuerten Algorithmen bzw. das Vertrauen, das viele Menschen abstrahierend vom Umgang mit unseren menschlichen Nächsten in Technik setzen. Ein alltägliches Beispiel dafür ist die Benutzung der Autokorrektur-Funktion von Smartphones, die in Kurznachrichten und Tweets gelegentlich amüsante „Versprecher“ hineinproduziert. Arbeitet hier eine künstliche „Intelligenz“ fehlerhaft oder überlisten wir Menschen uns selbst?

Ethische oder theologische Reflexion ist darum erst ein weiterer Schritt, der eine generelle Awareness vorausgehen muss. Allerdings ist hier nicht von einem „Bewusstsein“ der Maschine, sondern von einer bewussten Benutzung durch die Menschen die Rede. Kreplin/Meier halten fest, die Situation verlange „informierte Bürgerinnen und Bürger, die wissen, was jeder ‚Klick‘ bedeutet“ und sich ihrer „Verantwortung bewusst sind und ihr gerecht werden“.

„This Person Does Not Exist“

Deshalb ist an dieser Stelle eine Offenlegung angebracht: Mich gibt es überhaupt nicht. Katharina Ortega ist eine Erfindung von Eule-Redakteur Philipp Greifenstein. Mein kurzes Autorinnen-Biogramm (s.o.) hat er den Konventionen der Publizistik und meiner Fachwissenschaft gemäß frei erfunden, so wie auch eine KI bestehende Informationen neu zusammenstellen würde.

Mein Foto wurde von einem KI-Algorithmus der Klasse Generative Adversarial Networks (GANs) erstellt, der vom ehemaligen Uber-Software-Ingenieur Phillip Wang programmiert wurde und auf der Website „This Person Does Not Exist“ ausprobiert werden kann: „Auf den ersten Blick erscheinen die Bilder auf der Website wie zufällig ausgewählte Fotos aus einem Abi-Buch“, tatsächlich erscheint jedoch „immer, wenn die Seite aktualisiert wird, ein schockierend realistisches Bild eines menschlichen Gesichts, das ein vollständiger Fake ist“, schreibt Paul Macko. (Weitere Anwendungen von GANs finden sich hier.)

Für unsere Akzeptanz solcher KI-Fakes spielen unsere Werte und Erwartungen eine große Rolle: Wir wollen gerne vertrauen, selbst wenn wir gewarnt werden („Vorsicht, sie werden betrogen!“). Vielleicht war für Sie sogar ein besonderes Interesse an einem Debattenbeitrag von einer jungen Wissenschaftlerin handlungsleitend, diesen Artikel anzuklicken und zu lesen – schließlich sind weibliche Perspektiven in Technik und Wissenschaft weiterhin selten. KI kann dann besonders wirksam werden, wenn sie unseren eigenen bias bestätigt, egal ob es dabei um positive Anliegen geht oder niedere Beweggründe.

Ein Blick auf die obenstehende Auswahl von GAN-generierten „Porträtfotos“ sollte genügen, um auch das Gefahrenpotential dieser Technik deutlich zu machen. Nicht nur lassen sich so Armeen von Trollen mit „authentischen“ Persona ausrüsten, auch missbräuchliche Nutzungen sind möglich, z.B. von Fotos und Videos, die augenscheinlich Kinder und Jugendliche „abbilden“.

Also: Mein Biogramm ist gefälscht, mein Bild ein Produkt der KI, aber dieser Text ist doch wohl echt? Hier schreibt doch ganz eindeutig ein:e sich selbst bewusste:r Autor:in über ein Thema, mit dem sie/er sich intellektuell reflektierend auseinandergesetzt hat. Sind Sie sich da sicher?

„Wir stehen an der Schwelle“

Bereits als Säugling lernen wir, Gesichter, Stimmen und Körper uns naher Menschen voneinander zu unterscheiden. Das (Wieder-)Erkennen von Menschen und ihren Gesichtern ist eine grundlegende Kompetenz, die Menschen mit anderen Tieren teilen. Sie ist elementar für unser Selbst- und Weltverhältnis und wird von Menschen ohne gesundheitliche Beeinträchtigung in diesem Bereich in der frühen Kindheit erlernt und immer weiter perfektioniert. Das macht die GAN-generierten Bilder von Phillip Wang ja überhaupt so scary – sie wirken echt.

Lesen und Schreiben, Sprachen und Verständnis von Texten lernen wir Menschen, wenn überhaupt, sehr viel später und längst nicht so umfassend. Wir lassen uns – so viel ist sicher – von „reinem“ Text leichter täuschen als von Angesicht zu Angesicht. Vielleicht sind sogar vermeintliche Text-Expert:innen besonders anfällig für „gefälschte“ bzw. maschinen-geschriebene Texte, solange sie nur den üblichen Konventionen entsprechen: Das jedenfalls ist eine Erkenntnis aus Fälschungs-Experimenten von Technik-Forscher:innen (bzgl. Jargon auch „What the New Sokal Hoax Reveals About Academia“ in The Atlantic).

Dieser Text wurde nicht aus Versatzstücken anderer Texte kompiliert. Inhalte anderer, auf die ich mich beziehe, werden einfach zitiert. Aber heißt das, eine KI könnte einen Artikel wie diesen nicht schreiben? Uns umgeben schon jetzt täglich KI-gesteuerte Texte – und es werden mehr: Heute werden Überschriften und Teaser von Pressetexten mittels KI optimiert, morgen werden Sie bereits kurze Meldungen in der Zeitung lesen (z.B. Lokalsportergebnisse oder regionale Veranstaltungshinweise), die vollständig von Algorithmen „verfasst“ wurden. Eine Predigt können KIs heute schon in einer Qualität abliefern, die uns völlig unverdächtig erscheinen muss, gerade weil sie sich der von uns Nutzer:innen erlernten Muster und Erwartungshaltungen „bedient“.

Natürlich macht eine KI das nicht bewusst, sondern schlicht als Folge ihres einprogrammierten Loops aus Test, Kontrolle, Wiederholung. Daher müsste man im Rahmen einer ethischen Reflexion von Künstlicher Intelligenz auch darüber diskutieren, ob solche Ergebnisse überhaupt zutreffend als „Fälschungen“ bezeichnet werden können. Sind sie nicht vielmehr auch „Werke“? Und wenn ja: Wessen? Solche des/der Programmierer:in hinter dem Algorithmus oder der KI selbst? Kreplin/Meier halten fest:

„Wir stehen an der Schwelle, und in der weiteren Entwicklung kann es möglich sein, Transzendentes, Technisches und Menschliches zusammenkommen zu lassen, ohne sich jeweils darin aufzulösen. Dies wird dann neue Fragen aufwerfen wie z.B. die Frage nach der Würde einer Künstlichen Intelligenz.“

Chancen und Grenzen des Menschen

Was wie ein Topos der Science Fiction anmutet (dazu mehr hier in der Eule) ist eine Frage, die im Blick auf Robotik und Avatare im Metaversum heute wichtig ist. Kreplin/Meier fragen zum Beispiel: „Müssen wir darauf hinwirken, dass sich KI-Systeme in der direkten Interaktion zu erkennen geben?“ Was bedeutete eine solche Offenlegungs-Pflicht für Roboter und Avatare, die doch immer menschenähnlicher und überzeugender werden sollen? Welche rechtspolitischen Herausforderungen ergeben sich daraus für das von Facebook & Co. angepriesene Metaversum, das – so meinen Expert:innen – unser Leben in der Digitalität in den kommenden Jahren zutiefst verändern und prägen wird?

Der Diskurs über Möglichkeiten und Gefahren der Technik darf nicht an der prinzipiellen Fähigkeit des Menschen zum Irrtum vorbeigehen, sind sich Kreplin/Meier im Schlusswort ihres Aufsatzes sicher. Ich würde noch weitergehen: Ebenso wichtig wie der kritische Blick auf „Chancen und Grenzen“ der KI ist die Reflexion der menschlichen Nutzung von Technik, die auf frappierende Weise den selben Gesetzmäßigkeiten gehorcht wie die zwischenmenschliche Interaktion.

Nicht nur schreiben wir dadurch KI voreilig Kompetenzen zu, die sie (noch) nicht erreicht, wir geben ihr damit Macht über unsere Leben und legen Verantwortung in ihre Hände, die wir selbst tragen müssten. Das geschieht nicht zuletzt durch die Verwendung genau solcher anthropomorphen Metaphern. Wenig spricht dafür, dass ausgerechnet im Umgang mit Künstlicher Intelligenz der Mensch selbst das Korrektiv darstellt, das Missbrauch von Technik ausschließen oder auch nur weitgehend verhindern kann.

(Text: Philipp Greifenstein)


Mehr:

via REL ::: Die Eule

May 15, 2022 at 07:48AM