Künstliche Intelligenz: Amnesty International illustriert Polizeigewalt mit KI-Bildern
Mit Bildgeneratoren erstellte Motive erregen derzeit viel Aufsehen. Jetzt hat Amnesty International zu einem heiklen Thema solche Bilder präsentiert – der Gegenwind ist massiv.
Emotionslos dreinblickende Polizisten mit Schutzhelmen führen eine Demonstrantin ab, die in eine Flagge gewickelt ist. Eine junge Frau mit Verletzungen im Gesicht steht vor einer Feuerwand. Mit solch effekthascherischen Bildern wollten Amnesty International und ihr norwegischer Ableger Ende vergangener Woche ein Bewusstsein für gewaltsame Übergriffe der Polizei in Kolumbien schaffen. Aktuelle Postings auf Twitter und Instagram bezogen sich auf vor zwei Jahren gestartete Proteste, den sogenannten Nationalstreik, bei dem die kolumbianische Polizei brutal gegen die Demonstrierenden vorgegangen war.
Das Problem: Die symbolträchtigen Szenen, welche die Menschenrechtsaktivisten jetzt zu dem Thema präsentiert haben, hat es nie gegeben. Jedenfalls nicht in genau dieser Form, mit genau diesen Personen. Wahrscheinlich existieren die abgebildeten Personen nicht einmal. Denn Amnesty International hatte die Motive am Computer generiert, mithilfe künstlicher Intelligenz (KI). So zeigte die Organisation, anders als bei früheren Veröffentlichungen, diesmal nicht reale Belege von Missständen, sondern KI-Ideen davon, wie die Missstände in Kolumbien ausgesehen haben könnten.
Die Bilder enthielten zwar optische Seltsamkeiten, wie etwa eine falsche Farbfolge bei der Flagge Kolumbiens. In kleiner Schrift wurde am Rand der Bilder sogar ein Hinweis auf deren Herkunft eingebaut: »Illustrationen mit KI produziert«. Flüchtig betrachtet wirkten die Motive aber wie echte Fotos.
»Ziemlich unverantwortlich und selbstzerstörerisch«
Im Netz machten die Bilder übers Wochenende schnell die Runde. Die Diskussion drehte sich dabei aber selten darum, wie man ein Bewusstsein für die Probleme in Kolumbien schaffen kann. Vielmehr versuchten Menschen, ein Bewusstsein für KI-Fakes zu schaffen – und kritisierten Amnesty International dabei zum Teil hart. »Ach du Sch*e. Die Pandora-Büchse ist auf«, twitterte etwa David Schraven vom deutschen Faktencheckportal Correctiv: »Amnesty benutzt AI für Advocacy und unterminiert damit die Glaubwürdigkeit der eigenen Arbeit. Um Gottes willen.« James Ball , ein britischer Autor und Experte für Desinformation, kommentierte mit ähnlicher Stoßrichtung: »Das ist ziemlich unverantwortlich und selbstzerstörerisch.«
Bedenken äußerte auch der Medienwissenschaftler Roland Meyer. Er schrieb , die Verwendung computergenerierter fotorealistischer Illustrationen verwische nicht nur die Grenze zwischen Fakt und Fiktion: »Sie entwertet auch die Arbeit all jener mutigen Reporter und Fotografen, die jahrzehntelang Menschenrechtsverletzungen dokumentiert haben (und deren Bilder wahrscheinlich zum Training der hier genutzten Software verwendet wurden). Und da die Bildsynthese fast zwangsläufig visuelle Stereotypen reproduziert und verstärkt, verwandelt ihr sorgloser Gebrauch als Ersatz für die Dokumentarfotografie die Welt in ein Klischee.«
Das sagt Amnesty International
Mittlerweile haben Amnesty International und ihr norwegischer Ableger die umstrittenen Bilder offline genommen. Aber gesteht die Menschenrechtsorganisation damit einen Fehler ein? Oder zumindest eine Fehleinschätzung, was die Reaktionen auf die Bilder angeht?
Nicht wirklich. Auf SPIEGEL-Anfrage erklärt der deutsche Ableger der Organisation, der die Bilder selbst nicht veröffentlicht hatte, Amnesty International habe sich mit ihrer Kampagne für eine Polizeireform in Kolumbien einsetzen wollen. Die KI-generierten Bilder seien verwendet worden, um die Menschenrechtsverletzungen während des Nationalstreiks zu veranschaulichen, »ohne damit die damals Anwesenden zu gefährden«.
»Viele Menschen, die an dem Nationalstreik teilgenommen haben, haben ihr Gesicht verhüllt, weil sie Angst hatten, von den staatlichen Sicherheitskräften unterdrückt und stigmatisiert zu werden«, heißt es in der Stellungnahme. »Diejenigen, die ihr Gesicht gezeigt haben, sind immer noch gefährdet, einige werden von den kolumbianischen Behörden kriminalisiert.« Auch nach Rücksprache mit den eigenen Partnerorganisationen in Kolumbien sei man der Überzeugung, dass es die Teilnehmerinnen und Teilnehmer der Proteste der Gefahr von Repressionen ausgesetzt hätte, wären deren echte Gesichter gezeigt worden.
Als weiteres Argument pro KI-Bilder führt Amnesty International an, dass die kolumbianischen Sicherheitskräfte Stromausfälle provoziert hätten, um Protestierende dann im Schutz der Dunkelheit anzugreifen: »Dadurch wurde es für die Menschen sehr schwierig, Fotos oder Videos von den Geschehnissen zu machen.«
Muss es gleich der Bildgenerator sein?
Die zahlreichen Kritiker des Vorstoßes dürften diese Begründungen kaum zufriedenstellen. Manche fürchten, dass Amnesty International dem Kampf für die Menschenrechte und die Wahrheit diesmal einen Bärendienst erwiesen haben könnte – etwa weil fortan immer wieder darauf verwiesen werden könnte, dass die Aktivisten mit Fake-Bildern arbeiten. Und das nachweislich.
Sam Gregory von der Menschenrechtsorganisation Witness sagte dem Techportal »Gizmodo« , es komme immer häufiger vor, dass autoritäre Machthaber versuchten, Aufnahmen von Menschenrechtsverletzungen zu vertuschen, indem sie sofort behaupteten, die Aufnahmen seien gefälscht. Es sei zwar wichtig, die Personen zu anonymisieren, die in Veröffentlichungen von Menschenrechtsorganisationen auftauchten, meint auch Gregory. Aber um Missstände aufzuzeigen, müsse man nicht gleich zu KI-Bildgeneratoren greifen oder »Medienhypes anzapfen«.
Amnesty International schreibt dem SPIEGEL, man habe nie die Absicht gehabt, »fotorealistische Bilder zu produzieren, die mit der Realität verwechselt werden könnten«. Daher seien die Bilder »deutlich« als KI-Produkte gekennzeichnet und so bearbeitet worden, »dass sie sich deutlich von realen Fotografien unterschieden, einschließlich der Verwendung kräftiger Farben und eines künstlerischen Stils«. Man kann sich darüber streiten, wie gut diese Beschreibung auf die geposteten Bilder zutrifft.
Auf den Spuren der AfD und der Republikaner
Klar ist indes: Mit einer gewissen Ablehnung gegenüber den Motiven aus dem Computer muss Amnesty International gerechnet haben. Von KI generierte Bilder zu politischen Themen hatten in den vergangenen Wochen schon einigen Personen und Organisationen Kritik eingebracht, etwa zwei Bundestagsabgeordneten der AfD und dem nationalen Organisationsgremium der US-Republikaner .
Weltweit mutmaßlich am meisten Aufsehen hatte derweil ein Bild erregt, das Papst Franziskus in einem weißen Daunenmantel zeigt, wie ihn sonst Rapper tragen. Schon bei diesem Motiv hatten viele Nutzerinnen und Nutzer Schwierigkeiten gehabt, die Realität von der Scheinrealität aus dem Bildgenerator zu unterscheiden. Dabei dürften viele Nichtkolumbianer den Papst vermutlich besser kennen als die Lage bei Protesten in Städten wie Bogotá.
Zum Offlinenehmen der Bilder erklärt Amnesty International Deutschland am Dienstagnachmittag noch, die Organisation habe sich zu diesem Schritt entschieden, um zu verhindern, dass die KI-Diskussion von der Kernbotschaft der Kampagne ablenke: »der Unterstützung von Betroffenen von Menschenrechtsverletzungen in Kolumbien und deren Forderung nach Gerechtigkeit«.

