Das Zeitalter der künstlichen Intelligenz (KI) wurde spätestens im November 2022 eingeläutet,
als das
Unternehmen OpenAI das generative KI-Tool ChatGPT in der Version 3.5 der Öffentlichkeit frei
zur Verfügung stellte. Das löste einen regelrechten KI-Hype aus. Denn erstmals konnte
die
Allgemeinbevölkerung sich selbst von der Leistungsfähigkeit generativer KI überzeugen
und die Technologie im
Alltag erproben. Die Nutzung von text- und bilderzeugenden KI-Modellen wächst seitdem
stetig, sowohl in
privaten wie auch in öffentlichen Zusammenhängen: Diverse Zeitungen drucken KI-generierte
Artikel und
Bilder, Radiosendungen spielen KI-generierte Playlists, Nachrichtensender lassen die
Meldungen für einzelne
Zuschauer*innen personalisiert durch KI erstellen und von KI-gesteuerten Agenten vorlesen
– dabei sieht das
Ergebnis genauso aus, als ob menschliche Nachrichtensprecher*innen tätig wären (z.
B. https://www.channel1.ai/). In Wahlkämpfen und im politischen
Aktivismus spielen emotionalisierende KI-Bilder eine große Rolle, beobachtbar in Deutschland
ebenso wie
beispielweise in den USA.
Diese und weitere Entwicklungen nahm eine kommunikationswissenschaftliche Tagung zu
KI-generierten Bildern
in den Blick, die vom 20. bis 22. November 2024 im Haus der Wissenschaft in Bremen
stattfand, also mitten im
Stadtzentrum neben Dom und Rathaus. Organisiert wurde sie von der Fachgruppe „Visuelle
Kommunikation“ der
Deutschen Gesellschaft für Publizistik- und Kommunikationswissenschaft (DGPuK; https://www.dgpuk.de) zusammen mit der Division „Visual Communication
Studies“ der International Communication Association (ICA; https://www.icahdq.org/). Die Tagung fand auf Englisch statt unter dem Titel „Generative Images —
Generative Imageries: Challenges of Visual Communication (Research) in the Age of
AI“ (https://gi.uni-bremen.de/). Gastgeberin Stephanie Geise,
Professorin und Leiterin des Labs „Politische Kommunikation und Innovative Methoden“
am Zentrum für Medien-,
Kommunikations- und Informationsforschung (ZeMKI) der Universität Bremen (https://zemki.uni-bremen.de/das-zemki/), und ihr Team
begrüßten rund 60 Teilnehmende aus Deutschland, Österreich und der Schweiz, aus den
Niederlanden, Dänemark,
Belgien, Norwegen, Schweden und Australien. Alle Vorträge fanden im Plenum statt und
waren gebündelt in
sieben Sessions zu Forschungsmethoden, Geschlechterfragen, politischem Wandel, Publikumswahrnehmungen,
Journalismus, politischem Aktivismus und multimodaler Kommunikation.
Auch wenn die Tagung sich nicht ausdrücklich mit sexualbezogener KI-Nutzung beschäftigt
hat, sind viele der
diskutierten Phänomene und Entwicklungen für die Sexualwissenschaft von großer Bedeutung.
Ein
Überschneidungsbereich beider Disziplinen ist etwa die Beschäftigung mit medialer
Sexualisierung,
Körperbildern und Geschlechterdarstellungen. Was bedeutet es etwa, dass KI-Modelle
aufgrund ihrer
Trainingsdaten und Architekturen oftmals zunächst sehr stereotype und sexualisierte
Bilder von Frauen
liefern? Was müssen Nutzende wissen, um durch die Wahl des KI-Modells und geeignete
Eingabeaufforderungen
(engl. prompts) KI-Bildmaterial zu erhalten, das geschlechtliche und sexuelle Vielfalt
angemessen
repräsentiert? Welche Rolle spielen KI-Bilder im Aktivismus für und gegen Feminismus,
Trans-Rechte oder
Sexuelle Bildung? Und inwiefern kommen dabei auch Kunstbezüge zum Tragen, etwa wenn
die KI „Feminismus“ mit
Bildern der Malerin Frida Kahlo visualisiert? Wer sich in der Sexualforschung mit derartigen Fragen
beschäftigt, kann aus der kommunikationswissenschaftlichen Tagung zu KI-Bildern interessante
Impulse
mitnehmen, von denen im Folgenden einige exemplarisch aufgegriffen werden.
Mit KI lässt sich heute sehr einfach, schnell und in riesigen Mengen Bildmaterial
erstellen, das keinerlei
Bezug zur materiellen Realität aufweist und trotzdem täuschend echt wie ein Foto oder
Video aussieht. Diese
echt wirkenden KI-Bilder können sehr überzeugend und berührend wirken, öffnen Tür
und Tor für Manipulation.
In öffentlichen Debatten ist gar schon vom „Ende der Wahrheit“ die Rede. Denn dokumentarisches
Foto- und
Videomaterial, das früher als Beleg für reale Ereignisse zählen konnte, steht heute
unter dem
Generalverdacht, womöglich bloß irreführendender KI-generierter „Fake“ zu sein. Diverse
Tagungsbeiträge
wiesen darauf hin, dass wir tatsächlich eine Zeitenwende erleben und dass großer Bedarf
besteht, auf Seiten
der Medienproduktion den Umgang mit KI-Bildmaterial zu regulieren und auf Seiten der
Mediennutzenden
entsprechende KI-Kompetenz zu stärken.
So ist es gar nicht so leicht zu sagen, ob nun der international beachtete KI-Skandal
bei der Schweizer
Gratiszeitung „20 Minuten“ im September 2024 als Negativ- oder als Positivbeispiel
zu werten ist. Die
Zeitung hatte zum eigenen 25. Jubiläum diverse Publikumszuschriften veröffentlicht.
So äußerten sich unter
anderem „Remo“ und „Darrell“ begeistert über das Blatt. Doch diese Leserbriefe waren
von
Zeitungsmitarbeiter*innen selbstgeschrieben und die Porträtfotos von „Remo“ und „Darrell“
mit KI erzeugt,
wie ein Leser mit KI-Kompetenz festgestellt und auf X/Twitter gepostet hatte. Die
Zeitung räumte die
Fälschung ein. Negativ zu bewerten ist, dass tatsächlich bis heute viele Medienhäuser
keine klaren und
öffentlich einsehbaren Regeln dazu haben, wie sie mit KI-generiertem Text- und Bildmaterial
umgehen, in
welchen Kontexten sie es nutzen und wie sie es für das Publikum gut erkennbar kennzeichnen.
Es besteht zwar
allgemeiner Konsens, dass der Umgang mit KI-Material „transparent“ sein müsse, doch
was das im Einzelnen
bedeutet, ist noch nicht ausreichend festgelegt — so das Fazit einer von Seraina Tarnutzer und
Sina Blassnig (Universität Freiburg, Schweiz) präsentierten Studie, die anhand einer Stichprobe
von Zeitungen geprüft hatte, a) ob diese über öffentlich verfügbare KI-Richtlinien
verfügen und b) wie
detailliert diese ausgearbeitet sind. Mangelnde Transparenz beim Umgang mit KI-Bildern
konstatierte auch
eine Studie aus den Niederlanden von Astrid Vandendaele, Jaap de Jong und Maartje van der
Woude (Universität Leiden). Wenn schon Medienhäuser hier bislang oft kein klares Regularium
haben,
kann man nur ahnen, dass und wie unterschiedliche Interessengruppen mit gefälschten
Testimonials,
Meinungsbekundungen und Zeugenaussagen operieren.
Positiv zu bewerten an dem „20 Minuten“-Fall ist andererseits, dass die KI-Kompetenz
bei Teilen des
Publikums bereits so gut ausgeprägt ist, dass sie ungekennzeichnetes KI-Material dennoch
als solches
identifizieren und ihre Kritik so wirkungsvoll öffentlich machen können, dass die
Medienhäuser dann auch
reagieren müssen. Ganz konkret hatte der kritische Leser und Twitter-Nutzer festgestellt,
dass die
gefälschten Porträtfotos von der KI-Plattform „This Person does not exist“ (https://thispersondoesnotexist.com/) stammten. Denn
diese erzeugt zwar einen Output, der täuschend echt Porträtfotos nachahmt, doch die
Position der Augen hat
auf allen Bildern dieselben X- und Y-Koordinaten. Auf der Tagung widmeten sich mehrere
Studien der Frage,
woran KI-Bildmaterial erkennbar ist. Nach wie vor entlarvend bei der Darstellung von
Menschen sind die
typischen KI-Fehler wie zu viele oder zu wenige Zähne, Zehen oder Finger. Auch bei
Schriftzügen, Schildern
und Symbolen ist KI-Output oft fehlerhaft. Um auf die KI-Herkunft eines vermeintlich
authentischen Bildes
hinzuweisen, werden dann typischerweise die augenfälligen Fehler rot umkreist und
kommentiert. So tun das
zum Beispiel KI-kritische Facebook-Nutzende auf dem Profil „Best talents“ (https://www.facebook.com/p/Best-talents-61556462827457/). „Best talents“ zeigt KI-Bilder von
überwiegend weißen, normschönen, heterosexuellen Militär-Familien in den USA, was
gemäß einer Studie von
Paul Pressmann und Cornelius Puschmann (Universität Bremen) Anti-KI-Protest in den
Kommentarspalten auslöst. Welche Merkmale von Bildern dazu führen, dass Menschen sie
als authentisch oder
aber als KI-generiert einordnen, untersuchten Marion Müller und Lea Schmelz (Universität
Trier) mit einer Q-Sort-Studie: Die Teilnehmenden sortierten vorgelegtes Bildmaterial
unter anderem gemäß
Authentizität und wurden zu ihren Sortierungen befragt. Dabei zeigte sich unter anderem,
dass ein
„unperfektes“ Aussehen des Bildes es authentischer erscheinen lässt. Doch derartige
Studien sind immer nur
Momentaufnahmen. Denn Merkmale von KI-Bildern, die sie als solche identifizierbar
machen — seien es falsche
Finger, Wortsalat bei Schriftzügen, zu leuchtende Farben oder übermäßige Symmetrie
— werden vermutlich
technisch bald zu umgehen sein.
Für die Reflexion des aktuellen Medienwandels durch KI bedeutsam ist Historisierung.
So ist die aktuelle
Aufregung um das „Ende der Wahrheit“ nur eine Neuauflage der Diskussion, die schon
in den 1990er-Jahren
angesichts des Aufkommens digitaler Bilder und entsprechender Bildbearbeitungsmöglichkeiten
geführt wurde.
Und auch mit analogen Fotografien wird getrickst: Ein dokumentarisches analoges Foto
ist kein Beweis für
irgendetwas, es kann eine inszenierte Szene zeigen und/oder durch den gewählten Bildausschnitt
eine
manipulative Botschaft liefern. Daher plädierte Stefan Meier (Universität Koblenz) dafür, sich von
der Illusion zu lösen, die Foto- oder Videografie habe per se irgendeinen Beweischarakter
bezüglich
Realität. Vielmehr müsse man Fotos und Videos immer als Diskursbeiträge verstehen,
deren Bedeutung und
Wirkung am zugeschriebenen Bedeutungskontext hängt. Auch andere Vortrags- und Diskussionsbeiträge
mahnten
immer wieder zur Vorsicht: Gefahren, die wir heute den KI-Bildern zuschreiben, sind
oft generelle Probleme
beim kulturellen Umgang mit Bildmaterial, seien es ein vorschnell zugeschriebener
Wahrheitscharakter,
ungerechtfertigte Manipulationsvorwürfe, allgegenwärtige Stereotypisierungen oder
auch Probleme bei der
Visualisierung abstrakter Konzepte wie „Krieg“, „Feminismus“ oder „Zukunft“. Mit ihrer
Analyse zu
KI-generierten Zukunftsbildern gewann Alina Solotarov (Fraunhofer-Institut für System- und
Innovationsforschung, Freie Universität Berlin) den Best Paper Award. Ihre Befunde zeigten u. a.,
dass die KI sich selbst bislang stereotyp als humanoiden Roboter verbildlicht.
Wer sexuelle KI-Bilder oder sexualbezogene KI-Nutzung im Allgemeinen erforscht, kann
deutschsprachige
Beiträge jederzeit bei der „Zeitschrift für Sexualforschung“ einsenden. Englischsprachige
Beiträge sind
willkommen bei „Archives of Sexual Behavior“, dem Organ der International Academy of Sex Research
(IASR; https://www.iasrsite.org/). Für die dort geplante Special
Section zu „Artificial Intelligence and Sexuality“ können auch ohne vorherige Abstract-Anmeldung
bis zum 1.
Juli 2025 theoretische und empirische Kurz- und Langbeiträge eingereicht werden (https://link.springer.com/journal/10508/updates/27497494).