Unter dem Titel „The Impact of AI on LGBTIQ* People“ veröffentlichte die Organisation forbidden colours einen Bericht über den Beitrag von Künstlicher Intelligenz (KI) zur Verbreitung von Fehlinformationen und Diskriminierung gegenüber den LGBTIQ* Gemeinschaften. Der Bericht betont die dringende Notwendigkeit eines auf Rechten basierenden Ansatzes bei der Regulierung und Entwicklung von KI.
Der Fokus liegt auf dem Effekt von „Foreign Information Manipulation and Interference (FIMI)“. Darunter ist die gezielte Manipulation und Beeinflussung von Informationen durch ausländische Akteure zu verstehen, deren Ziel es ist, das öffentliche Meinungsbild auch international zu verändern oder politische, soziale oder kulturelle Spannungen zu schüren.
Die Veröffentlichung dieses Berichts erfolgt vor einem Hintergrund zunehmender Diskussionen über die Rolle von KI und ihre potenziellen Auswirkungen auf demokratische Prozesse und die Rechte von Minderheiten. Insbesondere wird auf die Bedeutung von Algorithmen und Technologien hingewiesen, die nicht nur Miss- und Desinformation verbreiten, sondern auch Stereotypen verstärken und Diskriminierung fördern können. Damit betrachtet der Bericht ein Instrument und seine Mechanismen, die wir bereits in früheren Artikeln implizit wie explizit immer wieder zum Thema hatten. Zu nennen wäre hier u.a. die „Zunahme von Gesetzen gegen LGBTIQ* auf dem afrikanischen Kontinent“ sowie die „Ereignisse in Uganda“. Aber auch in Deutschland sind die potenziellen Nutzer*innen dieser Technologie keine unbekannten Randerscheinungen, wie ein Interview von „AfD-Experte Andreas Kemper über die Entwicklung der Partei & den Rechtsruck“ bei Jung und Naiv aufzeigt.
Die Autor*innen des forbidden colours-Berichts, Megan Thomas und Meredith Veit, machen deutlich, wie KI strategisch eingesetzt wird, um durch Miss- und Desinformation soziale Spaltungen zu verschärfen und Hass gegen LGBTIQ* Personen zu schüren. Sie unterstreichen damit die Risiken, die durch KI-generierte Inhalte entstehen, darunter die Verbreitung voreingenommener Informationen an große Zielgruppen, was die Sicherheit und Rechte von LGBTIQ* Personen direkt bedroht. Die Folge ist eine Verschärfung von Vorurteilen durch KI-Algorithmen, die Verbreitung schädlicher Stereotypen und die Schaffung und Verbreitung von Anti-LGBTIQ* Erzählungen.
Ein zentrales Beispiel ist die Aussage von Googles „Bard AI“ Chatbots zur Konversionstherapie, das die Gefahren von KI-generierten Ratschlägen bei der Fehlrepräsentation von LGBTIQ* Themen illustriert. Ein weiteres Beispiel ist das von Spotify verwendete Gender-Kategorisierungssystem, das neue „algorithmische Identität“ formt. Die Folge ist die Verstärkung von Fehlern im Algorithmus und die daraus entstehende Diskriminierung gegenüber trans und nicht-binären Personen, indem sie ihre Identitäten in digitalen Räumen tendenziell auslöscht und diese Auslöschung normalisiert.
In Anbetracht der aufgezeigten Mechanismen wird die Notwendigkeit einer politischen Diskussion zur Einführung von Rechtsgrundlagen und Regulierungen deutlich. Die Erkenntnisse von FIMI sowie die Verstärkung von Stereotypen und die Verbreitung von Fehlinformationen betreffen nicht nur spezifisch die LGBTIQ* Gemeinschaft, sondern haben auch weitreichende Auswirkungen auf demokratische Prinzipien und einzelne Gruppen in der Gesellschaft. Diese führt zu einer Schnittmenge an Interessen, die politisch strategische Zusammenschlüsse von unterschiedlichen Akteuren ermöglicht, um der Frage nachzugehen: Wie kann und sollte KI rechtlich, aber auch gesellschaftlich eingehegt werden?