Lensa: Eine sexistische KI, die (nicht nur) Künstler*innen das Leben schwer macht!


Von Florian Beyer

ChatGPT ist in der Presse, wie auch an Bildungsinstitutionen aktuell nahezu omnipräsent vertreten. Dabei sollte nicht vergessen werden, dass es noch viele weitere, auf KI-Technologie basierende Programme gibt, die von vielen Menschen täglich genutzt werden. Eine davon ist Lensa.

Was ist Lensa und wie funktioniert es?

Lensa war zunächst eine Foto-Bearbeitungs-App. Sie wurde bereits 2018 von dem Unternehmen Prisma Labs veröffentlicht, doch der große Erfolg blieb zunächst aus. Erst das nunmehr knapp zwei Monate alte Update, welches u.a. die für uns so relevante „Magic Avatar“ Funktion brachte, sorgte für den Durchbruch.

Durch die „Magic Avatar“ Funktion können Nutzer*innen eigene Selfies von sich hochladen und anschließend erstellt die App völlig neue digitale Bilder. Dafür wird das Open Source- Modell „Stable Diffusion“ verwendet. Hier werden die neuen Bilder durch Text-Input und/oder aus hochgeladenen Bildern erstellt. Dieses Modell wurde an der sehr umfangreichen Datenbank LAION 5B[1] trainiert. LAION 5B gewinnt die Datensätze für die Bilder, indem sie das sogenannte „Screen Scraping“ nutzt. Bei diesem Verfahren werden Informationen aus dem Quelltext und Skripten von Websites und anderen Online-Diensten ausgelesen und in der Datenbank gespeichert. Trotz des ganzen Hype auf den sozialen Plattformen, sorgt gerade diese Datenbank für Negativschlagzeilen, da sie für zwei der größten Kritikpunkte an Lensa sorgt:


[1] LAION 5B ist ein riesiger Datensatz von Bildern mit Textbeschreibungen und dient dem KI-Training. URL: https://laion.ai/blog/laion-5b (letzter Zugriff: 12.02.2023)

Künstler*innen haben es schwer…

Der erste Kritikpunkt ist für Künstler*innen ein herber Schlag in jeglicher Form, denn man könnte sagen, dass die App eine gewisse Art von Kunstraub begeht. Vom ersten Pinselstrich in der Grundschule, im Kindergarten oder sogar noch früher, vergehen teilweise Jahre, wenn nicht Jahrzehnte, in denen junge Künstlerinnen ihr Talent üben, verbessern und sogar eigene, ganz besondere Stile entwickeln. Voller Vorfreunde auf eine eigene künstlerische Existenz werden diese dann im Internet geteilt, um sich Rückmeldung seitens anderer Künstler*innen einzuholen. Dabei ist ihnen wahrscheinlich gar nicht bewusst, dass sie damit zunächst jene Datenbank und anschließend Lensa selbst füttern. Das Problem an der Datenbank ist nämlich, dass hier das Urheberrecht geschickt umgangen wird und damit die Kunstwerke von unzähligen Künstler*innen, ohne deren Zustimmung, gestohlen und verwendet werden. Am Beispiel von Lensa zeigt sich, dass die vermeintliche „100% Non-Profit“-Datenbank für Trainingszwecke, Grundlage dafür ist, dass Geld mit der Kunst von Künstler*innen verdient wird, die niemals auch nur einen Cent davon sehen werden. Denn nach dem siebentägigen Probeabo kostet Lensa 99,99€ pro Jahr. Während Künstler*innen also jahrelang Zeit dafür aufbringen, um besser zu werden und evtl. eines Tages davon leben zu können, kostet es Lensa nicht einmal eine Stunde, um Stile zu stehlen und Leute zu begeistern.

… und Frauen ebenso!

Für viel Unmut, besonders von Nutzerinnen, sorgt die Darstellung eben jener. Während Männer „normal“ gekleidet sind, werden Frauen oft in körperbetonten Outfits, mit großer Oberweite, in erotischen Posen oder sogar nackt dargestellt. Da die Funktion u.a. darauf beruht, dass Selfies, also primär Bilder vom Gesicht, hochgeladen werden, ist es umso problematischer, dass solche frauenfeindlichen Bilder entstehen.
Für diese Darstellung von Frauen gibt es zwei Gründe. Zum einen ist die Datenbank schuld. Da sie mit Bildern aus dem Web gefüllt wird, werden auch Bilder von leicht bekleideten oder nackten Frauen aufgenommen. Ebenso werden Bilder mitaufgenommen, die sexistische oder sogar rassistische Stereotype verbreiten. All dies sorgt dafür, dass Bilder, die auf Berufe bezogen sind, ebenso diesen Stereotypen entsprechen. Während Männer eher in akademischeren Berufsfeldern dargestellt werden, werden Frauen reduziert und als Friseurinnen oder Dienstmädchen gezeigt. Doch hier sollte nicht nur die Datenbank allein kritisiert werden, denn auch die Menschen hinter den Datenbanken treffen aktive Entscheidungen wie mit den Daten umgegangen wird.

Fragen über Fragen

Hier wurden nun lediglich zwei Problemfelder hervorgehoben, obwohl es noch deutlich mehr gibt. Als Beispiele sollen hier AI-Pornografie und falsche Körperbilder durch ungefragte Retuschierung genannt werden. Für diese Probleme, die in Zukunft wahrscheinlich nicht weniger werden, bedarf es Lösungen. Wie diese Lösungen auszusehen haben, ist schwieriger als man vermuten mag, da die Probleme auch auf tief verankerten gesellschaftlichen Strukturen basieren. Vorschlagen könnte man(n):

  • … die zugrundeliegenden Datenbanken mehr regulieren und Filter o. Ä. einbauen, um den geschlechterbezogenen Verzerrungseffekt zu verhindern.
  • … Künstler*innen um Erlaubnis bitten, ob die Bilder zu Forschungszwecken verwendet werden dürfen
  • … wirklich „100% Non-Profit“ sein und die Daten auch nur an „100% Non-Profit“-Unternehmen weitergeben
  • … als Gesellschaft wachsen und im Internet keine sexistischen, rassistischen und diskriminierenden Inhalte teilen.

Weiterstöbern

Ein Erfahrungsbericht von Melissa Heikkilä, wie es sich anfühlt von einer AI sexualisiert zu werden. URL: https://www.technologyreview.com/2022/12/13/1064810/how-it-feels-to-be-sexually-objectified-by-an-ai (letzter Zugriff: 12.02.2023)

Austausch
Diskutieren Sie mit im FabricaDigitalis Forum (Moodle für Lehrende)!

Hinweis
Die Beiträge in diesem Blog sind Angebote einzelner Hochschulmitglieder. Sie geben nicht die offizielle Haltung der Europa-Universität Flensburg wieder.