ChatGPT
: Sexistische KI-Chatbots: UNESCO beklagt Verbreitung von Vorurteilen

KI-Sprachmodelle werden mit Unmengen an Daten trainiert. Die UNESCO mahnt an, dass es dabei auch zur Reproduktion sexistischer Vorurteile kommt.
Von
David Hahn
Paris
Jetzt in der App anhören

In der von der UNESCO vorgestellten Studie reproduzierten sowohl GPT 2 und GPT 3.5, als auch die konkurrierende Software Llama 2 des Meta-Konzerns, sexistische Vorurteile und Rollenklischees.

Frank Rumpenhorst/dpa

Ende 2022 machte ChatGPT auf die unzähligen Möglichkeiten KI-gestützter Sprachmodelle aufmerksam. Chatbots können dabei in Sekundenschnelle Fragen beantworten und hochkomplexe Texte generieren. Mit dem schlagartigen Aufstieg von Künstlicher Intelligenz wuchsen auch Bedenken hinsichtlich möglicher Risiken der Technologie. Die UNESCO hat nun in einem Bericht die Verbreitung sexistischer Vorurteile durch Künstliche Intelligenz hingewiesen.

Studie: KI reproduziert sexistische Vorurteile

Künstliche Intelligenz, wie sie etwa der Chatbot ChatGPT nutzt, trägt laut einem Bericht der UNESCO zur Verbreitung sexistischer Vorurteile bei. „Bestehende Diskriminierungen werden im digitalen Raum nicht nur widergespiegelt, sondern verstärkt“, erklärte Tawfik Jelassi von der UN-Organisation für Bildung, Wissenschaft und Kultur in Paris. Chatbots wiesen weiblichen Namen eher Worte zu wie „Haus“, „Familie“, „Kinder“ zu, während männliche Namen eher mit „Geschäften“, „Gehalt“ und „Karriere“ verknüpft würden, heißt es in einer am Donnerstag vorgestellten Studie.

Studie: ChatGPT und Llama 2 betroffen

Dies gilt der Studie zufolge sowohl für die Softwareversionen GPT 2 und GPT 3.5 von OpenAI, die etwa für die Gratisversion ChatGPT benutzt werden, als auch für die konkurrierende Software Llama 2 des Meta-Konzerns. Texte, die Frauen oder Angehörige kultureller Minderheiten beträfen, basierten häufig auf Stereotypen.

KI: Frauen als Prostituierte oder Models dargestellt

Die Wissenschaftler beauftragten die Chatbots etwa, Geschichten über Menschen verschiedener Herkunft und verschiedenen Geschlechts zu produzieren. Britische Männer wurden demnach häufig als Lehrer, Fahrer oder Bankangestellter dargestellt. Britische Frauen hingegen wurden in 30 Prozent der Texte als Prostituierte, Model oder Kellnerin vorgestellt.

Unesco: KI-Chatbots können Ungleichheiten vergrößern

Da solche Chatbots mehr und mehr Verbreitung finden, „haben sie die Macht, die Wahrnehmung von Millionen von Menschen zu beeinflussen“, sagte die UNESCO-Direktorin Audrey Azoulay. „Das geringste sexistische Vorurteil in ihren Inhalten kann die Ungleichheiten in der Welt erheblich vergrößern“, fügte sie hinzu.

(Mit Material der AFP)