So sexistisch und rassistisch kann Künstliche Intelligenz sein

Warum die Entscheidungen und/oder Funktionen von Maschinen durch Künstliche Intelligenz (KI) oft sexistisch oder rassistisch sind, erklärt unsere Autorin Melina Seiler.

Habt ihr euch auch schon mal über sexistische oder stereotype Suchergebnisse im Internet geärgert? Ein Klassiker, der auch auf Social Media immer wieder als gegenüberstellendes Bild dient, ist die Online-Suche nach „Schulmädchen“ – und dann im Vergleich dazu nach „Schuljunge“. Bei ersterem werden einem mehrheitlich kurz und knapp bekleidete, junge und normschöne erwachsene Frauen im „Schulmädchenoutfit“ angezeigt. Bei letzterem mehrheitlich kleine Jungen im Schulalter in einer Schuluniform.  

Alexa versteht dich nicht?

Ein anderes Beispiel sind Sprachassistenten wie Amazons Alexa. Diese verstehen tiefe, also mehrheitlich männliche Stimmen besser als weniger tiefe Stimmen, also mehrheitlich weibliche Stimmen. Das liegt daran, dass die Daten, aus denen sie genährt sind, mehrheitlich aus Männerstimmen bestehen. Die Sprachassistenten sind schlicht nicht ausreichend mit weiblichen Stimmen trainiert worden. 

Die Entscheidungen und/oder Funktionen von Maschinen durch Künstliche Intelligenz (KI) haben sich in der Vergangenheit bereits als sexistisch oder rassistisch erwiesen. Das liegt daran, dass die Algorithmen auf Daten zugreifen, die von Menschen stammen und diese häufig mit diskriminierenden Vorurteilen belastet sind. Linzer Forscher*innen fanden heraus, dass die Ergebnisse von Suchmaschinen, die Deep Learning nutzen, besonders diskriminierend sind. Diskriminierung mittels Algorithmen konnten bereits zahlreichen Studien belegen.

Das Problem ist immer gleich

Die angebliche Objektivität der Maschinen besteht aus der Subjektivität der Menschen. Die von Menschen gesammelten und aufbereiteten Daten, auf denen die KI basiert und die bereits diese Vorurteile beinhalten, verstärken den Effekt. Wenn KI mit den Datensammlungen, die Menschen ins Netz stellen gespeist werden, lernen sie auch die dort vorhandenen Vorurteile und Klischees. Und reproduzieren anschließend einfach alte Muster.  

Die Linzer Forscher:innen fragten beispielsweise geschlechtsneutral nach „Pflegekraft“ oder nach einem Synonym für „schön“. Obwohl diese Fragen geschlechtsneutral waren, zeigten die Suchmaschinen vor allem Antworten im Zusammenhang mit Frauen. Männer kamen erst später vor. Bei der Suche nach „CEO“, also Geschäftsführer:in eines Unternehmens oder „Programmierer:in“ überwogen hingegen männliche Antworten. 


Weitere interessante Beiträge