Warum Algorithmen Männer bevorzugen

Künstliche Intelligenz wie Übersetzungstools benachteiligen Frauen systematisch. Entwickler haben das Problem erkannt und arbeiten an Lösungen

Künstliche Intelligenz kann sexistische Stereotype verstärken - etwa bei der Anwendung von Übersetzungssoftware, wie folgendes Beispiel zeigt: Der Satz "The cleaner removed the rubbish" wird von Google Translate mit "Die Putzfrau hat den Müll entfernt" übersetzt. Dahingegen dolmetscht das Programm "The professor held a lecture on nanosurgery" auf "Der Professor hielt einen Vortrag über Neurochirurgie".

"Unsere Algorithmen lernen, wie Sprache in der realen Welt angewendet wird, und wählen die wahrscheinlichste Übersetzung“, erklärt Macduff Hughes, Leiter des Entwicklungsteams bei Google Translate derlei Fälle. Sprich: Weil Putzfrau immer noch der gebräuchlichere Ausdruck ist als Reinigungskraft oder Putzmann, entscheidet sich die Software für den Begriff.

Geschlechtsbezogene Verzerrungseffekte

Ähnlich gehen Suchmaschinen vor, wie eine holländische Studie von 2021 ergab. Sie zeigte, dass Frauen, die online nach Stellen suchen automatisch typische Frauenjobs angezeigt bekommen. Ein Ausbruch aus der vermeintlichen Geschlechterrolle wird ergo nicht befördert. Oder der Fall von Apple vor drei Jahren. Damals brachte die Firma eine eigene Kreditkarte auf den Markt, bei der KI über die Bezugslimits entschied. Apple-Mitgründer Steve Wozniack probierte den Algorithmus aus. Dabei kam er zum Schluss, dass ihm ein zehnmal höheres Kreditlimit zugesprochen wurde als seiner Frau – und das obwohl sie keine getrennten Konten haben.

So wie KI den gemeinen Sprachgebrauch abbildet und nicht den im gender-sinne gewünschten, spielt auch der Umstand eine Rolle, dass generell mehr Daten von Männern vorhanden sind als von Frauen. Inhalte im Netz sind stärker von Männern geprägt, was zu einer weiteren Verzerrung von geschlechterspezifischen Effekten (gender bias) führt. Zudem ist es der Sache nicht dienlich, dass im Netz meist nach schnellen Lösungen gesucht wird. Jemand, der rasch wissen will, was "cleaner" im Deutschen bedeutet, wird sich in der Regel für die zuerst vorgeschlagene Übersetzung, sprich "Putzfrau" entscheiden.

Genderfairness-Programme

Bei Google hat man das Problem im Auge und arbeitet an Lösungen. So versuchen die Techniker, die Algorithmen vermehrt mit solchen Quellen zu trainieren, die in geschlechtsgerechter Sprache formuliert sind. Das sei, so Hughes, viel manuelle Programmierarbeit und gehe entsprechend langsam vonstatten. Begonnen habe man bei den gefragtesten Wortpaaren, also den Übersetzungen vom Englischen aufs Spanische bzw. umgekehrt.

Zudem gibt es spezielle Algorithmen, die darauf trainiert sind, gender bias zu erkennen. Im Google-Browser Crome gibt es ein Koorektur-Tool namens "Fairlanguage". Es überprüft Texte hin auf ihre politische Korrektheit. In Microsoft Word existiert "Gender App Add-in". Die Anwendung erkennt fragwürdige Bezeichnungen wie "Putzfrau" und schlägt Alternativen wie "Reinigungskraft" vor.

Was auch helfen würde wären mehr Frauen in der IT-Branche. In den großen Technologiefirmen arbeiten immer noch doppelt so viele Männer wie Frauen, in den Entwicklungsabteilungen sogar dreimal so viele. (no)

translate.google.com

Kommentar schreiben

* Pflichtfelder.

leadersnet.TV