Bilderkennung

Warum künstliche Intelligenz gegenüber Frauen sexistisch ist

08.02.2023, 16:21 Uhr
· Online seit 08.02.2023, 16:17 Uhr
Wenn heute jemand Bilder auf Internet-Plattformen wie Instagram hochlädt, prüfen Algorithmen automatisch, ob die darauf abgebildeten Szenen zu anzüglich sind. Wie Recherchen zeigen, werden dabei Frauen systematisch benachteiligt. Der Computer ist aber nicht alleine schuld daran.
Anzeige

Mehrere grosse Tech-Unternehmen bieten Bilderkennungs-Technologien auf der Basis künstlicher Intelligenz (KI) an: Microsoft, Google und die Amazon-Tochter «Amazon Web Services» (AWS). Auch einige wenige europäische Unternehmen sind in diesem Bereich tätig, etwa die Firma «Sightengine» aus Paris.

Ein internationales Reportage-Team hat diese Bilderkennungs-Algorithmen untersucht. Im Fokus der Recherche: Systeme, die sexuelle Anzüglichkeit auf Bildern messen. Die vier Systeme wurden mit mehr als 3000 Bildern getestet, wie der «Bayerische Rundfunk» berichtet. Ein zentrales Ergebnis der Analyse: Bilder von Frauen werden im Vergleich zu Bildern von Männern deutlich häufiger als anzüglich eingestuft.

Algorithmen klassieren harmlose Bilder als zu heiss

Der Test gibt Hinweise auf einen sogenannten «Gender Bias». Das ist eine Verzerrung auf Basis des Geschlechts. Beim Bild einer lesenden Frau auf einem Sofa beispielsweise kommt Googles Algorithmus zu der Einschätzung: «sehr wahrscheinlich anzüglich». Eine Person mit Kompressen auf der Brust, offenbar nach einer Operation: Auch hier meint Google, es handle sich um ein freizügiges Bild.

Alle Anbieter verweisen auf Anfrage darauf, dass sie lediglich Wahrscheinlichkeiten berechnen. Die Kunden, etwa Social Media, müssten eigenverantwortlich festlegen, welche Grenzwerte für sie angemessen sind und zum Einsatzbereich passen. Was also mit den Bewertungen der einzelnen Bilder passiert, müssen Kunden selbst entscheiden.

Warum geblockt wird, bleibt oft unklar

Kommt es zu einer Verzerrung auf Basis des Geschlechts, kann das Folgen haben. Eine Verzerrung oder ein Vorurteil wird tausendfach wiederholt und damit verstärkt. Bilder von Frauen laufen so eher Gefahr geblockt, gelöscht oder in ihrer Reichweite eingeschränkt zu werden. Das kann auch wirtschaftliche Konsequenzen haben, etwa wenn der Account als Werbemassnahme für das eigene Geschäft dient.

Gleichzeitig zeigen Untersuchungen, dass Instagram in manchen Fällen Bilder bevorzugt, auf denen Männer wie Frauen Haut zeigen. Für Nutzerinnen und Nutzer ist es demnach mehrfach intransparent, welcher Content veröffentlicht wird und welcher nicht: Die Hersteller dieser Filtersysteme geben nur wenige Informationen, wie diese technisch funktionieren. Und die sozialen Plattformen verweisen vor allem auf ihre sehr allgemeinen Regeln.

KI kopiert gesellschaftliche Stereotypen

Damit Firmen überhaupt Bilderkennungen entwickeln können, brauchen sie Menschen, die vorher viele tausend Fotos bewerten. Durch diese menschlichen Bewertungen entstehen die sogenannten Trainingsdaten, auf deren Basis sexuelle Anzüglichkeit in ein Modell verwandelt wird. Doch diese seien nie optimal, sagt die KI-Forscherin Abeba Birhane: «Es gibt keinen Datensatz ohne Verzerrung. Denn das Labeln ist nie frei von menschlichen Einschätzungen». Und das werde umso schwerer, je weniger greifbar das zu beschreibende Merkmal ist.

Birhane befürchtet: «Im schlimmsten Fall – und das ist der Fall, wenn die Modelle nicht sorgfältig erstellt werden – endet man damit, dass man Stereotypen automatisiert und Modelle erstellt, die weit von der Realität entfernt und damit letztendlich schädlich sind.» Gesellschaftliche Stereotype landen somit in den Trainingsdaten – und den Algorithmen.

Quelle: ArgoviaToday/Leonie Projer

«Die KI hält uns nur den Spiegel vor»

Nicht nur die Bilderkennung per künstlicher Intelligenz ist von einer Ungleichbehandlung der Geschlechter betroffen. Wie ein Experiment vor Kurzem zeigte, würde auch die Texterstellungs-KI von ChatGPT des Herstellers OpenAI eher Männer als Frauen retten, wenn sie über Leben oder Tod entscheiden müsste.

Auch hier war das Training der KI das Problem. «ChatGPT verhält sich sexistisch, weil die Texte, mit denen er trainiert wurde, sexistisch sind. Diese wiederum bilden unsere Gesellschaft ab», wird die KI-Expertin Afke Schouten im «Blick» zitiert. Die KI lerne aus Büchern, Artikeln und Internetseiten. «Sie liest, wie über Frauen geschrieben wird, welche Rolle sie in unserer Gesellschaft einnehmen – und in der Vergangenheit eingenommen haben – und zieht Schlüsse aus der Verwendung des generischen Maskulinums. Die KI hält uns nur den Spiegel vor.»

(osc)

veröffentlicht: 8. Februar 2023 16:17
aktualisiert: 8. Februar 2023 16:21
Quelle: Today-Zentralredaktion

Anzeige
Anzeige
zueritoday@chmedia.ch