Gastkommentar Künstliche Intelligenz diskriminiert oft Frauen
Bislang entwickeln vor allem Männer KI-Systeme, was zu Vorurteilen führt. Die Bundesregierung fördert daher früh Frauen in Forschung und Entwicklung, versichert Daniela Kluckert.
03.01.2023 | von Daniela Kluckert
Die Autorin © Getty Images, Imago
Technologien für Künstliche Intelligenz (KI) werden nach wie vor von nicht ausreichend diversen, sondern überwiegend männlich dominierten Teams in Unternehmen entwickelt. Nicht selten werden so gravierende Vorurteile produziert, die zur Benachteiligung unter anderem von Frauen führen können.
Die diskriminierende KI ist aber zum Glück ein Auslaufmodell. Die Bundesregierung hat mit ihrer Digitalstrategie die Weichen dafür gestellt: Sensibilisierung, Bildung und Diversität sind der Schlüssel zu einer besseren KI.
Laut Global Gender Gap Report des World Economic Forums arbeiteten im Jahr 2018 im Bereich der Forschung und Entwicklung von Künstlicher Intelligenz weltweit kaum 20 Prozent Frauen. Seitdem haben sich die Zahlen nur geringfügig verbessert.
Eine Studie des Deloitte AI Institute spricht von 26 Prozent der Arbeitsplätze im Bereich Daten und Künstliche Intelligenz (KI), die im Jahr 2020 von Frauen besetzt werden konnten.
In Deutschland sieht die Situation noch düsterer aus. 2018 waren es gerade einmal 16 Prozent an weiblichen Fachkräften, die sich mit KI-Technologien beschäftigten.
Googles Spracherkennung erkennt männliche Stimmen deutlich häufiger als weibliche
Caroline Criado Perez hat bereits vor einiger Zeit in ihrem Beststeller „Invisible Women“ (2019) auf die Probleme aufmerksam gemacht, die durch die Geschlechterungleichheit bei Datensätzen entstehen können, auf die KI-Systeme zurückgreifen. So verweist sie auf eine Studie der University of Washington, in der Wissenschaftler herausfanden, dass die Spracherkennungssoftware von Google männliche Stimmen mit 70 Prozent höherer Wahrscheinlichkeit erkennt als weibliche.
>> Lesen Sie hier: Weckruf an den Erfindergeist
Ein anderes Beispiel lieferte Apple 2019. Das Tech-Unternehmen brachte damals seine eigenen Kreditkarten auf den Markt. Für die Prüfung, wer die Kreditkarte erhalten durfte, setzte Apple KI ein. Es mehrten sich schnell Meldungen, dass Frauen und Männer anscheinend bei der Vergabe der Kreditkartenrahmen unterschiedlich bewertet wurden, obwohl die gleichen finanziellen Voraussetzungen vorlagen.
Vorurteile in der KI zeigen sich aber auch in der Rollenzuweisung. Auffällig sind besonders Sprachassistenzsysteme, die meistens weiblich sind wie Siri, Alexa und Cortana.
Werden Algorithmen nicht nur von Männern, sondern idealerweise von heterogen aufgestellten Teams entwickelt, erhöht sich die Chance, Diskriminierungen und Vorurteile schneller zu erkennen und abzubauen. Frauen erkennen Dinge, die Männern entgehen, und andersherum genauso. Außerdem erhöht sich in divers besetzten Teams die Chance einer besseren Generalisierbarkeit und Qualität der Forschungsergebnisse.
Schon in der Kita müssen Mädchen für die Forschung und Entwicklung begeistert werden
Damit in Deutschland mehr Frauen den Weg in die KI-Entwicklung und -Forschung finden, fördert die Bundesregierung Bildungsangebote in allen Lebensphasen, von der Kita bis zur Hochschule und Aus- und Weiterbildung.
Für die Schulen werden altbewährte Programme wie das Haus der kleinen Forscher, die Aktionstage „Girls' Day“ und „YouCodeGirls“ verstetigt. Mit dem MINT-Aktionsplan 2 sollen außerdem Kooperationen zum Beispiel zwischen Schulen und Unternehmen ausgebaut, aber auch Eltern besser informiert werden, damit sie ihren Nachwuchs für eine Berufsausbildung oder ein Studium in den MINT-Fächern (Mathematik, Informatik, Naturwissenschaft und Technik) begeistern.
Kurzum: Sensibilisierung und mehr Bildung sind Schlüsselfaktoren, um einerseits Ängste und Vorurteile gegenüber neuen Technologien wie der Künstlichen Intelligenz abzubauen, andererseits um Menschen unterschiedlicher Herkunft, unterschiedlichen Alters oder Geschlechts für das Fach zu begeistern.
Bildung bezieht sich aber nicht nur auf den Bereich der Wissensvermittlung in Schulen. Es braucht natürlich auch weibliche Vorbilder, die mit positivem Beispiel vorangehen. Initiativen wie „ShetransformsIT“ und der 2017 gegründete Verband „Women in AI“ leisten hier bereits wertvolle Arbeit.
Die diskriminierende Künstliche Intelligenz ist ein Auslaufmodell
Fazit: Künstliche Intelligenz lässt sich aus unserem Alltag und für unsere Zukunft nicht mehr wegdenken. Daher ist es so wichtig, dass wir jetzt die richtigen Rahmenbedingungen schaffen, dass nicht nur Männer Spaß am Programmieren von Algorithmen finden.
Wir sind auf einem guten Weg, dass sich das ändert und dass die Branche diverser wird. Die diskriminierende Künstliche Intelligenz ist ein Auslaufmodell.
Die Autorin:
Daniela Kluckert ist Parlamentarische Staatssekretärin beim Bundesminister für Digitales und Verkehr.