bluebit

Massachusetts Institute of Technology (MIT)

Gesichtserkennung arbeitet fast perfekt – bei weißen Männern

von Robert Klatt •

Algorithmen zur Gesichtserkennung arbeiten bei weißen Männern mit fast 100 prozentiger Genauigkeit. Schwarze Frauen werden deutlich schlechter erkannt.


0 Kommentare

Laut einem Bericht der renommierten New York Times kam die Informatikerin Joy Buolamwini des Massachusetts Institute of Technology (MIT) in ihrer Studie zu dem überraschenden Ergebnis, dass Algorithmen zur Gesichtserkennung je nach Hautton und Geschlecht unterschiedlich gute Ergebnisse liefern. Bei weißen Männern liegt die Genauigkeit inzwischen bei fast 100 Prozent. Im Vergleich dazu ist die Fehlerquote beispielsweise bei schwarzen Frauen um ein Vielfaches höher. Die Studie untersuchte dabei die Machine-Learning-Systeme von IBM, Microsoft und Face++. Der Algorithmus von Face++ befindet sich unteranderem in Produkten von Lenovo und Dell. Es handelt sich bei allen untersuchten Algorithmen also um Produkte die bereits in der Praxis verwendet werden.

Fehlerquote steigt umso dunkler die Hautfarbe ist

Die Studie kam zu dem Ergebnis, dass die Fehlerquote steigt umso dunkler die Hautfarbe der zu erkennenden Person ist. Aus einer Stichprobe von 385 Fotos wurden weiße Männer mit 99 Prozent Genauigkeit erkannt. Bei weißen Frauen lag die Quote nur noch bei 93 Prozent, von insgesamt 296 Bildern die es zu bewerten galt. Von 318 Bildern erkannten die Algorithmen nur 88 Prozent als schwarze Männer. Am niedrigsten war die Genauigkeit bei schwarzen Frauen. Von 271 Bildern wurden nur 75 Prozent richtig eingeordnet.

Die höchste Genauigkeit konnte Microsoft erzielen. Bei schwarzen Frauen lag die Fehlerquote der Software des Giganten aus Redmond bei 21 Prozent, IBM und Face++ erzeugten hier sogar 35 Prozent falsche Ergebnisse. Sorelle Friedler vom Haverford College erklärte gegenüber der New York Times, dass die Studie erstmalig empirisch die Vermutung nachweise, dass Algorithmen je nach Geschlecht und Hautfarbe unterschiedlich genau arbeiten.

Referenzmaterial fehlt bei schwarzen Frauen

Es gibt verschiedene Gründe die für diese Ungenauigkeiten in Frage kommen. Algorithmen benötigen Daten um das richtige Zuordnen von Personen zu erlernen. Die New York Times schreibt, dass 75 der Referenzbilder die die Algorithmen zum Lernen verwenden Männer zeigen, von denen wiederum 80 Prozent weiß sind. Diese Daten hat die New York Times aus einer weiteren Studie bezogen.

Es könnten aber auch technische Gründe vorliegen. Höhere Kontraste erleichtern es den Algorithmen Formen zu erkennen. Kontraste sind bei weißen Personen stärker vorhanden und die Algorithmen können sie dementsprechend leichter korrekt erkennen. Außerdem haben Frauen oft unterschiedlichere Frisuren als Männer, was ebenfalls die Arbeit der Software erschwert.

Buolamwini möchte nun in der Öffentlichkeit das Problembewusstsein für ihre Entdeckung schaffen. Sie sagte in ihrem Interview mit der New York Times: "Okay, das ist ernst, Zeit, etwas zu tun". Während ihres Studiums hatte auch sie als Afroamerikanerin das Problem, dass Algorithmen ihr Gesicht nicht zuordnen konnten.

0 Kommentare

Kommentar verfassen