De meeste gezichtsherkenningssystemen hebben moeite om zwarte vrouwen te herkennen

  • Aug 03, 2022
instagram viewer

Ik werd nieuwsgierig naar informatica toen ik negen jaar oud was. Ik keek naar PBS en ze interviewden iemand van MIT die een sociale robot had gemaakt met de naam Kismet. Het had grote oren die bewogen. Het zou kunnen glimlachen. Ik wist niet dat je dat met machines kon doen. Dus vanaf toen ik klein was, had ik in mijn hoofd dat ik robotica-ingenieur wilde worden en dat ik naar het MIT zou gaan.

Uiteindelijk bereikte ik het MIT, maar ik ging naar Georgia Tech voor mijn bachelordiploma. Ik was bezig om een ​​robot kiekeboe te laten spelen omdat sociale interacties bepaalde vormen van waargenomen intelligentie laten zien. Toen leerde ik over de code-bias: Peekaboo werkt niet als je robot je niet ziet.

[Een paar jaar later] aan het MIT, toen ik [een robot] aan het maken was die zou zeggen: "Hallo, schoonheid", had ik er moeite mee om mijn gezicht te laten detecteren. Ik probeerde een gezicht op mijn hand te tekenen en het ontdekte dat. Ik had toevallig een wit [Halloween]-masker in mijn kantoor. Ik deed het op [en het ontdekte dat]. Ik was letterlijk aan het coderen in whiteface. Ik heb nog een project gedaan waar je met je glimlach "muren kon schilderen". Hetzelfde probleem: mijn gezicht werd niet gedetecteerd, of ik werd als mannelijk bestempeld.

Het boek van Cathy O'Neil Wapens van wiskundige vernietiging praat over de manieren waarop technologie op verschillende groepen mensen anders kan werken of bepaalde sociale omstandigheden kan verergeren, waardoor ik me minder alleen voelde. [Destijds] was ik een resident tutor aan Harvard en de arbeiders in de eetzaal waren in staking. Ik hoorde mensen protesteren en vroeg me af: volg ik gewoon dit comfortabele pad dat ik bewandel of kan ik het risico nemen en vechten voor algoritmische gerechtigheid?

Ik veranderde mijn onderzoeksfocus en begon verschillende systemen te testen die gezichten analyseren. Dat werd het werk van mijn MIT-master, [een project] genaamd Geslacht tinten. Ik verzamelde een dataset van parlementsleden uit drie Afrikaanse landen en drie Europese landen - en ontdekte dat AI-systemen over het algemeen beter werkten op gezichten met een lichtere huid. Over de hele linie werken ze het slechtst bij mensen zoals ik: vrouwen met een donkere huidskleur.

Dr. Buolamwini is het gezicht van Olay's Decode the Bias-campagne.

Fotografie door Naima Green

Zwarte mannen zijn gearresteerd [nadat ze] in verband werden gebracht met valse gezichtsherkenningsmatches. Vijftig procent van de gezichten van volwassenen [is te vinden] in een herkenningsnetwerk dat kan worden doorzocht door wetshandhavers. Je kunt in een line-up worden beschouwd, niet omdat je iets hebt gedaan, maar misschien omdat je je rijbewijs hebt bijgewerkt.

Algoritmisch onrecht heeft zeker gevolgen voor gemarginaliseerde gemeenschappen, maar niemand is immuun. Mensen is de toegang tot hun socialezekerheidsuitkeringen ontzegd. [Deze systemen kunnen] betrokken zijn bij de screening van sollicitaties. Als je de geschiedenis gebruikt om deze systemen te trainen, zal de toekomst eruitzien als het seksistische verleden.

Het is gemakkelijk om aan te nemen dat het, omdat het een computer is, neutraal moet zijn. Het is een verleidelijk idee. Binnen de schoonheidsruimte, wanneer je [op internet] zoekt naar 'mooie huid' of 'mooie vrouw', is het eurocentrische schoonheid [die wordt vertegenwoordigd]. Wanneer we machines trainen, worden ze een spiegel voor onze eigen beperkingen in de samenleving. We moeten blijven evolueren naar een bredere vertegenwoordiging.

Ik werkte met Olay aan hun Decodeer de bias campagne [om meer vrouwen te inspireren om een ​​loopbaan in STEM na te streven]. Bij een audit van hun Skin Advisor-systeem, dat de afbeeldingen van mensen analyseert om productaanbevelingen te doen, hebben we vooringenomenheid gevonden. Vervolgens heeft Olay toezeggingen gedaan om die problemen te verminderen. Voor mij, als donkere zwarte vrouw, om het gezicht te zijn van zo'n campagne... Er is hoop.

Dat is waar we op aandringen met [mijn non-profit], de Algoritmische Justice League: [querying bias] als de standaardmanier om deze systemen te maken. Het moet vanaf het begin deel uitmaken van het gesprek - niet iets dat gebeurt nadat iemand is gearresteerd. — Zoals verteld aan Dianna Mazzone

Dit verhaal verscheen oorspronkelijk in het nummer van Allure van augustus 2022.Lees hier hoe u zich kunt abonneren.


Lees meer over vrouwen in STEM:

  • De genieën achter enkele van de meest innovatieve nieuwe huidverzorgingsmerken
  • Waarom Millennial Women in Beauty Bitcoin omarmen
  • Hoe het echt is om cosmetisch chemicus te zijn

Bekijk nu de hele dagelijkse routine van een arts:

Vergeet Allure niet te volgen opInstagramenTwitter.

insta stories