Большинство систем распознавания лиц изо всех сил пытаются распознать чернокожих женщин

  • Aug 03, 2022
instagram viewer

Я заинтересовался информатикой, когда мне было девять лет. Я смотрел PBS, и они брали интервью у кого-то из Массачусетского технологического института, который создал социального робота по имени Кисмет. У него были большие уши, которые двигались. Оно могло улыбаться. Я не знал, что вы можете сделать это с машинами. Итак, с самого детства я думал, что хочу стать инженером-робототехником и собираюсь поступить в Массачусетский технологический институт.

В конце концов, я поступил в Массачусетский технологический институт, но поступил в Технологический институт Джорджии, чтобы получить степень бакалавра. Я работал над тем, чтобы заставить робота играть в прятки, потому что социальные взаимодействия показывают некоторые формы воспринимаемого интеллекта. Именно тогда я узнал о предвзятости кода: Peekaboo не работает, когда твой робот тебя не видит.

[Несколько лет спустя] в Массачусетском технологическом институте, когда я создавал [робота], который говорил: «Привет, красавица», я изо всех сил пытался заставить его распознать мое лицо. Я попытался нарисовать лицо на руке, и он это обнаружил. У меня в офисе оказалась белая [хэллоуинская] маска. Я надел его [и он это обнаружил]. Я буквально кодировал в whiteface. Я сделал еще один проект, где можно было «раскрашивать стены» своей улыбкой. Та же проблема: либо мое лицо не было обнаружено, либо когда оно было обнаружено, я был помечен как мужчина.

Книга Кэти О'Нил Оружие математического разрушения рассказывает о том, как технологии могут по-разному воздействовать на разные группы людей или ухудшать определенные социальные условия, из-за чего я чувствовал себя менее одиноким. [В то время] я был репетитором в Гарварде, и работники столовой бастовали. Я слышал, как люди протестовали, и задавался вопросом: просто ли я следую этому удобному пути, на котором я иду, или я могу рискнуть и бороться за алгоритмическую справедливость?

Я изменил фокус своего исследования и начал тестировать разные системы, которые анализируют лица. Это стало моей магистерской работой в Массачусетском технологическом институте, [проект] под названием Гендерные оттенки. Я собрал набор данных членов парламента из трех африканских стран и трех европейских стран и обнаружил, что системы искусственного интеллекта в целом лучше работают на лицах со светлой кожей. По всем направлениям они хуже всего действуют на людей, больше всего похожих на меня: темнокожих женщин.

Доктор Буоламвини является лицом кампании Olay Decode the Bias.

Фотография Наимы Грин

Чернокожие были арестованы [после того, как] были связаны с ложными совпадениями распознавания лиц. Пятьдесят процентов лиц взрослых [можно найти] в сети распознавания, которую могут найти правоохранительные органы. Вас могут считать в очереди не потому, что вы что-то сделали, а, может быть, потому, что вы обновили водительское удостоверение.

Алгоритмическая несправедливость, безусловно, влияет на маргинализированные сообщества, но никто не застрахован. Людям было отказано в доступе к их социальным пособиям. [Эти системы могут] участвовать в проверке заявлений о приеме на работу. Если вы используете историю для обучения этих систем, будущее будет похоже на сексистское прошлое.

Легко предположить, что, поскольку это компьютер, он должен быть нейтральным. Это соблазнительная идея. В пространстве красоты, когда вы ищете [в Интернете] «красивую кожу» или «красивую женщину», [представляется] европоцентричная красота. Когда мы обучаем машины, они становятся зеркалом наших ограничений в обществе. Мы должны продолжать двигаться к более широкому представительству.

Я работал с Олаем над их Расшифровать предвзятость кампания [чтобы вдохновить больше женщин на карьеру в STEM]. В ходе аудита их системы Skin Advisor, которая анализирует изображения людей, чтобы давать рекомендации по продуктам, мы обнаружили предвзятость. Затем Олай взял на себя обязательства [смягчить] эти проблемы. Для меня, темнокожей чернокожей женщины, быть лицом такой кампании... Есть надежда.

Это то, к чему мы стремимся с [моей некоммерческой организацией], Алгоритмическая лига справедливости: [предвзятость вопрошания] как способ создания этих систем по умолчанию. Это должно быть частью разговора с самого начала, а не тем, что происходит после того, как кого-то арестовали. — Как рассказала Дайанна Маццоне

Эта история впервые появилась в августовском номере журнала Allure за 2022 год.Узнайте, как подписаться здесь.


Узнайте больше о женщинах в STEM:

  • Гении, стоящие за некоторыми из самых инновационных брендов по уходу за кожей
  • Почему миллениалы в красоте выбирают биткойн
  • Как на самом деле быть химиком-косметологом

Теперь посмотрите весь распорядок дня врача:

Не забудьте подписаться на Allure вИнстаграма такжеТвиттер.

insta stories