Exterior view of Googleplex.

Системы ИИ Google могут быть сексистскими и расистскими?

На протяжении многих лет гигант Google сталкивается с обвинениями в этике ИИ. Еще одним поворотом в истории стало решение компании уволить Маргарет Митчелл, которая до недавнего времени была основателем и бывшим руководителем группы по этике ИИ Google. Два месяца назад технический гигант также уволил еще одного руководителя, Тимнит Гебру, которая известна своей работой по выявлению предвзятости в системах распознавания лиц.

Похоже, Google пытается положить конец спорам по поводу своей команды по работе с этикой ИИ, но пока безуспешно. Ранее они объясняли свои действия таким образом – увольнение Гебру произошло по двум причинам: она разослала внутренние электронные письма с критикой компании за цензуру и попытки по разнообразию; также она была не согласна с тем, что технический гигант приказал ей отозвать исследовательскую работу об экологических издержках крупных языковых моделей и закодированной предвзятости.

Согласно данным Google, они уволили Митчелл за публичную критику компании по поводу увольнения Гебру. Они добавили, что она пыталась найти корреспонденцию, связанную с удалением Гебру, которая не предназначалась для всеобщего обнародования.

Однако проблема здесь куда более серьезная, чем кажется. Американский политолог Вирджиния Юбэнкс исследовала в 2010-х годах, как компьютерные программы, оснащенные ИИ, влияют на бедные сообщества в таких местах, как Лос-Анджелес и Питтсбург. Результаты были шокирующими.

Она обнаружила, что государственные и частные системы с поддержкой ИИ, связанные с секторами здоровья, охраны правопорядка и льготами, принимают странные и весьма разрушительные решения на основе ошибочных данных, а также гендерных и этнических предубеждений.

Кроме того, системы ИИ практически непроницаемы, что затрудняет их мониторинг. Фактически невозможно бросить вызов этим системам, когда решения неправильные. По словам Юбэнкс, люди, ставшие жертвами этих стратегий управления бедностью, не смогли защитить себя.

Предубеждения в крупных технологических компаниях – это не новшество. Но как ИИ может их усугубить?

Крупные технологические компании, такие как Google и Amazon, уже столкнулись с многочисленными обвинениями в расизме и сексизме. Одна афроамериканка, бывший техник Тимнит Гебру, проводила кампанию против гендерных и расовых предубеждений с помощью отраслевой группы «Black in AI». Компания уволила ее после того, как она попыталась опубликовать исследовательскую работу об опасностях неограниченных инноваций в области ИИ.

Кроме того, Google и другие компании не просто создают все более крупные платформы ИИ, но и все глубже внедряют их в нашу жизнь. Некоторые инструменты, описанные в статье Гебру, являются ключевыми компонентами поисковых процессов Google.

Несмотря на то, что эти системы ИИ часто обеспечивают исключительное удобство и эффективность, они работают, анализируя невообразимо огромные объемы данных о человеческой деятельности и речи, в поисках закономерностей и корреляций. Эти алгоритмы могут быть весьма разрушительными, если они написаны таким образом, чтобы исключить определенные расы или женщин из результатов поиска.

  • Support
  • Platform
  • Spread
  • Trading Instrument
Comments Rating 0 (0 reviews)