Украинский студент обнаружил предвзятость алгоритмов Twitter и получил за это $3500

Украинский студент обнаружил предвзятость алгоритмов Twitter и получил за это $3500
Фото: из открытых источников
Выяснилось, что алгоритм обрезки изображений Twitter предпочитает более молодые, стройные лица с более светлой кожей.
Уроженец Украины Богдан Кулинич, аспирант в швейцарском университете EPFL, доказал предвзятость алгоритмов Twitter для редактирования фото.

Выяснилось, что алгоритм обрезки изображений Twitter предпочитает более молодые, стройные лица с более светлой кожей. Этот вывод, хотя и негативно влияет на компанию, которая ранее приносила извинения пользователям после сообщений о предвзятости, знаменует собой успешное завершение первой в истории «награды за алгоритмические ошибки» в Twitter.

Компания заплатила $3500 Богдану Кулиничу. Он продемонстрировал предвзятость в алгоритме, который используется для фокусировки превью изображений на наиболее интересных частях изображений, в рамках конкурса на DEF CON security в Лас-Вегасе.

Кулинич доказал предвзятость, сначала искусственно сгенерировав лица с разными характеристиками, а затем пропустив их с помощью алгоритма обрезки Twitter, чтобы увидеть, на чем ориентировано программное обеспечение.

Поскольку лица были сами по себе искусственными, можно было создавать лица, которые были почти идентичными, но в разных точках спектра тона кожи, ширины, гендера или возраста — и таким образом продемонстрировали, что алгоритм фокусировался на более молодых, стройных и светлых лицах.

«Когда мы думаем о предвзятости в наших моделях, речь идет не только об академических или экспериментальных… но и о том, как это также работает с нашим мышлением в обществе», — сказал на конференции Румман Чоудхури, руководитель группы по этике искусственного интеллекта Twitter.

Twitter подвергся критике в 2020 году из-за своего алгоритма обрезки изображений после того, как пользователи заметили, что он, похоже, регулярно фокусируется на белых лицах — и даже на белых собаках по сравнению с черными.

Компания сначала извинилась, сказав: «Наша команда провела тест на предвзятость перед отправкой модели и не нашла доказательств расовой или гендерной предвзятости в нашем тестировании. Но из этих примеров ясно, что нам нужно провести больше анализа». Однако в более позднем исследовании собственные исследователи Twitter обнаружили очень умеренную предвзятость в пользу белых и женских лиц.

Спор побудил компанию объявить награду за использование алгоритмической защиты от вредоносных ошибок, которая обещала тысячи долларов в виде призов исследователям, которые смогут продемонстрировать вредные результаты работы алгоритма обрезки изображений компании.

Кулинич, лауреат премии, сказал, что у него смешанные чувства по поводу конкурса.

«Алгоритмический ущерб — это не только ошибки. Важно отметить, что многие вредные технологии вредны не из-за несчастных случаев или непреднамеренных ошибок, а из-за своей конструкции. Это происходит за счет максимизации вовлеченности и, в целом, извлечения прибыли за счет переноса затрат на других», — отметил молодой ученый.
Аватар Skibair Ирина Скиба / Skibair
Журналист ATinform

15.08.2021 в 13:38
0.0 из 5 // 0 Кулинич, Алгоритмы, twitter
Комментариев нет. Будь первым!
Оставляя комментарий на нашем сайте, пожалуйста, помните о том, что содержание и тон Вашего сообщения могут задеть чувства реальных людей, непосредственно или косвенно имеющих отношение к данной новости. Проявляйте уважение и толерантность к своим собеседникам даже в том случае, если Вы не разделяете их мнение. Пользователи, которые систематически нарушают правила, а также размещают спам — будут заблокированы!
avatar