В рамках проведеного конкурсу учасникам пропонували знайти й довести недосконалості у роботі алгоритмів соціальної мережі. Богдан Кулинич виявив неприємну особливість штучного інтелекту соцмережі, через яку компанія потрапила під шквал критики у 2020 році, коли звичайні користувачі почали помічати деякі прояви расизму.

Цікаво Грайте з комфортом: ґеймерські аксесуари для тих, хто прагне перемоги

Алгоритм-расист

Помилка була знайдена в алгоритмі, який автоматично створює прев'ю з великих зображень. Працює він ще з 2018 року.

Для перевірки упередженості програміст штучно створив набір портретів схожих людей, проте різних за віком і кольором шкіри.

Штучні портрети, які брали участь в аналізі
Штучні портрети, які брали участь в аналізі / Фото Богдан Кулинич/github

Оскільки це були штучні зображення, дослідник міг створювати їх у великих кількостях з мінімальними відмінностями, щоб перевірити як зреагують алгоритми на практично одне й те ж обличчя, але з різними особливостями – наприклад старше чи молодше, зі зморшками чи без.

Портрети пройшли через алгоритм Twitter для подальшої обрізки у формат прев'ю. В результаті аналізу виявилось, що алгоритм частіше фокусується на обличчях струнких людей зі світлою шкірою. Тоді як зображення темношкірих людей можуть і зовсім не потрапити на фінальне прев'ю.

Богдан Кулинич отримав за свою роботу 3 500 доларів.