Штучний інтелект допомагає переслідувати не лише власних громадян, а й представників інших національностей, у яких влада країни вбачає загрозу. Все зайшло настільки далеко, що поліція тепер не лише реагує на загрози, які вже виникли, але й намагається спрогнозувати майбутні злочини та протести – все, як у кіно. Забезпечує роботу алгоритмів широка мережа камер спостереження, розгорнута по всій країні.

Цікаво Китайські вчені кажуть, що створили пристрій читання думок, здатний виявити перегляд порнографії

Хто під підозрою

Згідно зі звітом New York Times, сьогодні під пильним наглядом комуністичної партії Китаю перебуває понад 1,4 мільярда людей. Вони "фіксуються поліцейськими камерами, які встановлені скрізь від кутів вулиць і стель у метро до вестибюлів готелів і багатоквартирних будинків. Навіть їхні телефони відстежуються, їхні покупки відстежуються, а їхні онлайн-чати піддаються цензурі.

Зараз навіть їхнє майбутнє знаходиться під наглядом,
– зазначає видання.

Однак найбільше побоювання журналістів-розслідувачів викликало те, що влада, відома своїми порушеннями прав людини, особливу увагу звертає на вразливі групи, такі як етнічні меншини, трудові мігранти, люди з психічними захворюваннями та особи з діагнозом ВІЛ.

  • Почалося все це два роки тому, коли Китай використав ШІ та розпізнавання облич, які потрапили на відеокамери, для відстеження громадян, інфікованих коронавірусом.
  • У той час громадськість висловила занепокоєння з приводу посягань на конфіденційність і згоду.
  • Проте це мало цікавить уряд, тому він, за даними New York Times, почав закуповувати "технологію, яка використовує великі дані спостереження для прогнозування злочинів і протестів до того, як вони відбудуться".
  • Технологія здатна попередити поліцію, якщо, людина, викрита в споживанні наркотиків, робить занадто багато дзвінків на той самий номер, чи сигналізувати офіцерам щоразу, коли людина з історією психічних захворювань наближається до школи.

Наразі неясно, чи застосовують до імовірних "порушників" якісь заходи, якщо порушення фактично не відбулося, а є лише припущеннях штучного інтелекту. Видання зазначає, що такий підхід до забезпечення правопорядку потенційно може "автоматизувати системну дискримінацію та політичні репресії".