Сьогодні контент, що порушує правила соцмережі зазвичай позначають самі користувачі або алгоритми машинного навчання. З найбільш очевидними випадками система справляється автоматично, наприклад, видаляючи публікації, що порушують правила або блокуючи акаунт користувача, який опублікував цей контент. Решта випадків потрапляють на розгляд модераторів, пише The Verge.

Цікаво В Instagram та месенджері Facebook з'явилися самознищувальні повідомлення

Що відомо

У Facebook працюють близько 15 тисяч модераторів в різник куточках світу. Соцмережу неодноразово критикували за те, що адміністрація недостатньо їх підтримує і не наймає більшу кількість персоналу. На цю тему навіть знімали документальні фільми, в яких розкривали питання психологічного здоров'я працівників, які кожного дня стикаються з насиллям різноманітного характеру, жорстокими чи непристойними фото. Завдання модераторів полягає в сортуванні постів зі скаргами, а також прийнятті рішення про те, порушують вони правила соцмережі чи ні.

Раніше модератори розглядали пости в міру публікації. Facebook вирішив змінити підхід для того, щоб в першу чергу розглядати публікації, які набирають більше охоплення і, відповідно, здатні завдати більше шкоди.

Нова модель використовуватиме три критерії для відбору найбільш шкідливих публікацій:

  • вірусність,
  • сюжет публікації,
  • ймовірність того, що вона порушує правила.

Після цього ШІ буде позначати такі публікації, щоб вони піднімалися вище в черзі на розгляд модераторами.

Весь контент, що порушує правила соцмережі, буде, як і раніше, розглядатися людьми, проте використання нової системи дозволить більш ефективно розставляти пріоритети в цьому процесі,
— прокоментували в Facebook.

На думку соцмережі, новий підхід допоможе швидше реагувати і розбиратися з порушеннями правил, що мають широке охоплення.