Насамперед Крейг від імені компанії вибачився за те, як інформацію представили публіці. Крім того, прозвучали вже традиційні заяви про те, що користувачам не варто турбуватися про приватність.

Цікаво ТОП-7 українських YouTube-каналів про технології: цікаво та корисно

Пояснення Apple

  • Першим, на що звернули увагу в інтерв'ю, було те, що сканування повідомлень в iMessage і фотографій в медіатеці (тепер мова не йде про iCloud) – дві абсолютно різні технології. Крейг Федерігі заявив, що їх одночасна презентація була помилковим рішенням, яке викликало плутанину та непорозуміння. І навіть наступні уточнення й коментарі компанії ситуацію не прояснили.
  • Також Федерігі запевнив, що нова система має кілька рівнів захисту. Це означає, що жодні авторитарні держави не отримають до них доступу.
  • У випадку пошуку незаконних зображень з дітьми система подає сигнал лише після тридцяти та більше збігів. З цієї заяви стає зрозуміло, що компанія не заперечує можливі помилкові спрацювання, і тому збільшила кількість допустимих збігів, щоб уникнути промахів. Попри це минулими вихідними у ЗМІ з'явилась інформація, що працівники Apple стурбовані кількістю помилкових спрацювань – їх начебто було аж 800 лише за перший тиждень роботи технології. Тобто кожен з 800 підозрюваних має як мінімум 30 схожих на дитячу порнографію фотографій, які насправді нею не є.
  • Також Крейг Федерігі розповів, що штучний інтелект працює лише з так званими хеш-сумами зображень, які, у випадку збігів, передає на сервери Apple. Якщо це дійсно так, не зовсім зрозуміло, яким чином компанія розуміє, що дійсно зображено на фотографії, оскільки має лише набір з чорних квадратів або символів.

Хеш-суми зображень – це технологія сильного спрощення картинки, коли вона зводиться до ключових елементів у виглядів чорних квадратів на білому фоні. Такий підхід дозволяє отримувати однаковий "слід" від зображення незалежно від його розширення та якості. В результаті алгоритми можуть порівнювати ці схеми та шукати збіги між ними.

  • За словами старшого віцепрезидента, Apple розуміє, що батьки можуть зберігати фотографії своїх дітей у ванній, на горщику або в ліжку. Те ж стосується і власних відвертих фото, які не порушують закон. Але алгоритми працюють інакше: вони порівнюють фото користувачів лише з тими зображеннями, які заздалегідь внесені до спеціальної бази з уже відомими незаконними фотографіями. Раніше повідомлялось, що цю базу Apple надали та продовжують наповнювати неназвані міжнародні організації, що займаються питаннями захисту дітей. Звідки ці ж зображення могли взятися у злочинців – незрозуміло.
  • Аналіз фотографій проводиться виключно на самому пристрої користувача. Нагадаємо, раніше ЗМІ писали про те, що такий аналіз буде відбуватися у сховищі iCloud – це, ймовірно, одне з тих непорозумінь, які виникли після невдалої презентації функцій. Такий підхід виглядає логічніше, адже не всі фото користувачі завантажують в хмарне сховище, проте це ж і робить технологію ще небезпечнішою. Але Крейг вважає, що локальне сканування краще, ніж хмарне, адже експерти, які сумніваються в безпеці та законності дій Apple, зможуть проаналізувати будь-яку збірку iOS і побачити, чи з'явилися там протиправні сценарії. При хмарному скануванні така перевірка була б неможливою.

Дивіться повне інтерв'ю для The Wall Street Journal: відео