Первым делом Крейг от имени компании извинился за то, как информацию представили публике. Кроме того, прозвучали уже традиционные заявления о том, что пользователям не стоит беспокоиться о конфиденциальности.

Интересно ТОП-7 украинских YouTube-каналов о технологиях: интересно и полезно

Объяснение Apple

  • Первым, на что обратили внимание в интервью, было то, что сканирование сообщений в iMessage и фотографий в медиатеке (теперь речь не идет об iCloud) – две совершенно разные технологии. Крейг Федериги сказал, что их одновременная презентация была ошибочным решением, которое вызвало путаницу и непонимание. И даже последующие уточнения и комментарии компании ситуацию не прояснили.
  • Также Федериги заверил, что новая система имеет несколько уровней защиты. Это означает, что никакие авторитарные государства не получат к ним доступа.
  • В случае поиска незаконных изображений с детьми система подает сигнал только после тридцати и более совпадений. Из этого заявления становится понятно, что компания не отрицает возможные ложные срабатывания, и поэтому увеличила количество допустимых совпадений, чтобы избежать промахов. Несмотря на это в минувшие выходные в СМИ появилась информация, что работники Apple обеспокоены количеством ложных срабатываний – их якобы было аж 800 только за первую неделю работы технологии. То есть каждый из 800 подозреваемых имеет как минимум 30 похожих на детскую порнографию фотографий, которые на самом деле ею не являются.
  • Также Крейг Федериги рассказал, что искусственный интеллект работает только с так называемыми хэш-суммами изображений, которые, в случае совпадений, передает на серверы Apple. Если это действительно так, не совсем понятно, каким образом компания понимает, что действительно изображено на фотографии, поскольку имеет лишь набор из черных квадратов или символов.

Хэш-суммы изображений – это технология сильного упрощения картинки, когда она сводится к ключевым элементам в виде черных квадратов на белом фоне. Такой подход позволяет получать одинаковый "след" от изображения независимо от его расширения и качества. В результате алгоритмы могут сравнивать эти схемы и искать совпадения между ними.

  • По словам старшего вице-президента, Apple понимает, что родители могут хранить фотографии своих детей в ванной, на горшке или в постели. То же касается и собственных откровенных фото, которые не нарушают закон. Но алгоритмы работают иначе: они сравнивают фото пользователей только с теми изображениями, которые заранее внесены в специальную базу с уже известными незаконными фотографиями. Ранее сообщалось, что эту базу Apple предоставили и продолжают наполнять неназванные международные организации, занимающиеся вопросами защиты детей. Откуда эти же изображения могли взяться у преступников – непонятно.
  • Анализ фотографий проводится исключительно на самом устройстве пользователя. Напомним, ранее СМИ писали о том, что такой анализ будет происходить в хранилище iCloud – это, вероятно, одно из тех недоразумений, которые возникли после неудачной презентации функций. Такой подход выглядит логичнее, ведь не все фото пользователи загружают в облачное хранилище, однако это же и делает технологию еще более опасной. Но Крейг считает, что локальное сканирование лучше, чем облачное, ведь эксперты, которые сомневаются в безопасности и законности действий Apple, смогут проанализировать любую сборку iOS и увидеть, появились ли там противоправные сценарии. При облачном сканировании такая проверка была бы невозможной.

Смотрите полное интервью для The Wall Street Journal: видео