Система сканування фотографій користувачів для пошуку сцен насильства над дітьми повинна була запрацювати з виходом iOS 15, тобто вже цієї осені. Але тепер плани змінились.

Цікаво Ноутбук чи стаціонарний комп'ютер: що обрати

Що тепер

Як заявляє компанія, вона прислухалась до думок користувачів, правозахисних організацій, дослідників з питань інформаційної безпеки та інших зацікавлених осіб і вирішила не поспішати з запуском технології.

Найближчим часом Apple збиратиме відгуки та думки, щоб краще зрозуміти ситуацію. Після цього технологію допрацюють. В неї внесуть необхідні зміни, щоб не залишилося сумнівів у тому, що вона буде використовуватися тільки з благою метою.

Відповідно, мова не йде про відмову від технології, а лише про її тимчасове перенесення.

Пояснення не вгамували незадоволених користувачів. Вони бачать в цьому загрозу, адже рано чи пізно технологія може перетворитися на засіб цензури з боку авторитарних держав та їх урядів – алгоритм можна легко переналаштувати на пошук контенту, який вважається забороненим у конкретній країні. Постраждати можуть активісти, журналісти, правозахисники, політичні опоненти.

Компанія нічого не сказала про сканування електронної пошти. Два тижні тому керівник інформаційної служби Ерік Фрідман зізнався, що Apple включила технологію сканування даних iCloud Mail на предмет дитячої порнографії не 6 серпня, а три роки тому. Так само нічого не повідомили й про ймовірне перенесення сканування повідомлень неповнолітніх в iMessage – ця технологія повідомлятиме батьків, що їхня дитина подивилась або відправила порнографічні зображення на своєму смартфоні чи планшеті.