Apple перевірятиме фото на iPhone користувачів, щоб захистити дітей від сексуального насильства
Unsplash

Компанія Apple скануватиме бібліотеки фотографій власників iPhonе. Так компанія перевірятиме наявність у них світлин із зображенням сексуального насильства над дітьми.

Спочатку спеціальне програмне забезпечення neuralMatch встановлюватимуть лише на пристрої у США, повідомляє BBC.

Якщо система визначить, що власник iPhone зберігає незаконні зображення, вона попередить працівників Apple, які можуть передати дані до поліції.

Для виявлення зображень сексуального насильства над дітьми Apple використовуватиме фото, що надав Національний центр пошуку зниклих та експлуатованих дітей США.

Програма порівнюватиме зображення з телефонів користувачів із базою даних. Також система зможе фіксувати відредаговані версії фото.

Apple заявляє, що їхня технологія дуже точна та «гарантує менше однієї помилки на 1 трлн випадків на рік». Після системи кожен збіг вручну перевірятиме фахівець.

Хоча компанію підтримали групи захисту дітей, деякі експерти остерігаються, що технологію у майбутньому можуть використати авторитарні режими для отримання доступу до особистих даних жителів своїх країн.

Також окремі фахівці вважають, що систему теоретично можна використати для фальсифікації, надсилаючи невинним людям зображення, які збігатимуться з базою даних.

Apple розробляє сервіс, який дозволить купувати товари у розстрочку — ЗМІ