Компания Apple будет сканировать библиотеки фотографий владельцев iPhonе. Так компания будет проверять наличие в них фотографий с изображением сексуального насилия над детьми.
Сначала специальное программное обеспечение neuralMatch будут устанавливать только на устройства в США, сообщает BBC.
Если система определит, что владелец iPhone сохраняет незаконные изображения, она предупредит работников Apple, которые могут передать данные в полицию.
Для выявления изображений сексуального насилия над детьми Apple будет использовать фото, предоставленные Национальным центром поиска пропавших и эксплуатируемых детей США.
Программа сможет сравнивать изображения с телефонов пользователей с базой данных. Также система сможет фиксировать отредактированные версии фото.
Apple заявляет, что их технология очень точная и «гарантирует менее одной ошибки на 1 трлн случаев в год». После системы каждое совпадение вручную будет проверять специалист.
Хотя компанию поддержали группы защиты детей, некоторые эксперты опасаются, что технологию в будущем могут использовать авторитарные режимы для получения доступа к личным данным жителей своих стран.
Также некоторые специалисты считают, что систему теоретически можно использовать для фальсификации, отправляя невиновным людям изображения, которые будут совпадать с базой данных.