Apple будет проверять фото на iPhone пользователей, чтобы защитить детей от сексуального насилия
Unsplash

Компания Apple будет сканировать библиотеки фотографий владельцев iPhonе. Так компания будет проверять наличие в них фотографий с изображением сексуального насилия над детьми.

Сначала специальное программное обеспечение neuralMatch будут устанавливать только на устройства в США, сообщает BBC.

Если система определит, что владелец iPhone сохраняет незаконные изображения, она предупредит работников Apple, которые могут передать данные в полицию.

Для выявления изображений сексуального насилия над детьми Apple будет использовать фото, предоставленные Национальным центром поиска пропавших и эксплуатируемых детей США.

Программа сможет сравнивать изображения с телефонов пользователей с базой данных. Также система сможет фиксировать отредактированные версии фото.

Apple заявляет, что их технология очень точная и «гарантирует менее одной ошибки на 1 трлн случаев в год». После системы каждое совпадение вручную будет проверять специалист.

Хотя компанию поддержали группы защиты детей, некоторые эксперты опасаются, что технологию в будущем могут использовать авторитарные режимы для получения доступа к личным данным жителей своих стран.

Также некоторые специалисты считают, что систему теоретически можно использовать для фальсификации, отправляя невиновным людям изображения, которые будут совпадать с базой данных.

Apple начинает ввозить технику в Украину и контролировать дилеров в стране