Бесплатно Экспресс-аудит сайта:

21.08.2021

Система сканирования CSAM от Apple может спровоцировать преследования по всему миру

Более девяноста правозащитных групп со всего мира подписали письмо, в котором осуждают планы Apple сканировать устройства на предмет запрещенного контента, связанного с насилием над детьми (Child Sexual Abuse Material, CSAM). По словам правозащитников, техногигант может ввести «цензуру, слежку и преследования на глобальной основе».

Напомним, ранее Apple сообщила о разработке системы сканирования фотографий пользователей iPhone на предмет незаконных снимков. Как сообщается, снимки будут просматриваться программой с целью поиска запрещенных фотоматериалов, таких как детская порнография или иная эксплуатация несовершеннолетних. Система предназначена для работы на устройствах пользователей Apple. Если в галерее обнаруживается подозрительный контент, то снимки отправляются сотрудникам на проверку.

Базирующаяся в США некоммерческая организация Center for Democracy and Technology написала открытое письмо, в котором призвала Apple отказаться от своего подхода к массовому сканированию. Подписавшиеся стороны включают такие организации, как Liberty и Big Brother Watch, Tor Project и Privacy International.

В письме высказываются опасения по поводу точности технологии Apple, поскольку такого рода алгоритмы «склонны ошибочно отмечать произведения искусства, информацию о здоровье, образовательные ресурсы, пропагандистские сообщения и другие изображения». Кроме того, могут возникнуть последствия от вмешательства правительств.

«Как только эта возможность будет встроена в продукты Apple, компания и ее конкуренты столкнутся с огромным давлением и, возможно, с юридическими требованиями со стороны правительств всего мира с целью сканировать фотографии не только на предмет CSAM, но и других изображений, которые правительство сочтет нежелательными», — говорится в письме.

По словам правозащитников, изображения могут содержать нарушения прав человека, быть связаны с политическими протестами, якобы террористические или экстремистские материалы, или даже нелестные изображения тех самых политиков, которые будут оказывать давление на компанию. Подобное давление может касаться всех изображения, хранящиеся на устройстве, а не только загруженных в iCloud. Таким образом, Apple заложит основу для цензуры, слежки и преследований во всем мире.

Недоверие пользователей к новой системе только возросло, когда исследователи в области кибербезопасности представили коллизию встроенной в iOS хэш-функции. Проблема затрагивает алгоритм хэширования NeuralHash, позволяющий Apple проверять контент пользователей на наличие изображений детской порнографии, совпадающих с изображениями из баз данных Национального центра пропавших без вести и эксплуатируемых детей (National Center for Missing & Exploited Children, NCMEC). При этом к фотографиям, отсутствующим в базах данных, а также к другой информации пользователей у компании доступа не будет.