Apple сообщает о новых усилиях по борьбе с изображениями жестокого обращения с детьми —

Apple

На брифинге в четверг днем ​​Apple подтвердила ранее сообщенные планы по развертыванию новой технологии в iOS, macOS, watchOS и iMessage, которая будет обнаруживать потенциальные изображения жестокого обращения с детьми, но прояснила важные детали текущего проекта.

Для устройств в США новые версии iOS и iPadOS, которые будут выпущены этой осенью, содержат «новые приложения криптографии, которые помогают ограничить распространение CSAM [материалов о сексуальном насилии над детьми] в Интернете, при этом обеспечивая конфиденциальность пользователей».

Проект также подробно описан на новой странице «Безопасность детей» на веб-сайте Apple. Самая инвазивная и потенциально спорная реализация — это система, которая выполняет сканирование на устройстве перед резервным копированием изображения в iCloud. Из описания следует, что сканирование не происходит до тех пор, пока файл не будет скопирован в iCloud, и Apple получит данные о совпадении только в том случае, если криптографические ваучеры (загруженные в iCloud вместе с изображением) для конкретной учетной записи соответствуют пороговому значению сопоставления с известным CSAM. .

В течение многих лет Apple использовала хэш-системы для сканирования изображений жестокого обращения с детьми, отправленных по электронной почте, в соответствии с аналогичные системы у Gmail и других поставщиков облачной электронной почты. Объявленная сегодня программа будет применять такое же сканирование к пользовательским изображениям, хранящимся в iCloud Photos, даже если изображения никогда не будут отправлены другому пользователю или иным образом переданы.

В PDF-файле, предоставленном вместе с брифингом, Apple обосновала свои действия для сканирования изображений, описав несколько ограничений, включенных для защиты конфиденциальности.

Новые подробности основаны на проблемах, просочившихся ранее на этой неделе, но также добавляют ряд мер безопасности, которые должны защитить от рисков конфиденциальности такой системы .

В частности, система пороговых значений гарантирует, что при одиночных ошибках не будут генерироваться предупреждения, что позволяет Apple достичь показателя ошибки в одно ложное предупреждение на триллион пользователей в год. Система хеширования также ограничена материалами, отмеченными Национальным центром пропавших без вести и эксплуатируемых детей (NCMEC), и изображениями, загруженными в iCloud Photos. После создания предупреждения оно проверяется Apple и NCMEC перед тем, как уведомить правоохранительные органы, что обеспечивает дополнительную защиту от использования системы для обнаружения содержимого, не относящегося к CSAM.

Apple заказала техническую оценку системы у трех независимых экспертов. криптографов (PDF-файлы 1, 2 и 3), которые сочли его математически надежным. «По моему мнению, эта система, вероятно, значительно увеличит вероятность того, что будут найдены люди, которые владеют такими изображениями или продают их (вредоносные пользователи); это должно помочь защитить детей », — сказал профессор Дэвид Форсайт, заведующий кафедрой информатики в Университете штата Иллинойс, в одной из оценок. «Точность системы сопоставления в сочетании с пороговым значением делает очень маловероятным то, что изображения, которые не являются известными изображениями CSAM, будут обнаружены».

Однако Apple заявила, что другие группы безопасности детей, вероятно, будут добавлены в качестве хэш-источников по мере расширения программы, и компания не взяла на себя обязательство делать список партнеров общедоступным в будущем. Это, вероятно, усилит опасения по поводу того, как система может быть использована правительством Китая, которое давно стремится расширить доступ к данным пользователей iPhone внутри страны.

Наряду с новыми мерами в iCloud Photos, Apple добавила две дополнительные системы для защиты молодых владельцев iPhone от риска жестокого обращения с детьми. Приложение «Сообщения» уже провело на устройстве сканирование прикрепленных изображений для детских аккаунтов на предмет обнаружения потенциально сексуального содержания. После обнаружения содержимое становится размытым и появляется предупреждение. Новый параметр, который родители могут включить в своих семейных учетных записях iCloud, будет запускать сообщение, сообщающее ребенку, что если он просматривает (входящее) или отправляет (исходящее) обнаруженное изображение, их родители получат сообщение об этом.

Apple также обновляет то, как Siri и приложение Search отвечают на запросы о изображениях жестокого обращения с детьми. В рамках новой системы приложения «будут объяснять пользователям, что интерес к этой теме вреден и проблематичен, и предоставлять ресурсы от партнеров для получения помощи в решении этой проблемы».