Функции ограничения CSAM от Apple: бэкдор к конфиденциальности?

Apple позиционирует себя как один из отличные технологические компании против подобных Facebook и Google за сохранение конфиденциальности пользователей. Однако в последнее время гигант из Купертино был окружен энтузиастами конфиденциальности, которые бросили вызов функциям Apple по предотвращению CSAM.

Раньше Apple застряла в разгроме NSO. Было обнаружено, что внедрить шпионское ПО в iPhone было проще, чем в Android.

Совсем недавно новые функции Apple по ограничению распространения материалов о сексуальном насилии над детьми (CSAM) вызвали у компании разногласия. Критики обвиняют Apple в разработке метода, который может подорвать конфиденциальность миллионов.

Хотя усилия по ограничению CSAM заслуживают одобрения, его реализация вызывает удивление.

Каковы новые функции защиты детей от Apple?

В понедельник Apple активизировала свои усилия по предотвращению распространения CSAM на своих платформах. Компания представила три новых функции который будет доступен с iOS 15.

  • Во-первых, Apple добавляет новые ресурсы в поиск Siri и Spotlight, чтобы помочь пользователям находить ответы на запросы, связанные с CSAM. Эта функция абсолютно безвредна и ничего не меняет с точки зрения конфиденциальности.
  • Во-вторых, Apple изменила свое приложение «Сообщения», добавив опцию родительского контроля, которая будет сканировать полученные и отправленные фотографии в сообщениях на предмет откровенного сексуального содержания для пользователей младше 18 лет. В случае обнаружения оно размывает фотографию, о которой идет речь, и отображает рядом предупреждающее сообщение.

Функции защиты детей от AppleИсточник: Apple

  • Последняя и самая спорная функция — сканирование библиотеки фотографий iCloud на наличие потенциального CSAM.

Как будет работать функция CSAM?

Если пользователь младше 12 лет попытается просмотреть помеченный контент, его родителям будет отправлено уведомление. Примечательно, что Apple будет сканировать фотографии на устройстве, чтобы не знать о содержимом.

Кроме того, функция получения уведомления, если дети обращаются к конфиденциальному контенту, не является обязательной.

Более того, Apple добавит функцию для локального сканирования вашей библиотеки фотографий iCloud на предмет сексуального содержания и сопоставления его с данными CSAM, предоставленными Национальным центром пропавших без вести и эксплуатируемых детей (NCMEC). Если совпадение обнаружено, он сгенерирует «ваучер безопасности» и загрузит его в iCloud.

Как только количество этих талонов безопасности достигает нераскрытого порогового значения, модераторы Apple могут расшифровать фотографии и отсканировать их на наличие CSAM. В случае обнаружения Apple может сообщить об этом аккаунте в правоохранительные органы.

Что говорит Apple?

Хотя все «сканирование через библиотеку фотографий iCloud» звучит смелым и агрессивным шагом, Apple подчеркнула, что эта функция не повлияет на конфиденциальность пользователей. Он будет специально сканировать фотографии, загруженные в ваш iCloud через NeuralHash.

Это инструмент, который присваивает каждой фотографии уникальный идентификатор, скрывая содержание фотографий даже для Apple. Компания подчеркнула, что пользователи могут отключить синхронизацию с функцией iCloud, чтобы остановить сканирование любого типа.

Более того, Apple официальный блог говорит,

Сообщения используют машинное обучение на устройстве для анализа прикрепленных изображений и определения того, является ли фотография сексуально откровенной. Функция разработана таким образом, что Apple не получает доступа к сообщениям.

Итак, почему такой ажиотаж?: Сторона истории критиков

Apple неоднократно подчеркивает, что эти функции созданы с учетом конфиденциальности, чтобы защитить детей от сексуальных хищников, но критики не согласны. В то время как функция сообщений выполняет сканирование на устройстве, Apple по своей сути создает систему отслеживания, которая может иметь катастрофические последствия.

Кендра Альберт из Harvard Cyberlaw Clinic аргументирует тот:

Эти функции «защиты детей» могут оказаться дорогостоящими для гомосексуалистов с неприятие родителей. Их могли избить и выгнать из дома. Она говорит, например, что новая функция может отметить ребенка-педика, отправляющего свои фотографии перехода друзьям.

Представьте себе последствия, которые эта система может иметь в странах, где гомосексуальность еще не является законным. Авторитарные правительства могут попросить Apple добавить контент LGBTQ + в список известных баз данных. Такого выкручивания рук технических агентств мы не видели раньше.

Тем не менее, Apple имеет довольно хорошие репутации против таких запросов. Например, это категорически отрицается запрос ФБР на расшифровку данных с iPhone массового стрелка в 2016 году.

Но в таких странах, как Китай, где Apple хранит данные iCloud локально, это может привести к тому, что Apple согласится с их требованиями. Таким образом, полная угроза конфиденциальности пользователей.

Фонд электронных рубежей говорит тот:

Усилия Apple представляют собой «полностью построенную систему, которая ждет, когда внешнее давление внесет малейшие изменения».

Последняя функция еще более важна с точки зрения конфиденциальности. Сканирование фотографий iCloud явно является нарушением конфиденциальности пользователей. Благодаря этому на вашем iPhone теперь будет функция, которая может сканировать ваши фотографии и сравнивать их с набором незаконного и сексуально откровенного контента.

И все это пока вы просто хотите загрузить свои фотографии в облачное хранилище!

Прошлое Apple против настоящего: растущие опасения

Когда Apple бросила вызов ФБР и отказалась разблокировать iPhone массового убийцы, компания заявила: «Ваше устройство принадлежит вам. Он не принадлежит нам ».

Кажется, что устройство в конце концов принадлежит Apple, потому что вы не можете контролировать, кто смотрит контент вашего устройства.

Пользователи могут утверждать, что их фотографии, по которым щелкнули, принадлежат им, и Apple не имеет права их сканировать. На мой взгляд, для многих это не подлежит обсуждению.

MSNBC сравнил функцию сканирования фотографий Apple iCloud с программным обеспечением NSO pegasus, чтобы дать вам представление о системе наблюдения, которая создается во имя «большего блага». В отчете говорится:

Подумайте о возможностях шпионского ПО, которые израильская компания NSO Group предоставила правительствам якобы для отслеживания террористов и преступников, которые затем использовали некоторые страны для отслеживания активистов и журналистов. А теперь представьте, что те же самые способности жестко запрограммированы в каждом компьютере iPhone и Mac в самолете.

Нетрудно представить себе пагубные последствия реализации этой функции Apple.

Apple хочет, чтобы вы ей доверяли!

С тех пор, как компания объявила об этих функциях, энтузиасты конфиденциальности яростно противодействовали им. В ответ Apple выпустила PDF-файл с часто задаваемыми вопросами о своих инициативах по предотвращению CSAM.

В документе Apple упоминает, что откажется от любых требований государственных органов о добавлении изображений, не относящихся к CSAM, в свой хэш-список. В PDF говорит:

Мы и раньше сталкивались с требованиями создать и внедрить санкционированные правительством изменения, которые ухудшают конфиденциальность пользователей, и категорически отказывались от этих требований. Мы продолжим отказываться от них и в будущем.

В интервью с Techcrunch, Глава Apple по вопросам конфиденциальности Эрик Нойеншвандер попытался решить проблемы, связанные с функциями.

Он сказал: «Устройство все еще зашифровано, у нас все еще нет ключа, и система предназначена для работы с данными на устройстве. То, что мы разработали, имеет компонент на стороне устройства — и, кстати, он имеет компонент на стороне устройства для улучшения конфиденциальности. Альтернатива простой обработки путем прохождения и попытки оценить данные пользователей на сервере на самом деле более подвержена изменениям. [without user knowledge], и меньше защищает конфиденциальность пользователей ».

Похоже, Apple хочет, чтобы вы доверили ей личное содержимое своего телефона. Но кто знает, когда компания откажется от этих обещаний.

Существование такой системы, которая отслеживает контент, которым вы владеете, до того, как он будет зашифрован, открывает банку червей. После того, как они подготовили согласие и установили систему, будет сложно ее ограничить.

Затмевают ли выгоды риски, связанные с новыми функциями безопасности детей Apple?

Хотя Apple прилагает огромные усилия для борьбы с сексуальным насилием над детьми, это не может служить оправданием для просмотра ваших данных. Само существование системы наблюдения создает возможность лазейки в безопасности.

Я считаю, что прозрачность — это ключ к достижению Apple золотой середины. Некоторое юридическое вмешательство может также помочь компании завоевать доверие к ее плану по разрушению CSAM в Интернете.

Тем не менее, внедрение этой системы сводит на нет всю цель шифрования. Компания может начать волну экспериментов, которые потенциально могут оказаться фатальными для конфиденциальности в будущем.

Что еще более важно, это началось с Apple, последней компании, от которой все этого ожидали. Это правда, что вы либо умираете героем, либо живете достаточно долго, чтобы увидеть себя злодеем.

Прочтите другие редакционные статьи:

Похожие записи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *