Apple объявила о расширении функций для защиты детей на всех своих операционных системах — iOS, iPadOS, macOS и watchOS.
Компания начнет размывать откровенные снимки в «Сообщениях», предупреждать родителей о получении и отправке сексуальных фотографий, сканировать контент в iCloud и добавит руководства для безопасности в Siri.
Apple заявила, что хочет защитить детей от «хищников, которые используют средства коммуникации для привлечения и эксплуатации». Все новые опции разработали совместно с экспертами по детской безопасности.
Размытие откровенных снимков в «Сообщениях»
С выходом iOS и iPadOS 15, watchOS 8, macOS Monterey приложение «Сообщения» начнет использовать машинное обучение на каждом устройстве для распознавания откровенного контента. Алгоритмы будут сканировать фотографии, но компания не получит доступ к данным — все будет происходить на самих устройствах.
«Сообщения» будут автоматически размывать снимок в случае получения откровенного контента, а также рассказывать детям о том, что они не могут смотреть подобные фото. Также дети не смогут отправить откровенные снимки — они получат предупреждение, а родителям сообщат, если фото все же будет отправлено или просмотрено.
Проверка iCloud
Новые iOS и iPadOS также будут бороться с распространением контента с сексуальным насилием над детьми (Child Sexual Abuse Material, CSAM). Компания будет распознавать откровенные фото в iCloud и передавать данные властям. В США отчитываться об опасных случаях будут в Национальный центр пропавших и эксплуатируемых детей (NCMEC), который будет работать совместно с местными властями в разных штатах.
Сканирование фото в iCloud также будет приватным — нейросети будут сопоставлять изображения из облачных хранилищ с хешами изображений, предоставленных NCMEC и другими организациями. База данных будет нечитаемым набором хешей, безопасно хранимыми на устройствах.
Руководства безопасности в Siri
Компания будет лучше предупреждать и обучать юных пользователей и их родителей о том, как вести себя в небезопасных ситуациях. Siri и «Поиск» вмешаются, когда пользователи попытаются найти связанные с CSAM данные — система объяснит, что это проблемные и болезненные темы, а также предложит почитать о них подробнее.
Siri будет предлагать дополнительную информацию детям и родителям о том, как реагировать на эксплуатацию детей и сексуальное насилие.
Apple обещает со временем расширять ресурсы для защиты детей. С выходом новых версий систем осенью 2021 года станут доступны новые функции.