пр. Шереметевский, 87 (Дом Быта), 3 этаж, оф. 66
+7 (4932) 28-66-00Оставить заявку

С помощью анализа фотографий iCloud можно найти маньяка

В прошлом месяц Apple рассказала, что проверяет фотографии, загруженные в iCloud, на наличие признаков детской порнографии. Представитель компании подробно описала механизм этого анализа: его осуществляют специальные алгоритмы, а все кадры остаются конфиденциальными и к ним не имеет доступ ни один живой сотрудник. При обнаружении запрещенных материалов аккаунт, распространяющий их, подлежит блокировке. Вниманием обошли лишь вопрос того, что происходит с самим нарушителем. 

Ситуацию прояснил реальный случай, который прокомментировал один из сотрудников Apple. Если программа распознает на снимке в iCloud насилие над детьми, происходит его автоматическое хеширование. В созданной функции содержится информация, позволяющая сопоставить с кадром остальные файлы пользователя и проверить, нет ли среди них аналогичного контента. Только после этого системного анализа отобранные фотографии могут попасть в руки работников Apple. Сотрудники проверяют достоверность результатов, и, если программа оказалась права, дело доходит до органов власти. 

В отношении насильников компания придерживается жесткой позиции. О пользователях, распространяющих запрещенные фото, властям сообщают всю имеющуюся информацию: имя, адрес, телефон, а в случае необходимости статистику платежей или иных действий. Если система безопасности Apple находит признаки насилия во вложениях к письмам, подобные сообщения не доходят до получателя.  

Таким образом, аккаунты пользователей, не имеющих подозрительных снимков, никогда не будут просмотрены живыми людьми. Многоэтапная программная проверка позволяет сохранить конфиденциальность, если только дело не требует вмешательства полиции. Остается надеяться, что Apple имеет надежную систему защиты, и алгоритмы нельзя взломать извне.

  • С помощью анализа фотографий iCloud можно найти маньяка