Apple: наш антипедофильский алгоритм не обманешь

Apple

На этой неделе в iOS 14.3 был обнаружен код алгоритма NeuralHash, который будет использоваться для поиска детского порно у пользователей iPhone. Выяснилось, что этот алгоритм легко обойти — достаточно перевернуть или кадрировать фотографию, и он не сможет сопоставить её с запрещённым контентом из своей базы.

Компания Apple прокомментировала эту находку. По её словам, NeuralHash лишь часть алгоритма для поиска детского порно, а весь механизм будет гораздо сложнее и надёжнее, поэтому обмануть его не удастся. Она также обозначила лимит запрещённых снимков: если у пользователя будет обнаружено более 30 фотографий, на которых изображено насилие над детьми, информация об этом человеке будет передана правоохранительным органам.

Компания Apple также подчеркнула, что в iOS 14.3 содержится не финальная версия алгоритма NeuralHash, а его тестовый вариант (который, к тому же, не активирован). К выпуску iOS 15 этот алгоритм будет значительно усовершенствован, а многоуровневая проверка снимков исключит ложные срабатывания и ошибки при сравнении снимков с базой запрещённого CSAM-контента.


iGuides в Telegram — t.me/igmedia
iGuides в Яндекс.Дзен — zen.yandex.ru/iguides.ru

Статья в оригинале

Поделиться ссылкой:

READ  Чем запомнился январь 2020? - Mobile-review

Добавить комментарий