Антипедофильский алгоритм Apple рассекречен. Он оказался примитивным и неэффективным

iPhone

Пользователь Reddit с ником AsuharietYgvar смог рассекретить алгоритм NeuralHash, с помощью которого Apple будет искать у пользователей iPhone и iPad детскую порнографию и изображения жестокого обращения с детьми. Этот алгоритм будет активирован с выпуском iOS 15, но выяснилось, что он уже есть в iOS 14.3.

AsuharietYgvar провёл реверс-инжиниринг кода NeuralHash, воссоздал его на языке Python и выяснил, как работает этот алгоритм. Код выложен на GitHub, ознакомиться с ним может любой желающий.

В текущем состоянии NeuralHash сигнализирует о полном соответствии фотографии, хранящейся у пользователя в iCloud с информацией о снимке, хранящейся в специальной базе изображений, на которых запечатлено жестокое обращение с детьми. Алгоритм очень легко обмануть: он сигнализирует о находке только при полном совпадении снимков, даже если фотография была пережата или изменён её размер, но бессилен в тех случаях, когда исходная картинка обрезана, перевёрнута или зеркалирована. Не исключено, что Apple доработает алгоритм с учётом этих недостатков, иначе педофилы смогут легко обходить эту проверку.

Внедрение алгоритма NeuralHash в iOS вызвало обеспокоенность пользователей и правозащитных организаций. Они опасаются, что Apple обкатает эту технологию на детской порнографии, а в дальнейшем сможет контролировать любой пользовательский контент как в iCloud, так и на самих устройствах.


iGuides в Telegram — t.me/igmedia
iGuides в Яндекс.Дзен — zen.yandex.ru/iguides.ru

Источник статьи

Поделиться ссылкой:

READ  В Telegram появятся полноценные комментарии

Добавить комментарий