Технологии

Apple доказала невозможность ложных срабатываний алгоритма для поиска детской порнографии в iCloud Фото

204

Компания Apple официально заявила, что версия NeuralHash, которую обнаружил в iOS 14.3 разработчик Асухариет Ивгар, кардинально отличается от финальной реализации алгоритма CSAM для поиска детской порнографии на iPhone и iPad.

Ранее мы рассказывали, что разработчик Асухариет Ивгар нашёл в iOS 14.3 алгоритм NeuralHash, который Apple использует для обнаружения материалов сексуального насилия над детьми (CSAM) в iCloud Photos. Он даже реконструировал код на языке Python и разместил его на GitHub.

Как выяснилось, алгоритм не работает должным образом в случае, если два разных изображения имеют один и тот же хэш. То есть система может принять другое фото, без каких-либо намёков на запрещённый контент, за материалы сексуального насилия над детьми и отправить данные в спецотдел Apple.

Теперь представители Apple официально заявили, что версия NeuralHash, обнаруженная в iOS 14.3, не соответствует тому, как будет работать финальный алгоритм CSAM. Более того, компания выложила подробности об алгоритме в свободный доступ для проверки исследователями безопасности. Стоит отметить, что у Apple по-прежнему держит в секрете вторую часть алгоритма на своих серверах. Именно он проверяет соответствие CSAM после превышения допустимого порога в 30 совпадений. Таким образом, компания доказала, что алгоритм невозможно обмануть.

Напоминаем, что Apple планирует внедрить систему NeuralHash CSAM в iOS 15 и iPadOS 15 в США к концу 2021 года.

Приобрести новый iPhone или другой гаджет Apple по хорошей цене вы можете в магазине AJ.ru. Нашим читателям — скидка по промокоду Digger.

Редакция Digger ведёт канал в «Яндекс.Дзене». Подписывайтесь!

0 комментариев

Написать комментарий