Фото https://inforesist.org

Apple разработала новый инструмент для поиска изображений жестокого обращения с детьми и детской порнографии прямо на iPhone пользователей. Нейросеть будет распознавать запрещённые фото в памяти устройства, пишет dev.by.

ПО будет анализировать изображения с телефона пользователя и сравнивать их с имеющимися в базе сценами детского насилия. В случае нахождения совпадений, проверять контент будут уже модераторы.

Речь идёт о локальном сканировании изображений — выполнять его будет само пользовательское устройство. Данные не будут передаваться в облако — это поможет защитить личную информацию.

Подобные алгоритмы хеширования уже используют в iCloud при выгрузке фото. Схожий механизм и у системы машинного обучения, при помощи которой Apple Photo распознаёт объекты.

При этом эксперты по криптографии и безопасности отмечают, что последствия использования инструмента могут быть негативными. Во-первых, алгоритмы хеширования не являются надёжными и могут давать ложные срабатывания. Также если Apple разрешит правительствам контролировать базу контента пользователей, то её могут использовать не только для поиска запрещённых фото, но и, к примеру, для подавления политической активности.

Поделиться ссылкой: