Понравилось? Поделитесь с друзьями!

Apple разработала новый инструмент для поиска изображений жестокого обращения с детьми и детской порнографии прямо на iPhone пользователей. Нейросеть будет распознавать запрещённые фото в памяти устройства.

ПО будет анализировать изображения с телефона пользователя и сравнивать их с имеющимися в базе сценами детского насилия. В случае нахождения совпадений, проверять контент будут уже модераторы.

Речь идёт о локальном сканировании изображений — выполнять его будет само пользовательское устройство. Данные не будут передаваться в облако — это поможет защитить личную информацию.

Подобные алгоритмы хеширования уже используют в iCloud при выгрузке фото. Схожий механизм и у системы машинного обучения, при помощи которой Apple Photo распознаёт объекты.

При этом эксперты по криптографии и безопасности отмечают, что последствия использования инструмента могут быть негативными. Во-первых, алгоритмы хеширования не являются надёжными и могут давать ложные срабатывания. Также если Apple разрешит правительствам контролировать базу контента пользователей, то её могут использовать не только для поиска запрещённых фото, но и, к примеру, для подавления политической активности.

– Исследователь продемонстрировал, как уязвимости в IoT могут испортить отдых в отеле
– «СберМаркет» назвал топ-3 категории продуктов, которые покупают россияне
– Delivery Club совместно с Skillbox раздали 150 курьерам гранты на обучение новой профессии

Источник: dev.by

 

Понравилось? Поделитесь с друзьями!
– Больше новостей – в нашем Телеграме –

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий
Пожалуйста, введите свое имя

+ 44 = 52