Apple начнет сканировать локальные медиатеки владельцев iPhone с целью выявления детской порнографии

Apple готовится к запуску функции neuralMatch, предназначенной для локального сканирования пользовательских фотоснимков, хранящихся на iPhone без загрузки копий в облачное хранилище. В случае обнаружения незаконных фотоснимков система будет ставить об этом в известность сотрудников корпорации.
Для обучения нейросети neuralMatch специалисты Apple использовали 200 тыс. изображений. Во время сканирования хранящиеся в памяти iPhone снимки будут сравниваться с образцами из базы данных.
Каждой загружаемой в iCloud фотографии будет присваиваться метка. По ней можно будет определить, является ли снимок подозрительным или нет. Подозрительные снимки будут расшифровываться корпорацией и передаваться в компетентные органы.
Фотоснимка в iCloud уже сканируются Apple с целью выявления случаев насилия над детьми. Корпорация сообщила об этом в начале минувшего года. Какая именно технология для этого используется, неизвестно. Компании Google, Twitter и Facebook используют для проверки фотоснимков систему PhotoDNA.

Сервис Proxy-solutions добавил услугу "Мобильные прокси"

Обзор сервисов для организация двухфакторной аутентификации (2FA) пользователей звонком для сайтов бронирования отелей. 2025 год.

Банк «Держава» ПАО вывел на биржу первую публичную краудлендинговую платформу

Частные инвестиции становятся основным драйвером роста малого бизнеса

BetBoom Team краткая история успеха

Когда для вашего бизнеса подходят только быстрые и сверхбыстрые хостинг-провайдеры

Выбираем поставщика услуг среди быстрых и супербыстрых хостинг-провайдеров

The International 2025: состав фаворитов Dota 2

Скандал в Псковской области