Apple начнет сканировать локальные медиатеки владельцев iPhone с целью выявления детской порнографии

Apple готовится к запуску функции neuralMatch, предназначенной для локального сканирования пользовательских фотоснимков, хранящихся на iPhone без загрузки копий в облачное хранилище. В случае обнаружения незаконных фотоснимков система будет ставить об этом в известность сотрудников корпорации.
Для обучения нейросети neuralMatch специалисты Apple использовали 200 тыс. изображений. Во время сканирования хранящиеся в памяти iPhone снимки будут сравниваться с образцами из базы данных.
Каждой загружаемой в iCloud фотографии будет присваиваться метка. По ней можно будет определить, является ли снимок подозрительным или нет. Подозрительные снимки будут расшифровываться корпорацией и передаваться в компетентные органы.
Фотоснимка в iCloud уже сканируются Apple с целью выявления случаев насилия над детьми. Корпорация сообщила об этом в начале минувшего года. Какая именно технология для этого используется, неизвестно. Компании Google, Twitter и Facebook используют для проверки фотоснимков систему PhotoDNA.

У российских пользователей возникли сложности с оплатой подписок Netflix и Spotify

У «Золотой короны» могут возникнуть проблемы с работой в ЕС из-за претензий властей Швеции

Рынок поддельного люкса в Instagram и Facebook начал резко расти

«ВКонтакте» получила статус общественно значимого ресурса

Клиенты СБП смогут оплачивать покупки смартфонами

35 штатов США и Microsoft встали на сторону Epic

Apple вложилась в покупку сервиса AI Music

В Instagram появились трехмерные аватары из метавселенной Meta

Apple стала первой «приземлившейся» компанией из-за рубежа