Apple начнет сканировать локальные медиатеки владельцев iPhone с целью выявления детской порнографии
Apple готовится к запуску функции neuralMatch, предназначенной для локального сканирования пользовательских фотоснимков, хранящихся на iPhone без загрузки копий в облачное хранилище. В случае обнаружения незаконных фотоснимков система будет ставить об этом в известность сотрудников корпорации.
Для обучения нейросети neuralMatch специалисты Apple использовали 200 тыс. изображений. Во время сканирования хранящиеся в памяти iPhone снимки будут сравниваться с образцами из базы данных.
Каждой загружаемой в iCloud фотографии будет присваиваться метка. По ней можно будет определить, является ли снимок подозрительным или нет. Подозрительные снимки будут расшифровываться корпорацией и передаваться в компетентные органы.
Фотоснимка в iCloud уже сканируются Apple с целью выявления случаев насилия над детьми. Корпорация сообщила об этом в начале минувшего года. Какая именно технология для этого используется, неизвестно. Компании Google, Twitter и Facebook используют для проверки фотоснимков систему PhotoDNA.