Apple перевірить медіатеки всіх користувачів США. Компанія буде шукати матеріали, що містять насильство над дітьми

Apple оголосила про свої наміри протестувати нову систему для iOS і iPadOS, яка здатна виявляти в iCloud зображення з сексуальним насильством над дітьми (CSAM).


Зараз дана технологія буде випробувана лише на користувачів iPhone в США, проте, можливо, вона пошириться і на інші країни в подальшому


Експерти вже висловили свої побоювання з приводу політики конфіденційності даної технології. Вони вважають, що вона може бути використана авторитарними урядами для стеження за своїми громадянами.

Однак Apple заявила, що в нових версіях iOS і iPadOS, які повинні бути випущені пізніше в цьому році, «програми криптографії, які допоможуть обмежити поширення CSAM в Інтернеті» будуть дотримуватися конфіденційності користувачів.

Система не буде сканувати всі фотографії користувачів в iCloud, вона лише буде зіставляти хеш-суми (цифрові відбитки) фотографій з базою даних відомих зображень сексуального насильства над дітьми, зібраних Національним центром США за зниклими і експлуатованими дітьми (NCMEC) та іншими організаціями з безпеки дітей. Apple заявляє, що технологія також буде «вловлювати» відредаговані, але схожі версії оригінальних зображень.

«Перш ніж зображення буде збережено в фотографіях iCloud, воно пройде через процес зіставлення з відомими хешами», - йдеться в повідомленні Apple. Компанія стверджує, що система володіє «надзвичайно високим рівнем точності і забезпечує менше одного шансу з трильйона в рік невірно позначити обліковий запис».

Apple заявляє, що буде вручну переглядати кожен звіт, щоб підтвердити наявність збігу. Потім компанія може зробити кроки для відключення облікового запису користувача і повідомити про це в правоохоронні органи.

COM_SPPAGEBUILDER_NO_ITEMS_FOUND