Apple ще настрои CSAM системата, за да запази прага на деактивиране на фалшиво положителен положителен делител

Изображение: Apple

Когато Apple обяви плановете си за справяне с материалите за насилие над деца в операционните си системи миналата седмица, тя заяви, че прагът, който е определил за деактивиране на фалшиво положителни акаунти, ще бъде един на трилион годишно.

Някои от действията на начина, по който Apple стигна до този номер, бяха разкрити в а документ [PDF] което дава повече подробности за системата.

Най-спорният компонент от плановете на Купертино беше неговата система за откриване на материал за сексуална злоупотреба с деца (CSAM) на устройството. Той ще включва устройства на Apple, съответстващи на изображения на устройството спрямо списък с известни хешове на изображения на CSAM, предоставени от Националния център за изчезнали и експлоатирани деца на САЩ (NCMEC) и други организации за безопасност на децата, преди изображението да се съхранява в iCloud.

Когато се достигне праг за отчитане, Apple ще инспектира метаданни, качени заедно с шифрованите изображения в iCloud, и ако компанията определи, че това е CSAM, акаунтът на потребителя ще бъде деактивиран и съдържанието ще бъде предадено на NCMEC в САЩ.

В документа се посочва, че хешовете CSAM, използвани от Apple, ще бъдат пресечната точка на две колекции от две организации за безопасност на децата, работещи в различни страни.

„Всички възприемащи хешове, които се появяват само в една база данни на участваща организация за безопасност на децата, или само в бази данни от множество агенции в една суверенна юрисдикция, се изхвърлят от този процес и не се включват в шифрованата база данни CSAM, която Apple включва в операционната система,“ се посочва в документа.

След като хешира срещу 100 милиона изображения, които не са CSAM, Apple откри три фалшиви положителни резултати и нула, когато се използва срещу колекция от порнография за възрастни. Компанията заяви, че приемайки процент на грешки в “най-лошия случай” от един на един милион, тя иска праг на отчитане, за да се гарантира прагът на деактивиране на фалшиво положителен делител от един на трилион.

„Вграждайки допълнителен запас на безопасност, като приемем, че всяка iCloud Photo библиотека е по -голяма от действителната най -голяма, очакваме да изберем първоначален праг на съвпадение от 30 изображения“, се казва в него.

„Тъй като този първоначален праг съдържа драстичен марж на безопасност, отразяващ най-лошото предположение за ефективността в реалния свят, можем да променим прага след продължителна емпирична оценка на фалшиво положителните проценти на NeuralHash-но прагът на съвпадение никога няма да бъде по-нисък от този, който е необходими за създаване на фалшиво положителен процент един към един трилион за всяка дадена сметка. ”

За да се гарантира, че iCloud сървърите на Apple не поддържат преброяване на броя на положителните CSAM изображения, които потребителят има, тяхното устройство също ще произвежда фалшиви метаданни, които Apple нарича ваучери за безопасност. Apple заяви, че нейните сървъри няма да могат да разграничат истинските ваучери от фалшивите, докато не бъде достигнат прагът.

“Процесът на съвпадение на устройството с известна вероятност ще замени истински ваучер за сигурност, който се генерира със синтетичен ваучер, който съдържа само шум. Тази вероятност се калибрира, за да се гарантира, че общият брой синтетични ваучери е пропорционален на прага на съвпадение, “Заяви Apple.

“Най -важното е, че тези синтетични ваучери са собственост на всеки акаунт, а не на системата като цяло. За акаунти под прага на съвпадение само устройството на потребителя знае кои ваучери са синтетични; сървърите на Apple не и не могат да определят този номер и следователно не може да преброи броя на истинските положителни съвпадения. ”

Apple също потвърди, че метаданните ще съдържат копия с ниска разделителна способност на изображенията за човешка проверка и тези копия също се изпълняват срещу хешовете CSAM.

„Този ​​независим хеш е избран да отхвърли малката вероятност прагът на съвпадение да бъде надвишен поради изображения, различни от CSAM, които са били състезателно смутени, за да причинят фалшиви съвпадения на NeuralHash срещу криптирана CSAM база данни на устройството“, каза Apple.

“Ако констатацията на CSAM се потвърди от този независим хеш, визуалните производни се предоставят на рецензенти на Apple за окончателно потвърждение.”

Купертино каза, че системата е проектирана така, че потребителят не трябва да се доверява на Apple, за да знае, че системата “функционира както се рекламира”.

„Моделът на заплаха разчита на техническите свойства на системата, за да се предпази от малката вероятност от злонамерени или принудителни рецензенти и от своя страна разчита на рецензенти да се предпазят от възможността за технически или човешки грешки по -рано в системата“, каза Apple.

Компанията поддържа, че процесът на човешка инспекция ще гарантира, че ако хешовете, различни от CSAM, са добавени към набора за отчитане, материалът няма да бъде предаден от Apple.

„Рецензенти потвърждават само едно: че за акаунт, който е надхвърлил прага на съвпадение, положително съвпадащите изображения имат визуални деривати, които са CSAM“, се казва в него.

“Това означава, че ако изображения, които не са CSAM, някога са били вмъкнати в възприеманата CSAM хеширана база данни на устройството-по невнимание или чрез принуда-няма да има ефект, освен ако рецензенти на Apple също не са информирани какви конкретни изображения, различни от CSAM, трябва флаг (за акаунти, които надвишават прага на съвпадение) и след това бяха принудени да го направят. ”

Компанията повтори, че ще откаже искания за добавяне на изображения, различни от CSAM, към набора от данни.

„Apple също така ще откаже всички искания да инструктира рецензенти да подават доклади за всичко, различно от CSAM материали за акаунти, които надвишават прага на съвпадение“, се посочва в него.

Когато направи първоначалното съобщение, Apple също обяви, че машинното обучение ще бъде използвано в iMessage, за да предупреди родителите, използващи споделяне на семейството, когато детските акаунти са прегледали или изпратили сексуално явни изображения, както и да предупреди детето.

„За детски акаунти на възраст 12 години и по -млади всеки екземпляр от изпратено или получено сексуално изображение ще предупреди детето, че ако продължат да разглеждат или изпращат изображението, на родителите му ще бъде изпратено известие. Само ако детето продължи с изпращането или гледането на изображение след това предупреждение ще бъде изпратено известието “, заяви по -рано Apple.

„За детски акаунти на възраст 13-17 години, детето все още е предупредено и попитано дали иска да види или сподели сексуално явно изображение, но родителите не са уведомени.“

В своя документ Apple казва, че функцията не може да бъде активирана за профили за възрастни и не е активирана по подразбиране.

По въпроса за фалшивите положителни резултати, той казва, че в случай на деца на възраст между 13 и 17 години, ако изображението е неправилно категоризирано и детето го гледа, те ще видят нещо, което не е ясно. За тези под 13 години това може да включва родителска проверка.

„За дете под 13 години, чийто акаунт е включен в функцията, и чиито родители са избрали да получават известия за функцията, изпращането на дете на състезателно изображение или такова, което доброкачествено задейства фалшиво положителна класификация, означава, че ако решат за да продължат през двете предупреждения, те ще видят нещо, което не е сексуално изрично, и ще бъде изпратено известие до техните родители “, каза Apple.

„Тъй като снимката, която е задействала известието, се запазва на устройството на детето, родителите им могат да потвърдят, че изображението не е сексуално откровено.“

Apple също така заяви, че е обмисляла въпроса за принуждаване на възрастен да влезе в акаунт като дете под 13 години, но не е предоставила резолюция, освен да заяви, че неразглеждането на изображенията няма да доведе до изпращане на сигнали.

„Ако функцията е била активирана тайно или злонамерено – например в модела на заплаха за интимно партньорско наблюдение, чрез принуждаване на потребител да се присъедини към Family Sharing с акаунт, който е конфигуриран като принадлежащ на дете под 13 -годишна възраст – потребителят ще получи предупреждение, когато се опитва да види или изпрати сексуално явно изображение “, се казва в него.

“Ако решат да продължат, ще им бъде дадено второ предупреждение, което ще ги уведоми, че разглеждането на изображението ще доведе до изпращане на известие, и ще им даде друг избор дали да продължат. Ако те откажат да продължат, нито фактът, че бяха представени предупреждения, нито решението на потребителя да се откаже, не се изпраща на никого. ”

Публикациите се превеждат автоматично с google translate

Източник: www.zdnet.com