作为扩大儿童安全计划的一部分,苹果公司将会添加旨在审查 Messages 应用程序和 iCloud 相册的功能。
苹果公司审查的目标是色情内容, Messages 将会为儿童用户接触的色情图片做模糊处理并通知他们的父母,但这不会使苹果公司获知消息内容本身。
与此同时,苹果公司会审查任何上传到 iCloud 相册中的内容是否与儿童色情(CSAM)有关。在上传相册前,APPLE 会针对该图像与内嵌在系统中的一个已知CSAM(儿童色情)哈希值集进行匹配。
如果配对成功,设备就会创建一个加密安全凭证,该凭证与图像一起被上传到 iCloud Photos,一旦配对数量达到一定阈值,苹果就能解密该内容。苹果公司还采用了名为“神经网络哈希算法”的技术,使简单的裁剪修改无法规避苹果的检测。
苹果公司解释说,利用另一项称为阈值秘密共享的技术,该系统确保安全凭证的内容不能被苹果公司解密,除非 iCloud 照片账户跨越已知CSAM内容的阈值。该阈值的设置是为了提供极高的准确性,并确保每年错误标记一个特定账户的几率小于一万亿分之一。
这些被检测到的图像最终会经过人工审查,以确认是否存在匹配。此后苹果公司将会封禁用户 iCloud 账户,并向 NCMEC 发送一份报告,并与美国各地的执法机构合作。
这项功能将在 iOS 15, iPadOS 15, watchOS 8 和 macOS Monterey 的更新中推出,并首先在美国施行。