扫描不良图片引争议,苹果发布 FAQ 进行说明

IT之家 8 月 9 日消息 苹果公司发布了题为“扩大对儿童的保护”的常见问题(FAQ) , 旨在消除用户对该公司上周宣布的 iCloud 照片中的 CSAM(儿童受虐材料)检测和信息通信安全功能的隐私担忧 。
扫描不良图片引争议,苹果发布 FAQ 进行说明
文章图片

文章图片
“自从我们宣布这些功能以来 , 包括隐私组织和儿童安全组织在内的许多利益相关者都表示支持这个新的解决方案 , 有些人还提出了一些问题 , ”FAQ 中写道 , “这份文件的作用是解决这些问题 , 并在这个过程中提供更多的清晰度和透明度 。”
苹果在文件中称 , 信息中的通信安全“只对家庭共享中设置的儿童账户在信息应用中发送或接收的图像有效” , 而 iCloud 照片中的 CSAM 检测“只影响选择使用 iCloud 照片存储其照片的用户...... 对任何其他设备上的数据没有影响 。”
FAQ 中写到:
这两个功能是不一样的 , 也没有使用相同的技术 。
信息中的通信安全旨在为家长和儿童提供额外的工具 , 以帮助保护他们的孩子避免在信息应用中发送和接收色情图片 。它只对在家庭共享中设置的儿童账户在信息应用中发送或接收的图像起作用 。它在设备上分析图像 , 因此不改变信息的隐私保证 。当儿童账户发送或接收色情图片时 , 照片将被模糊化 , 儿童将被警告 , 并提供有用的资源 , 并保证如果他们不想查看或发送照片也没关系 。作为额外的预防措施 , 还可以告诉年幼的孩子 , 为了确保他们的安全 , 如果他们真的查看了照片 , 他们的父母会收到一条信息 。
第二项功能 , 即 iCloud 照片中的 CSAM 检测 , 旨在将 CSAM 挡在 iCloud 照片之外 , 而不向苹果提供任何与已知 CSAM 图像相匹配的照片的信息 。在大多数国家 , 包括美国 , 拥有 CSAM 图像是非法的 。这项功能只影响选择使用 iCloud 照片来存储照片的用户 。它不影响没有选择使用 iCloud 照片的用户 。对任何其他设备上的数据都没有影响 。该功能不适用于信息 。
该文件的其余部分分为三个部分(以下为黑体字) , 并对以下常见问题进行了解答:
信息中的通信安全
谁可以在信息中使用通信安全?
这是否意味着信息将与苹果或执法部门共享信息?
这是否会破坏信息中的端到端加密?
这项功能是否会阻止受虐待家庭的儿童寻求帮助?
在儿童没有得到警告和选择的情况下 , 父母是否会得到通知?
CSAM 检测
这是否意味着苹果要扫描我的 iPhone 上存储的所有照片?
这是否会将 CSAM 图像下载到我的 iPhone 上 , 与我的照片进行对比?
为什么苹果现在要这样做?
iCloud 照片的 CSAM 检测的安全性
iCloud 照片中的 CSAM 检测系统能否被用来检测 CSAM 以外的东西?
政府能否迫使苹果公司将非 CSAM 图像添加到哈希列表中?
能否将非 CSAM 图像“注入”系统 , 以标记 CSAM 以外的账户?
iCloud 照片中的 CSAM 检测是否会向执法部门错误地标记无辜者?
有兴趣的读者应该查阅该文件 , 了解苹果对这些问题的完整回应 。然而 , 值得注意的是 , 对于那些可以用“是/否”回答的问题 , 苹果都以“否”开头 , 但“iCloud 照片的 CSAM 检测安全”部分的以下三个问题除外:
iCloud 照片中的 CSAM 检测系统能否被用来检测 CSAM 以外的东西?
我们的程序是为了防止这种情况发生 。iCloud 照片的 CSAM 检测是这样建立的:该系统只对 NCMEC 和其他儿童安全组织提供的 CSAM 图像散列进行检测 。这套图像散列值是基于儿童安全组织获得并验证为 CSAM 的图像 。没有自动向执法部门报告 , 苹果公司在向 NCMEC 报告之前进行人工审查 。因此 , 该系统的设计仅用于报告 iCloud 照片中已知的 CSAM 照片 。在大多数国家 , 包括美国 , 只要拥有这些图片就是犯罪 , 苹果有义务向有关当局报告我们了解到的任何情况 。