扫描不良图片引争议,苹果发布 FAQ 进行说明( 二 )


政府能否迫使苹果将非 CSAM 图像添加到哈希列表中?
苹果将拒绝任何此类要求 。苹果公司的 CSAM 检测能力完全是为了检测存储在 iCloud 照片中的已知 CSAM 图像 , 这些图像已经被 NCMEC 和其他儿童安全团体的专家确认 。我们以前曾面临过建立和部署政府授权的、降低用户隐私的变化的要求 , 并坚定地拒绝了这些要求 。我们将在未来继续拒绝它们 。我们要清楚 , 这项技术只限于检测存储在 iCloud 中的 CSAM , 我们不会答应任何政府的要求 , 扩大它 。此外 , 苹果公司在向 NCMEC 进行报告前会进行人工审查 。在系统标记的照片与已知的 CSAM 图像不一致的情况下 , 该账户不会被禁用 , 也不会向 NCMEC 提交报告 。
能否将非 CSAM 图像“注入”系统 , 以标记 CSAM 以外的账户?
我们的程序是为了防止这种情况发生 。用于匹配的图像哈希值集来自已知的、现有的 CSAM 图像 , 这些图像已被儿童安全组织获得并验证 。苹果公司不会向已知的 CSAM 图像散列集添加 。同一套哈希值存储在每个 iPhone 和 iPad 用户的操作系统中 , 所以在我们的设计中 , 不可能只针对特定的个人进行攻击 。最后 , 没有自动向执法部门报告 , 苹果在向 NCMEC 报告前会进行人工审查 。在不太可能发生的情况下 , 系统标记的图像与已知的 CSAM 图像不匹配 , 该账户不会被禁用 , 也不会向 NCMEC 提交报告 。
IT之家了解到 , 苹果公司已经面临来自隐私倡导者、安全研究人员、密码学专家、学者和其他人的重大批评 , 因为苹果公司决定在预计 9 月发布的 iOS15 和 iPadOS15 中部署该技术 。
有人还为此发布了一封公开信 , 批评苹果扫描 iPhone 的 iCloud 照片中的 CSAM 和儿童信息中的露骨图像的计划 , 截至发稿 , 该信已获得 5500 多个签名 。苹果也收到了来自 Facebook 旗下 WhatsApp 的批评 , 其负责人 Will Cathcart 称这是“错误的做法 , 是对全世界人民隐私的挫败” 。Epic Games 首席执行官蒂姆-斯威尼(Tim Sweeney)也对这一决定进行了攻击 , 声称他“努力”从苹果的角度看待这一举动 , 但得出的结论是 , “不可避免地 , 这是苹果基于有罪推定而安装的政府间谍软件” 。
“不管用意多么好 , 苹果正在以此向整个世界推出大规模监控 , ”爱德华-斯诺登说 , “如果他们今天能扫描儿童色情 , 明天就能扫描任何东西 。”非营利性的电子前沿基金会也批评了苹果公司的计划 , 称“即使是一个有详细记录的、经过深思熟虑的、范围狭窄的后门 , 仍然是一个后门” 。
【扫描不良图片引争议,苹果发布 FAQ 进行说明】来源:IT之家