行业新闻
强制扫描儿童虐待图像争议太大!苹果妥协了,推迟上线新功能
发布日期:2021-09-11 09:56    点击次数:134
 

苹果公司周五表示,它将延迟推出一项新功能,该功能旨在识别用户相册中的儿童虐待图像。此前批评者说,新功能与苹果公司保护客户隐私的承诺相抵触。

苹果宣布延迟推出旨在保护儿童的新保护CSAM(Child Sexual Abuse Material,儿童性虐待材料)识别系统。该功能下,苹果将扫描美国用户的iPhone照片库,以寻找儿童性虐待材料。苹果称在发布该系统之前,它将需要更多时间来研究。该系统原定于今年推出。

苹果在一份声明中说:

上个月,我们宣布了一些功能的计划,旨在帮助保护儿童,令不法者无法用通信工具来招募和利用他们,限制儿童性虐待材料的传播。根据客户、宣传团体、研究人员和其他方面的反馈,我们决定在未来几个月内花更多时间来收集意见,并在发布这些极其重要的儿童安全功能之前进行改进。

这一决定,意味着苹果公司的妥协。此前,该功能遭到隐私倡导者的强烈抵制和批评。上个月,在苹果宣布新的CSAM检测技术后,立即引起了争议。批评者指出,该系统可以对照已知的CSAM图像数据库,检查存储在iCloud账户中的图像,这与苹果公司一直倡导的保护其客户隐私的宗旨不符。

特拉维夫大学工业工程系专门研究隐私问题的教授Eran Toch在推特上说:“我非常高兴听到苹果公司推迟了他们的CSAM技术的推广。此项技术并不成熟,而且破坏了所有用户的加密系统。儿童安全应该有一个更周到、更有影响力的解决方案。”

早在8月初,苹果公司计划在其设备的系统更新中推出一项新的照片识别功能,该功能旨在识别用户相册中的儿童虐待图像,例如包含儿童性侵害等行为的图片。与此同时,苹果也称这项新技术仅用于检测非法图像,并不适用于视频。

这是苹果在承诺保护用户隐私方面,与执法部门之间达成的一种平衡。过去数年间,美国执法部门曾多次要求苹果公司提供设备解锁等服务,以帮助收集关键证据和破解案件,但苹果均以保护用户隐私理由回绝了执法部门的申请。

苹果公司表示,上传到iCloud的照片将得到加密,但并非采用端到端的加密,而是以加密的方式储存在苹果的服务器中,密钥也由苹果公司所有。苹果会使用一些新的AI技术来识别儿童虐待图像,自动检测上传到iCloud的图像是否与相关数据库匹配。如果苹果发现这些照片包含违法信息,将向美国的儿童保护机构报告。此外,苹果称允许用户将设备上的数据完全保密,未使用iCloud同步功能的用户将不会触发检测功能。

苹果不是唯一一家在用户隐私方面与政府观点出现分歧的科技公司,早前Facebook推出的加密功能也引起了一些执法部门的抨击。

苹果公司股价周五上午开盘时小幅下跌,此后转涨,收涨0.42%。

风险提示及免责条款 市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。