参考评论网- 财经智库,观点品评!
当前位置: 首页 -> 互联快讯

Apple已删除任何提及扫描他人照片以查找儿童色情内容的内容,但并未改变

责任编辑:白鸽    来源:腾讯    发布时间:2022-04-07 11:33   阅读量:5899   

Apple 已从其儿童安全页面中删除了对 CSAM 的引用但是,该功能的工作仍在继续

Apple已删除任何提及扫描他人照片以查找儿童色情内容的内容,但并未改变

8 月,Apple 宣布计划推出一项反禁止内容功能,该功能会扫描用户的 iCloud 照片库以查找儿童性虐待材料 如果检测到可疑内容,程序会将材料发送给公司员工进行验证

苹果的计划遭到了许多人和组织的严厉批评,包括安全研究人员,爱德华·斯诺登,电子前沿基金会,Facebook 前安全负责人,政界人士,人权活动家,甚至一些苹果员工大部分批评都集中在使用与监视接壤的危险技术上许多人还指出,它在检测儿童性虐待图像方面效率低下

最初,Apple 试图通过发布开发细节,文档和高管访谈来消除误解并让用户放心最终,该公司决定推迟部署 CSAM

苹果表示,这一决定基于客户,倡导者,研究人员和其他人的反馈。

我们决定在未来几个月留出更多时间来收集信息并在发布这些关键的儿童安全功能之前进行改进,该声明出现在 9 月份的Apple儿童安全页面上,但现在与所有参考资料一起消失了到 CSAM。12月8日上午消息。苹果公司今天向开发者们发布iOS12RC版本,在更新说明中,苹果表示新的AppleMusic声控方案将一起推出。这个每月5元的新方案为什么叫“声控”,跟10元每月的常规方案又有什么不同?新浪数码这篇文章讲明白。。

可是,reddit的用户发现,该项目的描述和技术文档仍然可用苹果发言人 Shane Bauer向The Verge证实,虽然网站上不再提及该功能,但公司的计划没有改变,这意味着 CSAM 检测将在未来出现

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

热词:    

推荐阅读

Apple已删除任何提及扫描他人照片以查找儿童色情内容的内容,但并未改变