维修预约咨询

维修预约咨询

营业时间:09:00-20:30

400-119-8500

苹果对其检测存储在iCloud照片中的已知CSAM的计划保持沉默。

2022-11-04 19:30:28 浏览数: 关键词: # Apple对检测iCloud照片中存储的

苹果对其检测存储在iCloud照片中的已知CSAM的计划保持沉默。

苹果对其检测存储在iCloud照片中的已知CSAM的计划保持沉默。

苹果宣布推出三项新的儿童安全功能计划已经过去了一年多,其中包括一个用于检测iCloud photos中存储的已知儿童性虐待材料(CSAM)图像的系统,在“信息”应用中模糊色情照片的选项,以及Siri的儿童剥削资源。后两个功能现在已经可以使用了,但是苹果对其CSAM探测功能的计划保持沉默。

苹果最初表示,将在2021年底之前在iOS 15和iPadOS 15的更新中实现CSAM检测,但该公司最终基于“客户、倡导团体、研究人员和其他人的反馈”推迟了该功能。

2021年9月,苹果的儿童安全页面发布了以下更新:

之前,我们宣布了一些功能计划,以帮助保护儿童免受利用通信工具招募和使用他们的捕食者的伤害,并帮助限制儿童性虐待材料的传播。根据客户、倡导团体、研究人员和其他人的反馈,我们决定在未来几个月花更多时间收集意见并做出改进,然后发布这些重要的儿童安全功能。

2021年12月,苹果从其儿童安全页面中删除了上述更新以及对其CSAM测试项目的所有引用,但苹果发言人告诉The Verge,苹果对该功能的计划没有改变。然而,据我们所知,自那以后,苹果公司并没有公开评论这些计划。

我们已经联系了Apple,询问该功能是否仍在计划中。苹果没有立即回应置评请求。

随着2021年12月iOS 15.2等软件更新的发布,苹果确实推广了Messages应用和Siri的儿童安全功能,并通过iOS将Messages应用功能扩展到了澳大利亚、加拿大、新西兰和英国。2022年5月发布15.5等软件版本。

苹果公司表示,其CSAM检测系统“在设计时考虑到了

苹果换电池哪家比较正规苏州

用户隐私”。这个系统将使用来自儿童安全组织的已知CSAM图像哈希数据库来执行“设备上匹配”,苹果将把它转换为“一组安全存储在用户设备上的不可读哈希”。

苹果计划向国家失踪和受虐待儿童中心(NCMEC)报告已知CSAM图像哈希的iCloud帐户,NCMEC是一个与美国执法机构合作的非营利组织。苹果表示,它将设置一个“阈值”,“每年不到万亿分之一的机会”,以确保帐户

苹果维修哪家好嘉兴

被系统地错误标记,并由人工对标记的帐户进行人工审查。

苹果的计划受到了广泛的个人和组织的批评,包括安全研究人员、电子前沿基金会(EFF)、政治家、政策团体、大学研究人员,甚至一些苹果员工。


哈尔滨苹果维修点

以上就是关于"苹果对其检测存储在iCloud照片中的已知CSAM的计划保持沉默。"的内容介绍,希望对您有所帮助,更多苹果手机维修技巧,敬请关注全国苹果维修服务中心.

【苹果对其检测存储在iCloud照片中的已知CSAM的计划保持沉默。】文章内容来源:https://ask.china-applefix.com/weixiu/jiqiao/11262.html

苹果维修最新资讯