营业时间:09:00-20:30
2022-11-04 19:30:28 浏览数: 关键词: # Apple对检测iCloud照片中存储的
苹果宣布推出三项新的儿童安全功能计划已经过去了一年多,其中包括一个用于检测iCloud photos中存储的已知儿童性虐待材料(CSAM)图像的系统,在“信息”应用中模糊色情照片的选项,以及Siri的儿童剥削资源。后两个功能现在已经可以使用了,但是苹果对其CSAM探测功能的计划保持沉默。
苹果最初表示,将在2021年底之前在iOS 15和iPadOS 15的更新中实现CSAM检测,但该公司最终基于“客户、倡导团体、研究人员和其他人的反馈”推迟了该功能。
2021年9月,苹果的儿童安全页面发布了以下更新:
之前,我们宣布了一些功能计划,以帮助保护儿童免受利用通信工具招募和使用他们的捕食者的伤害,并帮助限制儿童性虐待材料的传播。根据客户、倡导团体、研究人员和其他人的反馈,我们决定在未来几个月花更多时间收集意见并做出改进,然后发布这些重要的儿童安全功能。
2021年12月,苹果从其儿童安全页面中删除了上述更新以及对其CSAM测试项目的所有引用,但苹果发言人告诉The Verge,苹果对该功能的计划没有改变。然而,据我们所知,自那以后,苹果公司并没有公开评论这些计划。
我们已经联系了Apple,询问该功能是否仍在计划中。苹果没有立即回应置评请求。
随着2021年12月iOS 15.2等软件更新的发布,苹果确实推广了Messages应用和Siri的儿童安全功能,并通过iOS将Messages应用功能扩展到了澳大利亚、加拿大、新西兰和英国。2022年5月发布15.5等软件版本。
苹果公司表示,其CSAM检测系统“在设计时考虑到了
用户隐私”。这个系统将使用来自儿童安全组织的已知CSAM图像哈希数据库来执行“设备上匹配”,苹果将把它转换为“一组安全存储在用户设备上的不可读哈希”。苹果计划向国家失踪和受虐待儿童中心(NCMEC)报告已知CSAM图像哈希的iCloud帐户,NCMEC是一个与美国执法机构合作的非营利组织。苹果表示,它将设置一个“阈值”,“每年不到万亿分之一的机会”,以确保帐户
被系统地错误标记,并由人工对标记的帐户进行人工审查。苹果的计划受到了广泛的个人和组织的批评,包括安全研究人员、电子前沿基金会(EFF)、政治家、政策团体、大学研究人员,甚至一些苹果员工。
【苹果对其检测存储在iCloud照片中的已知CSAM的计划保持沉默。】文章内容来源:https://ask.china-applefix.com/weixiu/jiqiao/11262.html
ipad系列的所有尺寸,ipad系列的所有尺寸
iphone保修期查询,iphone保修期查询
iphone动态电话显示的信息
iphonelivr,iphone连接电脑不显示照片文件夹
如何关闭airpodspro?airpodser,耳机怎么关机?
详细介绍ipadair教程和ipadair功能
苹果和美国iphone公司发生了什么?
iPhone6复制文件,如何使用iPhone复制文件
巨大而特殊的欧洲vodafonewifi共享:无限次在线观看福利视频
Machine通过Time恢复系统的技能
ipad角色游戏,ipad角色扮演游戏
iphone充电有触电感,iphone,充电时触摸电流的感觉
旧版iphone,旧版100元值多少钱?
iphone6换屏多少钱?苹果手机屏幕坏了,用保修卡便宜吗?
苹果如何关闭副卡网络,iphone如何切换主副卡网络?
iphone蓝灯,iphone蓝灯是什么?
iphone数据线照片,iphone数据线照片导入ipad
iphone8没有耳机孔,iphone8plus没有耳机孔
iphone12受损,iphone12有问题吗?
如何下载ipad1软件
在在MAC下添加qq表情的技巧
日本iphone最新报价,日本iphone和国行的价格
如何调整ipad的音质,如何调整苹果ipad的音质
滑动返回iphone,iphone,滑动,返回
ipad广告舞,ipad广告设计
iphone7不插sim,iphone7不插卡怎么开热点?
ipad7音量调整,ipad如何调整提示音量
如何将电脑视频传输到ipad,如何将电脑视频传输到iphone相册
ipad链接错误,ipad显示链接服务器错误
ipad墙充,ipad墙充设置