苹果公司近日推出了三条打击儿童性犯罪的和性侵害的功能,但这些也引发了人们对隐私保护的担忧,对此,负责软件工程的高级副总裁克雷格·费德里吉(Craig Federighi)发言称解释了相关问题。
克雷格·费德里吉(Craig Federighi)
这三条保护政策在十天之前宣布,包括:机器筛查Messages信息,当孩子收到色情图片时,图片会变得模糊,并且Messages应用程序会显示一条警告;儿童性虐待内容(简称CSAM)检测,该功能让苹果检测存储在iCloud云端照片中的这类图像特征信息,如果确定有此类图像,苹果会向执法部门报告;Siri和搜索功能改进,人们可询问Siri如何报告儿童性虐待内容或性剥削,Siri将告诉用户在哪可以汇报给有关部门。
其中引发争议的主要是第一二条,费德里吉在接受《华尔街日报》采访时说:“我们希望每个人都能更清楚地了解这一点,因为我们对自己正在做的事情感到非常积极,而我们看到它被广泛误解了。”
“事后看来,我承认,同时引入这两个功能是造成这种混乱的一个缘由,”他继续道。 “很明显,很多信息都被严重地混淆了。我相信早期传出的声音是,‘天哪,苹果正在扫描我的手机以获取图像。——但这不是事实。”
费德里吉随后没事了iCloud扫描上传的CSAM图像所涉及的过程,以及当通过消息向孩子发送此类图像时会发生什么。
对这些功能的批评集中在苹果正在分析用户iPhone照片的看法上。 “这是一个常见但非常深刻的误解,”费德里吉说。
“这个过程作为将某些内容存储在云中的过程的一部分来应用,而不是对您存储在Messages信息的图像进行某些处理……或者您正在通过网络浏览的内容。这实际上是在iCloud中存储图像的管道的一部分。”
他想说的是,苹果公司是在分析图像是否与国家失踪和受虐儿童中心提供的已知CSAM图像数据库匹配,而不是分析图片本身。他们将国家失踪和受虐儿童中心的数据库转换为一组不可读的哈希函数(将一段较长的数据映射为较短的数据),之后进行对比。一旦匹配程度达到某个阈值,苹果公司将手动审查确认匹配,然后禁用用户的帐户,并向国家失踪和受虐儿童中心发送报告。
当被问及现在是否有发布此功能的压力时,费德里吉说没有。
“不,我们想通了,”他说。 “我们本来就想做点什么,但此前一直不愿意部署涉及扫描所有客户数据的解决方案。”
- 蜜度索骥:以跨模态检索技术助力“企宣”向上生长
- 华为刘康:拥抱AI时代,加速迈向全面智能化运维运营
- 苹果强化手机直连卫星布局:15亿美元加码投资Globalstar
- GTI 5G-A×AI融通发展项目 “智网慧城”计划全球招募正式启动
- 华为提出“四新”战略,助力运营商实现数智时代商业成功
- 华为王雷:星河AI网络全面商用,加速运营商新增长
- 华为提出构建以AI为中心的F5G-A全光网,助力运营商新增长
- 华为汪涛:AI加速超宽带产业创新,共赢商业新增长
- 移远通信:国内业务持续复苏 利润逐步修复
- 韩国《量子科技和量子产业促进法》正式生效
- 中国移动启动5G专网 定制产品短名单第一次增补采购:总预算13.5亿元
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。