苹果因数据安全问题禁止员工使用ChatGPT等AI工具,真的有必要么?

·人工智能5月23日 为了保护数据的机密性,越来越多的企业禁止使用ChatGPT和其他类似基于云的生成AI服务,苹果也加入了这一行列。

根据《华尔街日报》的报道,苹果还禁止员工使用GitHub的Copilot工具,而很多开发人员使用该工具来帮助编写软件。

最近的一项调查发现,39%的Mac开发者正在使用这项技术。

苹果因数据安全问题禁止员工使用ChatGPT等AI工具,真的有必要么?.jpg

真的有必要实施全面禁令么?

尽管苹果实施这一禁令似乎有些极端,但表明该公司听从了一些信息安全专家对使用这些服务发出的警告。令人担忧的是,使用这些服务可能泄露敏感数据或机密数据。在今年早些时候,三星发现其员工向ChatGPT上传了机密的源代码,随后禁止员工使用这些工具。

一些信息安全专家非常清楚这个问题。网络安全服务商Orange Cyberdefense的高级安全研究员Wicus Ross警告说:“虽然AI聊天机器人经过了开发人员进一步的训练和完善,但工作人员仍有可能访问输入到它们的数据。而且,考虑到人类通常是企业安全态势中最薄弱的因素,这会使这些信息面临一系列威胁,即使风险是偶然的。”

虽然OpenAI向企业客户提供了一个更保密(运行成本也更高)的自托管版本的服务,但其风险在于,在公共使用协议下数据几乎没有机密性。

这在处理机密代码和内部文档方面很糟糕,而在处理来自严格监管的行业,如银行、医疗和其他领域的信息时,将面临更大的风险。如今已经看到了一些数据泄露事件,例如一些人询问ChatGPT的问题已经泄露给不相关的人员。

人们提出的问题变成了数据,那么能够信任拥有这些数据的人吗?

尽管苹果的这一决定可能让人感觉反应过度,但企业必须说服员工对他们正在共享的数据保持警惕。问题是,当使用基于云的服务来处理数据时,这些信息很可能会被保留,用于评分或评估,甚至在将来使用。

从本质上来说,用户向AI聊天机器人提出的问题将成为未来答案的数据点,他们提供给基于云的服务的信息可能被人访问,无论是来自企业内部还是外部攻击。现在已经出现了这种情况,在今年早些时候发生数据泄露事件之后,OpenAI不得不让ChatGPT暂时下线。

英国国家网络安全研究中心(NCSC)提供的建议解释了这种风险的本质。建议指出,这些询问的问题对服务提供者是可见的,还将被存储起来,并且肯定会在某个时候用于开发服务。

在这种情况下,在任何人进行查询之前,需要对服务的使用条款和隐私政策进行深入审查。此外,人们面临的另一个挑战是,他们提出的问题也会变成数据。

正如NCSC所解释的那样:“随着越来越多的组织开发大型语言模型(LLM),也增加了另一种风险,那就是存储在网上的查询问题可能被黑客攻击和泄露,或者更有可能意外地被公开访问,这可能包括潜在的用户身份信息。”

谁将拥有和保存人们的问题?

随着AI行业的整合加速,还存在另一层风险。用户可能在某一天向一个经过安全验证的LLM询问敏感问题,这个LLM符合企业安全协议的所有要求,但它可能不久会被网络安全策略较弱的第三方购买,第三方购买者将拥有以前提供给该服务的敏感数据,但其安全防护性较差。

这个令人担忧的问题并没有被提出,是因为信息安全专家在测试中了解到会出现这种情况,反映出人们已经看到了问题。例如,根据最近发布的一份调查报告,去年在GitHub等公共存储库中对外泄露了1000多万条机密数据,包括API密钥和凭据。

很多时候,这类机密数据都是通过使用这类服务的个人账户共享的,丰田、三星和苹果发布的禁令表明这种情况确实已经发生了。考虑到这一点,大多数信息安全专家都警告用户不要在向公共服务(例如ChatGPT)进行查询时包含敏感机密信息。

因此,用户永远不应该问那些公开之后可能会带来麻烦的问题,对于任何试图保护其数据安全的大公司来说,都可能全面禁止使用ChatGPT,而这是迄今为止最简单的解决方案,至少目前是这样。

生成式AI会走向边缘

但情况不会一直如此。生成式AI最合乎逻辑的发展之路是朝着能够托管在边缘设备上的小型LLM系统发展。这是可能实现的,因为斯坦福大学开发了能够在谷歌Pixel手机上运行的小型LLM系统。这可以让人们预期,在未来可能没有人会在iPhone上使用ChatGPT应用程序,因为他们将使用手机本身提供的类似技术。

但是,对于任何使用基于云的LLM服务的人来说,其遵守的规则是,如果安全性得不到保证,永远不应该共享机密或敏感数据。这证明了边缘处理和隐私保护在互联时代的价值。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2023-05-23
苹果因数据安全问题禁止员工使用ChatGPT等AI工具,真的有必要么?
为了保护数据的机密性,越来越多的企业禁止使用ChatGPT和其他类似基于云的生成AI服务,苹果也加入了这一行列。

长按扫码 阅读全文

Baidu
map