谷歌Bard也有泄密风险?母公司Alphabet已告知员工避免输入机密信息

6月16日消息,据外媒报道,在OpenAI训练的人工智能聊天机器人ChatGPT大火之后,多家公司在开发类似的产品,也有不少公司将ChatGPT等人工智能工具引入到了他们的服务或工作中。

ChatGPT等人工智能工具在为相关的服务或产品带来全新功能、为工作带来便利的同时,泄密也成了他们不得不重视的问题,三星电子半导体业务部门的员工在使用ChatGPT时就导致部分源代码泄漏,三星随后也禁止员工在工作场所使用ChatGPT等生成式人工智能聊天工具。

而从外媒最新的报道来看,作为ChatGPT竞品的谷歌Bard,也有类似的泄密风险。

外媒援引消息人士的透露报道称,谷歌母公司Alphabet已告知员工,不要将机密信息输入人工智能聊天机器人,并警告员工包括自家Bard在内的人工智能工具的风险。

除了不要将机密信息输入人工智能聊天机器人,Alphabet还建议工程师不要直接使用人工智能聊天机器人生成的代码。

此外,从外媒的报道来看,谷歌方面似乎很早就有信息泄密方面的担忧,在今年2月份,也就是Bard人工智能聊天机器人还在内部测试时,谷歌就已告知参与测试的员工,在正式发布之前不要输入内部信息。

作为在ChatGPT大火之后尽全力推出的竞品,Bard对谷歌多项业务的未来发展至关重要,他们目前正在全球超过180个国家以40种语言推广。

随着ChatGPT、谷歌Bard等人工智能工具的不断强大,使用这些工具的人群也在不断壮大,也有大量的公司员工在工作时使用,这也就增加了公司信息泄露的风险。相关机构在1月份对12000人的调查就显示,大约43%的专业人士在使用ChatGPT或其他人工智能工具时,通常不会告知他们的老板。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2023-06-16
谷歌Bard也有泄密风险?母公司Alphabet已告知员工避免输入机密信息
谷歌也曾告知参与测试的员工,在正式发布之前不要输入内部信息。

长按扫码 阅读全文

Baidu
map