7月7日消息,全国政协委员、全国工商联副主席、奇安信集团董事长齐向东在出席BCS2023北京网络安全大会期间接受媒体采访时谈到当前火热的生成式AI大模型的安全问题,他认为主要涉及到四个方面。
针对这四个安全问题,齐向东表示:安全问题一,是AI在意识形态领域、在文化和价值观方面是否合规,属于内容安全领域,这块网信办在统筹协调相关的部门和单位来负责。
安全问题二,是“关于企业内部员工向公共AI平台投喂数据这件事引发的安全问题”,这属于数据泄露问题,奇安信能管理。
有数据统计,有2.3%的员工通过向ChatGPT投喂数据导致公司的,或者单位的数据泄露,因为这属于数据泄露问题。奇安信有一整套解决方案,能够解决内部员工向ChatGPT投喂数据导致的数据泄露问题。
安全问题三,是“企业部署的大模型系统的安全问题”,如果企业内部有自己本地部署的大模型的系统,奇安信有一套解决方案保证这个大模型系统的安全。
安全问题四,“企业希望采用ChatGPT等AI大模型产品为自身的网络安全作出贡献”,这属于网络安全人才培养问题。奇安信也可以让企业的通用大模型成为高级的网络安全人才。
齐向东强调:”AI再厉害也是IT,它也是由软件组成的,它也是由硬件组成的。我们安全公司管的就是软件漏洞,管的就是软件后门,管的就是软件作恶。作为安全公司,在未来AI的时代我们应该有更强的使命感,更高的责任感,要倍加努力。“
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )