ChatGPT应用爆火,安全的大数据底座何处寻?

科技云报道原创。

毫无疑问,AIGC正在给人类社会带来一场深刻的变革。而剥开其令人眼花缭乱的华丽外表,运行的核心离不开海量的数据支持。

ChatGPT的“入侵”已经引起了各行各业对内容抄袭的担忧,以及网络数据安全意识的提高。

虽然AI技术是中立的,但并不能成为规避责任与义务的理由。

最近,英国情报机构——英国政府通讯总部(GCHQ)警告称,ChatGPT和其他人工智能聊天机器人将是一个新的安全威胁。

尽管ChatGPT的概念出现没有多久,但对网络安全和数据安全带来威胁的问题已经成为业内关注的焦点。

对于目前还处于发展初期的ChatGPT,如此担忧是否杞人忧天?

安全威胁或正在发生

去年年底,初创公司OpenAI推出ChatGPT,之后,其投资商微软于今年推出了基于ChatGPT技术开发的聊天机器人“必应聊天(Bing Chat)”。

由于此类软件能够提供酷似人类的对话,目前这项服务已风靡全球。GCHQ的网络安全部门指出,提供AI聊天机器人的公司可以看到用户输入的查询内容,就ChatGPT而言,其开发商OpenAI就能够看到这些。

ChatGPT通过大量文本语料库进行训练,其 学习能力很大程度上依赖于背后的数据。

出于对信息泄露的担忧,目前已有多家公司和机构发布“ChatGPT禁令”。

伦敦金融城律师事务所Mishcon de Reya禁止其律师将客户数据输入ChatGPT,因为担心在法律上享有隐私特权的资料可能会遭泄露。

国际咨询公司埃森哲警告其全球70万名员工,出于类似的原因,不要使用ChatGPT,因为担心客户的机密数据最终会落入他人之手。

英国电脑芯片公司Arm的母公司日本软银集团同样警告其员工,不要向人工智能聊天机器人输入公司人员的身份信息或机密数据。

今年2月,摩根大通成为第一家在工作场所限制使用ChatGPT的华尔街投行。

花旗集团和高盛集团紧随其后,前者禁止员工在整个公司范围内访问ChatGPT,后者则限制员工在交易大厅使用该产品。

而在更早些时候,亚马逊和微软为防备员工在使用ChatGPT的过程中泄密,禁止他们向其分享敏感数据,因为这些信息可能会被用作进一步迭代的训练数据。

事实上,这些人工智能聊天机器人背后是大型语言模型(LLM),用户的这些查询内容将会被存储起来,并且会在未来某个时候被用于开发LLM服务或模型。

这就意味着,LLM提供商能够读取到相关查询,并可能以某种方式将它们合并到未来的版本中。

尽管LLM运营商应该采取措施保护数据,但不能完全排除未经授权访问的可能性。因此,企业需要确保他们有严格的政策,提供技术性支持,来监控LLM的使用,以最大限度地降低数据暴露的风险。

另外,尽管ChatGPT本身尚不具备直接攻击网络安全和数据安全的能力,但是由于它具有自然语言生成和理解的能力,可以被用于伪造虚假信息、攻击社交工程等方面。

此外,攻击者还可以使用自然语言来让ChatGPT生成相应的攻击代码、恶意软件代码、垃圾邮件等。

因此,AI可以让那些原本没有能力发起攻击的人基于AI生成攻击,并大大提高攻击成功率。

在自动化、AI、“攻击即服务”等技术和模式加持下,网络安全攻击呈现出暴涨趋势。

在ChatGPT火爆之前,已发生了多次黑客使用AI技术进行的网络攻击。

事实上,人工智能被用户调教“带偏节奏”的案例并不鲜见,6年前,微软推出智能聊天机器人Tay,上线时,Tay表现得彬彬有礼,但不到24小时,其就被不良用户“带坏”,出言不逊、脏话不断,言语甚至涉及种族主义、色情、纳粹,充满歧视、仇恨和偏见,只好被下线结束了短暂的生命。

另一方面,距离用户更近的风险是,用户在使用ChatGPT等AI工具时,可能会不经意间将私密数据输入到云端模型,这些数据可能成为训练数据,也可能成为提供给他人答案的一部分,从而导致数据泄露和合规风险。

AI应用要打好安全底座

ChatGPT作为大语言模型,其核心逻辑事实上是海量数据的收集、加工、处理和运算结果的输出。

总的来说,这几个环节可能会在技术要素、组织管理、数字内容三个方面伴生相关风险。

虽然ChatGPT表示,存储训练和运行模型所需的数据会严格遵守隐私和安全政策,但在未来可能出现网络攻击和数据爬取等现象,仍存在不可忽视的数据安全隐患。

特别是涉及国家核心数据、地方和行业重要数据以及个人隐私数据的抓取、处理以及合成使用等过程,需平衡数据安全保护与流动共享。

除了数据与隐私泄露隐患外,AI技术还存在着数据偏见、虚假信息、模型的难解释性等问题,可能会导致误解和不信任。

风口已至,AIGC浪潮奔涌而来,在前景向好的大背景下,关口前移,建立数据安全防护墙也至关重要。

尤其是当AI技术逐渐完善,它既能成为生产力进步的有力抓手,又易沦为黑产犯罪的工具。

奇安信威胁情报中心监测数据显示,2022年1月份-10月份,超过950亿条的中国境内机构数据在海外被非法交易,其中有570多亿条是个人信息。

因此,如何确保数据存储、计算、流通过程中的安全问题,是数字经济发展的大前提。

从整体看,应该坚持顶层设计与产业发展齐头并进,在《网络安全法》的基础上,要细化风险与责任分析体系,确立安全问责机制。

同时,监管部门可开展常态化监查工作,安全领域企业协同发力,构建全流程数据安全保障体系。

对于数据合规和数据安全的问题,特别是在《数据安全法》推出后,数据隐私越来越重要。

如果在应用AI技术的过程中无法保证数据安全和合规,可能会给企业造成很大风险。

特别是中小企业对数据隐私安全方面的知识比较匮乏,不知道应当如何保护数据不会受到安全威胁。

数据安全合规并不是某个部门的事情,而是整个企业最为重要的事情。

企业要对员工进行培训,让他们意识到每个使用数据的人,都有义务保护数据,包括IT人员、AI部门、数据工程师、开发人员、使用报表的人等,人和技术要结合在一起。

面对前述潜藏风险,监管方和相关企业如何从制度和技术层面加强AIGC领域的数据安全保护?

相较于直接针对用户终端采取限制使用等监管措施,明确要求AI技术研发企业遵循科技伦理原则会更具成效,因为这些企业能够在技术层面限定用户的使用范围。

在制度层面,需要结合AIGC底层技术所需数据的特性和作用,建立健全数据分类分级保护制度。

例如,可根据数据主体、数据处理程度、数据权利属性等方面对训练数据集中的数据进行分类管理,根据数据对于数据权利主体的价值,以及数据一旦遭到篡改、破坏等对数据主体的危害程度进行分级。

在数据分类分级的基础上,建立与数据类型和安全级别相配套的数据保护标准与共享机制。

目光投向企业,还需加快推动“隐私计算”技术在AIGC领域的应用。

这类技术能够让多个数据拥有者在不暴露数据本身的前提下,通过共享SDK或者开放SDK权限的方式,在进行数据的共享、互通、计算、建模,在确保AIGC能够正常提供服务的同时,保证数据不泄露给其他参与方。

此外,全流程合规管理的重要性愈加凸显。

企业首先应关注其所运用的数据资源是否符合法律法规要求,其次要确保算法和模型运作的全流程合规,企业的创新研发还应最大限度地满足社会公众的伦理期待。

同时,企业应制定内部管理规范,设立相关的监督部门,对AI技术应用场景的各个环节进行数据监督,确保数据来源合法、处理合法、输出合法,从而保障自身的合规性。

AI应用的关键在于部署方式与成本间的考量,但必须注意的是,如果没有做好安全合规、隐私保护,对企业来说或将蕴含“更大风险点”。

AI是把双刃剑,用得好让企业如虎添翼;用不好疏忽了安全、隐私和合规,会给企业带来更大损失。因此,在AI应用前,需要构筑更加稳固的“数据底座”,正所谓,行稳方能致远。


企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2023-05-10
ChatGPT应用爆火,安全的大数据底座何处寻?
ChatGPT应用爆火,安全的大数据底座何处寻?

长按扫码 阅读全文

Baidu
map