关于我国AI安全治理的一些补充

作者:高国潮

作者简介:高国潮,教授,博士生导师,美国哥伦比亚大学荣誉博士。国际著名计算机专家、经济学家,担任多个国家政府经济战略顾问。著有《现代信息技术》《七国电子政务的比较研究》《领导干部读懂互联网金融》《领导干部读懂互联网安全》《领导干部读懂区块链技术》《人民币国际化进程》等三十多部著作。

2022年11月30日,总部位于美国旧金山的OpenAI公司发布了ChatGPT,到2022年底,ChatGPT注册用户数量超过1亿,仅用一个月时间实现注册用户破亿,堪称互联网应用软件破纪录的事件。它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,以类人的方式聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码,写论文等任务。2023年1月,以色列总统艾萨克·赫尔佐格(Isaac Herzog)就发表了部分由人工智能(AI)撰写的演讲,成为首位公开使用ChatGPT的国家领导人。

ChatGPT是人类在计算机软件领域地一次重大突破,标志着人工智能技术跨出了划时代的一步。虽然目前的AI技术尚处于发展起步阶段,但可以确定的是,人工智能必定是新一轮科技革命和产业变革的重要驱动力量。

目前,人工智能已经在许多领域开展应用,已经涉及到我们生活的方方面面。

在俄乌冲突中,人工智能技术能够弥补交战双方在军事人力、器械方面的不足,大大提升武器打击效率。在乌克兰挺过最初的一周之后,美西方国家提供了源源不断的战场协助。利用人工智能抓取图像,通过卫星、无人机甚至是社交媒体X(原推特)获取的信息,加以归类汇总,为乌军提供了识别、打击、预警、决策等信息支持,对俄军造成大量人员、装备损失,这也是俄乌冲突久拖不决的一个重要因素。战术方面,人工智能为大量无人机、巡飞弹提供地理识别能力,确保传统武器发挥最大效能。在舆论认知作战方面,人工智能生成的虚假错误信息铺天盖地,让真相铺所迷离。通过俄乌冲突实践,已经充分证明人工智能在未来的战场将发挥不可替代的作用。

人工智能涉及哲学,认知科学,数学,神经生理学,心理学和计算机科学六大类;研究范畴包括自然语言处理,知识表现,智能搜索,推理,规划,机器学习,知识获取,组合调度问题,感知问题,模式识别,逻辑程序设计软计算,不精确和不确定的管理,人工生命,神经网络,复杂系统,遗传算法。你所能想象到的领域,都能找到人工智能的影子。

随着人工智能发展加速,由此引发的问题逐渐摆上台面。

2023年6月,欧洲议会通过了《AI法案》授权草案,草案内容包括用于监督人工智能基础模型的分级管理办法。

2023年10月,由中国全国信息安全标准化技术委员会组织,面向社会公开征求《生成式人工智能服务安全基本要求》意见。同月,日本首相岸田文雄在日本京都发表演讲,公布面向生成式人工智能的监管计划。

10月底,美国总统拜登签署了首份关于人工智能的行政命令。命令要求最新行政命令要求,对美国国家安全、经济、公共健康或安全构成风险的人工智能系统的开发者在向公众发布之前,应该根据《国防生产法》与美国政府分享安全测试的结果。同时命令指示各机构制定测试标准,并解决相关的化学、生物、放射性、核和网络安全风险。

2023年11月,英国全球第一届人工智能安全峰会在英国召开,与会各国讨论了当下全球人工智能治理的问题。中国科技部副部长吴朝晖率团参会并在峰会开幕式上发表讲话,并在会后联合发布《宣言》,该《宣言》成为“第一份关于有必要监管AI发展的全球声明”。

细数之下可以发现,传统科技强国如中、美、欧盟、日本等国家都在今年下半年密集出台了关于AI管理办法,充分体现了在人工智能治理领域的迫切性。在11月的峰会上,东道主英国首相苏纳克甚至警告称,AI可能给人类带来的风险可与核战争相当,当然这种说法采用了一些修辞手段。

2023年8月31日,我国首批大模型产品获批名单公布,包括百度的“文言一心”,抖音的“云雀”,智普AI的“GLM”,中科院的“紫东太初”,百川智能的“百川”,商汤的“日日新”,MiniMax的“ABAB”及上海AI实验室的“书生通用大模型”等八家公司获得运营资质。11月6日,国内由好未来营运的首个AI学习类大模型MathGPT也完成相关备案并通过审核。

这是自手机应用APP之后的又一个井喷赛道,在起步阶段就可以预见未来竞争的激烈程度,为了促进行业健康发展,中国相关部门及时制定了《生成式人工智能服务安全基本要求》。《要求》从语料安全、模型安全、安全措施、安全评估等四个方面对我国AI发展进行指导。其中重点围绕语料安全展开内容占比超过40%,与笔者去年底撰写的关于ChatGPT的一篇文章判断大体相符。

笔者谈到,与ChatGPT的互动本质与我们在搜索引擎上查询资讯并无二致,不同点在于,搜索引擎查找结果后,还需要操作者进行手动筛选,而ChatGPT能够将搜索结果以随机、多层次的形式体现,但检索出来的答案内容,仍然是在已有数据库中提取。由于我们更加习惯AI给出生硬、重复的回答,因此,当一种全新的呈现形式出现在我们眼前的时候,我们诧异于回答多元的同时,会产生一种AI已经可以使用人类语言的错觉,在人们逐渐适应这种错觉以后,ChatGPT还是会回归到它应有的位置。使用者所感受到的所谓ChatGPT情绪,实际上来自互联网本身,ChatGPT检索到的相关正面信息越多,那么你就觉得它很阳光;当负面信息接受到一定程度,它传递的就是沮丧,除非开发者进行人为干预。

国际著名经济学家、多国政府经济战略顾问高国潮教授认为,通常所讲的AI,大多数情况下指代的是人工智能语言模型,因此,AI生成的结果是否符合管理要求,提供的服务质量是否高质,依靠的是语料数据库支撑,语料库的安全就是AI安全。 AI在人类生产生活中扮演的是一种辅助角色,作用在于筛选、提供有效信息以帮助使用者获得认知或者做出决策,AI的风险归根结底在于做决策的人而不是AI本身,AI助力之下,为善与作恶都将变得异常精准和高效。

管控AI风险,本质就是管控好AI为使用者带来的认知风险及决策风险。在认知错误的基础上又会加剧决策错误,这两种风险是一体同源的关系,只是后者是前者更加极端的表现。AI带来的风险可以视作当前网络生态的进化版本,生活中这种事例随处可见,例如用户搜索疾病信息时,被动接收错误信息,夸大疾病后果而导致过度医疗,又或者走向另一个极端,对疾病放任不管而导致错过最佳治疗时期;受到网络宣传的高息诱惑,冒冒失失投入资金结果血本无归;或者受到别有用心之人挑拨教唆,对他人甚至是政府职能部门言语攻击,制造社会对立激化矛盾。这些都是在AI使用过程中可能带来的风险。

在《生成式人工智能服务安全基本要求》中,相关部门已经制定了一套全面管理总则,本文作者试图根据笔者长期对互联网生态观察,从微观角度提出一些完善建议。

一、AI潜在用户人群画像。

在中国,互联网技术发达程度已经领先世界,各种专业细分领域APP都相当成熟。AI用户是整体互联网用户的一个细分部分,准确的说,是互联网搜索引擎部分用户转移。之所以如此定义,是由AI语言模型工作原理决定的。人类与AI的互动本质与我们在搜索引擎上查询资讯并无二致,不同点在于,搜索引擎查找结果后,还需要使用者进行手动筛选,而AI能够将搜索结果以更贴近人类语言的形式体现,但检索出来的答案内容,仍然是在已有数据库中提取。

互联网交互平台的主要特征是信息可以不受地域、不受对象影响地进行交换,对受众用户产生什么样的导向影响,完全取决于信息提供者。AI是基于互联网诞生的新产品品类。因此,参考传统互联网用户特性,对我们深入了解AI使用户可能面临的风险同样具有借鉴价值。

受影响人群按危害程度大致可以分为:

1.焦虑恐惧型

这类使用者或者家庭往往遭遇重大变故,处于一种“病急乱投医”心态,在通过各种正常渠道无法有效摆脱困境的情况下,在互联网寻求帮助。用户因处于对某一事物处理无果而陷入焦虑,失去对事物真伪辨别能力,亦或在强烈心理暗示下,更愿意相信一些违背常规的解决方式。

这类人群以网络求医者及网络诈骗受害者为典型代表。当人们处于病痛折磨下,通过现有科学医疗手段无法获得满意治疗效果时,人们就会转向虚无缥缈的“玄学医疗”,其最严重的结果就是人财两空。网络诈骗受害者则是犯罪分子利用非法获取的个人信息,不断对受害人进行心理施压,让受害人焦虑情绪上升至恐惧状态,最终达到诈骗受害者财物的目的。

这类受害人群影响限于个体,但受害者经历往往会被别有用心的人加以利用,从而升级为受大众关注的热点事件。

2.冲动盲从型

这类人群容易受到外部信息干扰产生共鸣,是影响范围最大的,同时也是不法人员重点关注的群体。

网络虚假信息在大多数时候是可以被发现的。例如,追寻信息来源,看看信息发布者是否使用的是一手素材、发布平台是否合法合规、发布者过往发布内容立场倾向等,通过这些可以大体判断信息提供人员可信程度;又或者在网络搜索其他官方信息来源,相互印证,即可辨别信息是客观或是经过发布者编造。

这类群体对热点事件都出于猎奇心理,看热闹的心态导致他们没有追查事实真相的习惯,一旦情绪被挑拨,就跟着他人指挥棒起舞。影响这类人群危害主要表现在外部势力对我们意识、认知的干扰、入侵。

二、语料来源或者说不良导向信息提供来源呈现以下特点。

越来越多的证据表明,错误信息的传播是有组织有计划的集团化行为。

1.组织性

在已知的案例当中,虚假信息散布呈现出有组织特性。在炮制虚假内容过程当中,各环节流程分别有专业人员担任。文案必须生动有感染力,能够快速、精准抓住受众痛点,依照目的制造导向性话题;水军负责助推气氛,营造热点假象,提高民众关注度;控评人员则负责清理对立言论,压制不同声音;有专业的绩效考核人员,负责检视舆论效果,并与虚假信息散布者收入挂钩。

这些行为背后大多数都是一些境外NGO组织或者企业操控,从信息源头到内容呈现都能具备完整的逻辑,很难让人分辨真假。

有组织、有计划的散布虚假信息行为是打压正面言论的常用手段,有财力支持的集体,通过长期、密集的对立、讽刺言论,消磨对方斗志,慢慢占领舆论阵地。

2.伪装性

虚假信息散布者在散布虚假信息的过程中,由于我国相关部门强力监管,往往使用一些字符或者所谓的“网络梗”来替代特定内容,具有一定的伪装能力,以逃避网络监管。

例如,英文字母“TG”组合特指的是中国共产党,字母“T”代表党徽中的锤子,字母“G”代表党徽中的镰刀,二者结合即代表中国共产党。另一个比较著名的梗是“蛋炒饭”,这个名词特指含义诞生于10年代早中期,意思源于网络造谣“毛岸英烈士是由于在志愿军指挥部炒蛋炒饭而招致美军轰炸”,后来“蛋炒饭”这个梗被专门用于抹黑毛主席及其后人。

这类言论往往伴随历史虚无主义而生,通过地摊文学式的造谣抹黑,影响的是一些价值观、历史观尚未成型的青少年群体。

3.目的性

所有虚假信息散布都以扰乱舆论、制造对立、获取经济利益为目的,这种人不具备新闻采编资格及素质,通常以某一新闻事件为原始素材进行内容二次加工,其观点看似主持正义,实则心怀叵测。

如四川崇州狗伤人事件后,呼吁规范养狗是正常的舆论反思结果,但偏偏在某些人刻意挑动下,讨论主题向“国人是否善待动物”、“中国人对待动物是否友善”偏离,最终指向无非就是国人素质不够高,应该无限反思这类陈词滥调。

这类言论最具有隐蔽性,因为发声者一般会站在道德制高点,不会直白的体现自己的利益诉求。然而事实是,通过这些人的挑唆,简单的事情会变得复杂,矛盾的对立会变得尖锐。不过在网民变得日渐成熟理性的今天,这些人正在慢慢失去市场,仅剩一些顽固不化的既得利益者仍在坚持。

4.产业化

虚假信息散布渠道在我国网络发展多年,已经形成了一套固有模式,每次网络谣言都有一些所谓网络专家、名人大V助力发酵,其中虚假信息编撰者需要有影响力的传播渠道,而所谓名人则需要标新立异的话题来提高自身曝光。造假者与传播者在一次又一次的合作中,各取所需,已经形成默契,诈骗及造谣模式在各团伙之间推广复制。

如频频曝光的网络带货,从网红到明星,卖出的产品几乎都是产地不明,没有获得质检部门批准生产的三无产品。

5.便捷化

与传统散布虚假信息不同,利用网络散布虚假信息仅需要简单的“复制+粘贴”操作。相对于线下方式,在网络散布虚假信息甚至不需要传播者去思考信息是否符合逻辑,而仅仅只需要挑动一下传播者的情绪,能够让传播者与虚假信息编造者产生一丝共鸣,即可完成虚假信息地病毒式裂变次级传递。

网络的开放性,让所有人可以不受地域限制的接触到虚假信息,这就造成了所谓“造谣一张嘴,辟谣跑断腿”的怪现象。

三、在AI时代,风险管控应该更贴近生活。

笔者之所以习惯拿生成式AI与搜索引擎类比,是因为早在去年ChatGPT发布时,笔者已经有过使用体验。

国际著名经济学家、多国政府经济战略顾问高国潮教授认为,即使作为最有代表性的人工智能语言模型,ChatGPT仍然没有跳出“人为”的范畴。时至今日,AI给出的解答依然是从语料库中搜索、筛选最接近提问内容,加以人性化的体现。这一特征用“类人”描述更加客观,AI只能提供总结式的答案,而并非创造式,这就将AI语料库的属性顶到了最重要的位置。

同时,AI模型能够呈现出“智能”状态,是因为AI语料来源是开源形式,资料库中储存了各种各样,五花八门的答案,才能达到“总有一款适合你”的效果,这也是AI魅力所在。而开源形式的语料就不可避免的会掺杂一些“糟粕”的东西,这些误导信源或无意或有意,始终会是一个长期的存在。

如果用现有的互联网产品与AI生成答案做对比,你会发现,后者无限接近于类似百度、360等网络百科给予的回答。而AI则是将这些答案分解以后,以对话段落的形式呈现。

AI在生活中充当的是一个新型工具的角色,是一种辅助工具,而辅助结果是好是坏,最终取决于使用这个工具的人,因此,我们要保证AI使用产生正面效果,不妨多从使用者的角度来思考问题。

1.注意网络隐晦用语对AI语言模型造成的冲击。

如笔者上文所述,我们在监管AI语料来源时,应充分参考当前网络流行文化的影响,杜绝类似“蛋炒饭”之类的恶意文化侵蚀民族记忆,诋毁民族英烈。

AI开源语料来自网络,因此保障AI语料安全,本质上就是净化网络语言环境。在开源语料收集时,应广泛听取民间发声,在对某一关键词投诉或举报达到一定数量或比例时,应及时纳入管控,避免不法人员利用关键词监管漏洞从事违法活动。

在我们不断加强网络监管的高压态势下,明目张胆的诋毁、攻击党和政府行为显然是没有生存土壤的,我们应投入更多精力来整治这种指桑骂槐的隐性侵蚀现象。

2.应充分考虑使用者习惯,主动将正确信息以直观方式呈现。

在AI生成内容中,我们应更多尊重用户使用习惯,采用类似香烟标识的形式,在对话框醒目处,以直接、直观的方式呈现正确内容。

一个问题的答案不一定是唯一,站在不同的角度会有不同的选择,生成式AI会根据语料数据库中的元素,给出各种符合提问关键的答案,在这些答案中,质量是良莠不齐的,如何取舍,最终还是落实在使用者身上。

经常是用类搜索引擎的用户都有一种惯性,使用类似工具目的是一个寻求答案,而只有少部分人会对搜索答案产生质疑,即使有疑问,也没有过多时间与精力去追查、考证正确答案。因此,应在尽量短的时间内,让用户获取正确信息,建立正确认知。

即使在后续呈现内容中,出现异常内容,也能够在前期为用户提供内容比对,起到“早预防”的效果。

在关于正在发酵事件问答时,应及时将行政职能部门调查结果置于首位,在没有权威调查结果公布之前,应予以提示。采取主动出击的策略,坚决铲除谣言孳生的土壤。

3.语料提供者应建立等级制,按等级不同采用权重不同。

网络是一个开放的平台,正是由于其能提供一个畅所欲言的平台,才能产生强大吸引力。同时,网络也是鱼龙混杂的平台,因为你永远不知道在另一个终端使用者到底是什么人?有什么目的?

我们可以参考网络百科对于素材来源的要求,建立一套语料提供者的等级制度。在这个制度中,开源语料供应者按中央到地方、官媒到自媒体实施等级权重递减,不同权重对最后AI生成答案是否采信成正比,用以保障AI生成答案思想、内容与监管者保持一致。

权重制度的好处在于,提高干扰语料来源提供者门槛,增加刻意污染AI语料库的时间成本,避免不法人员注册大量账号,采取内容轰炸战术。同时也能提高语料供应者的责任感,让他们在编写内容时更多注重于内容质量,而不是仅仅是以答案是否吸睛为标准。

4.避免形式主义,调动“沉默的大多数”,让更多人参与净化网络环境事业。

很多网络用户是有强烈正义感的,对于一些不符合中国人价值观的网络乱象深恶痛绝,坚定维护国家、民族立场的大有人在,只是与这些乱象斗争的渠道太窄或者说效果并不明显,久而久之,这些人成为了“沉默的大多数”。

“沉默的大多数”形成于10年代中期,在当时的互联网舆论环境中,敌对人员有组织的对党和国家进行攻击抹黑,而我国网民只能进行松散对抗,往往出现一些正面呼声,随之而来的是对方成群围攻、嘲讽。对于这类言论投诉,处理机构往往是平台运营方,处于商业利益及维护平台人气考虑,这些举报投诉往往不了了之,长期处于这种抗争无果的抑郁环境中,原本愿意为正义发声的人变得逐渐沉默。

毛主席在《论持久战》中提到“战争的伟力之最深的根源,存在与民众之中”。AI有可能成为新的舆论战场,那么我们就应以战斗的姿态慎重对待这个问题,调动全民参与规模,让绝大多数热爱祖国拥护共产党的网络民众自觉参与维护网络语境的行动中来,这些人贴近网络、了解网络,他们地参与能让互联网的阴暗无所遁形。

我们这些年遭遇了外部势力前所未有的围堵遏制,事实证明,想要从外部击溃中国的可能性几乎为零,从内部制造混乱才是有效且成本最低的方式。互联网的本质是信息交互平台,所以它从诞生之初就注定成为敌我对峙的阵地,直至互联网也面临消亡的时刻,否则它将一直存在。

中国本身就是互联网技术强国也是互联网应用强国,在今年11月英国举行的全球人工智能(AI)安全峰会。英国外交发展大臣克莱弗利表示,如果一个AI技术领先者缺席,这项技术的风险将无法得到控制。我们的实力得到了全世界的认可,能够与我们媲美的只有美国这一世界唯一超级大国。在互联网治理方面,我们的经验更是无人可匹。

笔者认为,AI治理既需要监管者、开发者进行定期的安全审查,也需要所有使用者的通力配合。受成本和精力限制,监管与开发人员并不能时刻关注并更新模型,亦或在理论与实践上存在脱节;用户在日常使用过程中可能更容易发现问题所在,发现问题才能解决问题。

AI领域治理成功与否,在各项法律法规逐步完善的基础上,应做到来源于生活,贴近于生活。反对教条式的办公室治理思维,拟定的规则只要得到认真执行,对于AI风险把控其实并非想象之难。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

Baidu
map