3月5日消息,生成式人工智能技术的迭代突破,正在推动AI应用向多领域纵深拓展,比如 伪造、自动驾驶、AI医疗诊断等。这些AI技术在为人们带来新奇体验、便利应用的同时,也可能会导致新的社会问题。
今年全国两会,雷军、周鸿祎、刘庆峰、李东生等多位互联网科技大佬的建言中均提及了AI,但关注角度有所不同。下面我们就一起看看这些大佬都关注AI的哪一面。
AI 伪造
雷军:建议加强“AI换脸拟声”违法侵权重灾区治理
2024年10月,“雷军AI配音”的相关视频在短视频平台广泛传播。网传视频中,具有雷军声音特征的语音内容锐评假期堵车、游戏等话题,甚至还包含了“谩骂”,引发热议,相关视频的播放量很快便突破1亿。
然而,这些配音大多并非雷军本人“发声”,而是短视频平台用户使用AI工具模拟了雷军声音的音色,并根据设置文案内容生成了具有雷军音色的音频素材。
值得注意的是,除了恶搞雷军的音频内容,还有网友用AI制作张文宏医生音视频为自己带货,甚至有不法分子利用AI 合成视频进行诈骗。过去一年,AI 合成音视频侵权现象愈演愈烈。
今年两会,全国人大代表、小米创办人兼CEO雷军建议加强“AI换脸拟声”违法侵权重灾区治理,具体包括3个方向:一是加快单行法立法进程,在安全与发展并重的基础上提升立法位阶;二是强化行业自律共治,压实平台企业等各方的责任和义务;三是加大普法宣传的广度力度,增强民众的警惕性和鉴别力。
李东生:建议加强AI 伪造欺诈管理
雷军之外,全国人大代表、TCL创始人兼董事长李东生也建议加强AI 伪造欺诈管理。
李东生认为,随着生成式人工智能技术的发展, 伪造技术也快速发展。要规范对于这一新兴技术的不当利用行为,有必要要求 合成服务提供商对人工智能生成的内容进行强制标识,减少恶意滥用,并厘清责任、对违法犯罪行为追责。近年来,我国相关立法虽有关注这一议题,但已出台的规章制度尚不成体系,还不具备可操作的细则和明确的处罚标准。
对此,李东生建议:一是加快人工智能 合成内容标识管理规章制度的出台。二是明确对人工智能 合成服务商未履行标识义务的惩罚制度,完善对 合成内容服务提供商未按要求进行标识的行为界定、分类细则,以及相应的处罚标准。三是加强 合成内容标识技术标准和发布的管理,出台 合成内容标识的技术标准,保证标识的有效性;对相关内容平台出台要求,用户在发布 合成的视频、音频等内容时,有义务对其进行标识。四是加强国际合作,形成人工智能生成合成内容的有效监管。
AI幻觉问题
周鸿祎:建议对大模型“幻觉”给予适度包容
以DeepSeek为代表的大模型取得了“国运级科技成果”,不仅促进了大模型技术自主创新,也带动了上下游产业协同发展,让大模型加速走进百行千业。但包括DeepSeek在内的大模型都存在“幻觉”,偶尔会生成看似不合理、与事实不符的情况。
全国政协委员、360集团创始人周鸿祎认为,“幻觉”是一把双刃剑,是大模型与生俱来的特点,不可消除,也决定其创造力和想象力,对于实现AGI(通用人工智能)极其重要。如果大模型没有“幻觉”,就失去了想象力和创造力。并且越是能力强的模型,一般幻觉也越多。
周鸿祎指出,在科研领域,大模型的“幻觉”能“想象”新药分子结构、蛋白质的结构等,为新研究指引方向。在医疗、法律、金融等对准确性要求高的领域,“幻觉”虽然可能出错,但可以利用技术手段,如RAG(检索增强生成)技术,通过比对专业知识库、网络实时信息等方式予以矫正。
为此,周鸿祎建议,借鉴“避风港原则”成功经验,对大模型以及相关的产品和服务实施柔性监管,适度包容大模型的“幻觉”,对于“幻觉”导致的一般性失误,避免直接关停下架,给予企业自我纠正的机会,促进企业大胆创新、放手竞争,争取让更多企业“复制”DeepSeek的成功。
刘庆峰:建议加快构建自主可控大模型产业生态,预防“幻觉数据”危害
中国互联网络信息中心(CNNIC)发布的《生成式人工智能应用发展报告(2024)》显示,我国生成式人工智能产品的用户规模已达2.49亿人。
全国人大代表、科大讯飞董事长刘庆峰认为,生成式人工智能存在幻觉,特别是 推理模型的逻辑自洽性提升,使得AI生成内容真假难辨。带有算法偏差的虚假信息会被新一代AI系统循环学习,形成恶性循环,影响公众信任和社会稳定。
针对预防大模型生成“幻觉数据”充斥互联网带来的危害,刘庆峰建议:
1、构建安全可信数据标签体系,提升内容可靠性:建立安全可信、动态更新的信源和数据知识库,对不同类型数据的可信度和危害程度建立标签体系,降低人工智能幻觉出现概率,提升生成内容可靠性;
2、研发AIGC幻觉治理技术和平台,定期清理幻觉数据:研究幻觉自动分析的技术和软件平台,开展幻觉自动分析、AIGC 鉴伪、虚假信息检测、有害内容识别以及互联网传播溯源,由中央网信办、国家数据局等部门定期清理幻觉数据,为公众提供AIGC幻觉信息检测工具与服务。
如何应对AI抢饭碗?
刘庆峰:建议设立AI失业保险
世界经济论坛《2025年未来就业报告》预测,未来五年内,新技术和产业变革将使全球约9200万个岗位被替代,但也会新增1.7亿个新岗位。
针对人们担心的AI抢饭碗问题,全国人大代表、科大讯飞董事长刘庆峰建议:试点“AI失业保障专项保险”,设置6至12个月的失业缓冲期,采取“政府主导投保 + 商业机构运作”模式,为最易被AI冲击的岗位建立专项保障基金;引导保险机构开发商业AI失业保险产品,为全社会提供更丰富的失业保障产品选择。
他还表示,应该加强人工智能新职业的规划与管理:推动 AI 新岗位的繁荣,系统性梳理 AI 时代产生的新岗位,强化岗位认证工作;鼓励高校、职校紧跟趋势,调整人才培养计划和课程设置,科学指导职业生涯规划;加强 AI 技能培训,尤其要为低收入群体提供免费培训机会。
AI应用安全
周鸿祎:建议用“以模制模”解决大模型应用安全问题
DeepSeek-R1等先进模型带来了前所未有的机遇,也同样面临无法通过传统网络安全手段解决的安全挑战。全国政协委员、360集团创始人周鸿祎认为,大模型应用安全主要集中在基座模型、知识库和智能体三个方面。
基座模型安全方面,由于大模型普遍存在的幻觉现象,特别是在生成文本时可能输出与现实不符的信息,这在政策制定、法律条文解读或商业决策等场景下可能导致误导性后果。
知识库安全方面,政府和企业核心数据资产存储于内部知识库中,若缺乏有效的安全控制措施,未授权用户可能利用与大模型交互的机会窃取这些宝贵的数据资源。
智能体安全方面,智能体通常与政府、企业内部各类IT、邮件、控制系统相连,一旦遭受攻击,可能会引发一系列连锁反应,从发送有害邮件到中断生产线运作,造成严重的物理损害。
周鸿祎介绍,针对上述挑战,360运用人工智能技术重塑安全格局,采用“以模制模”的方式应对新难题,依托安全大模型技术搭建起覆盖“基座模型—知识库—智能体”的全链路安全体系,护航政府与企业“数转智改”。
为进一步强化这一防御体系,周鸿祎建议采取两项措施:一是推动安全技术创新与成果转化。建议相关部门及时出台配套政策措施,鼓励具备“安全+人工智能”完整解决方案的链主企业,针对人工智能应用所涉及的基座模型、知识库、智能体等安全问题,基于安全大模型技术开展研发工作,加速推动技术成果转化,将安全要素
嵌入人工智能应用全流程。
另一方面,组建产业联盟,推广安全产品。引导相关链主企业发挥牵头作用,广泛吸纳产业链上下游企业、科研机构及终端用户,组建人工智能大模型安全联盟,在联盟内部实现技术成果共享,共同开展产品及服务测试,待产品与服务成熟稳定后,向更广阔的市场加以推广,助力大模型安全保障普及至千行百业。
雷军:加快推进自动驾驶量产
雷军造车三年,小米SU 7出道至今广受欢迎。今年两会,雷军建议优化新能源汽车号牌设计,同时建议加快推进自动驾驶量产。
雷军认为,汽车产业已经迈入智能化的高级阶段,智能驾驶(含辅助驾驶L1和L2级别、自动驾驶L3和L4级别)成为汽车工业的必争高地,欧美等发达国家正在积极推进自动驾驶量产和法律保障。我国L3级自动驾驶正开展上路通行试点,L4级自动驾驶示范应用稳步推进,自动驾驶汽车量产初具条件,亟需加强自动驾驶功能量产应用,培育和壮大新质生产力。
为此,雷军建议:1.推进自动驾驶汽车大范围测试验证,加快量产商用进程;2.推动设立自动驾驶专属保险,加强安全使用宣传;3.加快出台自动驾驶相关法律法规,明确合法上路身份。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )