学会搭建使用AI智能体后,自媒体运营者小米感觉就像多招了一名24小时给自己打工的“文案设计师”,1分钟就能生成10个爆款标题,“省心多了”。
AI智能体(AI Agent),正成为新的人工智能热词。作为不少人看好的AI应用发展方向,AI智能体备受关注。
AI智能体来了
不久前,OpenAI列出实现通用人工智能的五级路线图:L1是聊天机器人;L2是推理者,即像人类一样能够解决问题的AI;L3是智能体,即不仅能思考,还可采取行动的AI系统;L4是创新者;L5是组织者。
究竟什么是AI智能体?“通俗来讲,AI智能体就像一个有智商、有情商、能理解、会帮忙的‘小助手’。”北京通用人工智能研究院先进技术中心副主任陈浩说。
AI智能体与大模型的区别是什么?
中国科学院自动化研究所研究员蒲志强说,可以将AI智能体理解为更立体、“类人”的智能系统。除了提供大模型广泛使用的语言交流,AI智能体还能完成更复杂的任务。
例如,下达“买咖啡”这项任务指令,大模型会告诉你“我不能直接为您购买咖啡”并给出其他建议;AI智能体则会首先拆解如何购买咖啡,并拟定代用某APP下单及支付等步骤,按照这些步骤调用APP选择外卖,再调用支付程序下单支付,无需下达指令的人指定每一步操作。
目前,AI智能体已在不少场景中得到应用,如客服、编程、内容创作、知识获取、财务、投研、手机助手、工业制造等。
在百度文心一言APP上,每个人都能创建和展示自己的AI智能体,进行“视频对话”、背单词、纠正口语,还可以通过AI智能体模拟面试、与AI古人对话等。
几秒钟就可以给简历打分和优化;生成多种风格的文案;把工作内容教给AI智能体后,就可以帮自己完成一部分工作,相当于拥有自己的实习生……
今年1月,智谱个性化智能体定制功能上线,用户用简单提示词指令即能创建属于自己的AI智能体。智谱相关负责人介绍,智能体中心有几十万用户公开发布的智能体,平均每天提问次数超过50万次。
将带来哪些变革
随着AI技术的快速发展,不少人已更多将其作为“工具”而非“玩具”使用,在日常生活中提升工作效率。
有10年品牌运营经验的自媒体运营者小米已帮助不少中小企业搭建了自己的AI智能体。“在其帮助下,1个人可以快速产出300条文案,同时管理多个账号。”
越来越多AI智能体应用于各行各业,将带来生产力的提升和企业运营管理方式的悄然转变。
蒲志强注意到,机构布局“数字员工”的热情高涨,应用场景丰富,任务日趋复杂。
部分细分市场已出现颠覆性变化。如在内容创作行业,AI智能体已能实现一句话生成视频,或采用流水线,通过多个大模型协作生成内容更复杂的短片;在文学创作中,通过AI智能体产生剧本、创意等已被更多从业者接受。
“AI智能体的广泛应用可降低人力成本。对普通人来说,相当于多了很多帮手;对企业而言,也是一个智能化转型的机会。”澜舟科技CEO周明说。
陈浩说,通用AI智能体能主动参与到各环节中,而非被动执行预设任务。这不仅有助于提高生产效率,还能更好应对突发情况,提高生产和服务的灵活性。
此外,AI智能体对于解决老龄化等社会难题也有更积极的作用。据陈浩介绍,北京通用人工智能研究院的“具身智能机器人”和“高密度触觉灵巧手”能识别环境,根据环境调整行动策略,不需要人再额外下指令。
“AI智能体能辅助老年人日常生活,对居家养老将会是很好的帮手。此外,在重大自然灾害现场等‘人到不了的地方’,可以通过AI智能体实施危险作业或救援任务,大幅减少伤亡损失。”陈浩说。
同时,AI智能体的发展也可为更多企业开拓创新空间,形成更完善的AI产业链。
截至今年8月,百度文心智能体平台开发者已达60万,企业数量升至10万。百度移动生态事业群组总经理何俊杰表示,AI智能体将重塑人与技术互动的方式,带来新的应用生态、流量格局和商业模式。
“智”与“治”如何平衡?
不少业内人士认为,AI智能体是未来趋势所在。
《2024数字科技前沿应用趋势》报告显示,AI智能体有望成为下一代平台。百度创始人李彦宏也表示,对于接下来AI应用的发展方向,最看好智能体。
有观点认为,在可预见的未来,智能手机上都会有一个AI智能体,它将集合各类数据,满足用户随时随地的需求;它将是企业的“AI程序员”,协助开发人员完成一系列繁琐工作;或是“数据分析员”,自动汇集分析企业数据,挖掘数据金矿价值。
李彦宏表示,随着基础模型日益强大,开发应用也越来越简单。只要用“人话”把工作流程说清楚,再配以专有知识库,即可做出很有价值的AI智能体,比互联网时代制作一个网页还简单。
也有不少受访专家认为,当前已出现的AI智能体仅能完成较为简单、固定的工作,总体仍处发展初级阶段。
飞速发展的同时,AI智能体也面临技术风险、伦理和隐私等问题。
业内人士表示,AI智能体在提供服务的过程中会收集大量数据,需要确保数据安全,防止隐私泄露。AI智能体虽然能提供建议,但并非都具有权威性。此外,AI智能体的自主性越强,越有可能在复杂或未预见的情境中作出不可预测或不当的决策。
周明认为,要从不同维度设立安全屏障:在研发环节,应将安全性作为核心设计原则,为研发人员提供相应培训,防止模型算法带有偏见;在使用环节,提升公众对技术应用边界、风险挑战的认知,增加反馈渠道。
智谱相关负责人表示,企业应制定严格的内部规范和操作流程,确保开发、测试、部署和使用都在可控范围内。推动行业标准的制定,为AI智能体的健康发展提供指导。同时,要建立责任追溯机制。
中国科学院自动化研究所副研究员张海峰也认为,政策制定应纳入多方利益相关者的意见,建立适当的AI伦理审查机制,对高风险项目进行独立审查,确保其符合伦理标准并对社会有益。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )