近日,由极客邦旗下 InfoQ 中国倾力打造的 AICon 全球人工智能开发与应用大会在北京举办。此次大会以“智能未来,探索 AI 无限可能”为主题,汇聚 60 位行业头部企业嘉宾,带来精彩纷呈的见解与分享。
作为大会核心论坛之一,“大模型 + 行业创新应用”专题论坛于5月18日如期举行,聚焦金融、法律、医疗、教育等不同领域,探讨分享大模型技术在各自领域内的应用经验和深刻洞见,推动大模型技术的有效落地和行业创新。云知声 AI Labs 研发副总裁刘升平应邀出席论坛并发表《山海医疗大模型的构建及其应用实践》主题演讲。
深耕人工智能产业多年,云知声一直密切关注AI前沿技术在医疗领域的创新应用。入局智慧医疗赛道以来,云知声针对医疗行业各场景痛点,陆续研发推出了语音电子病历、智能病历质控、单病种质控、智能医保审核等多款智慧医疗产品,覆盖医政医管、临床诊疗、医保管理、患者服务等多个医疗业务环节。山海大模型发布后,云知声更是基于山海医疗行业版大模型,全面升级了医疗业务线各产品智能化水平,发布门诊病历生成系统、手术记录撰写助手、商保智能理赔系统等医疗产品应用,实现从助手到专家的跃迁。
现场,刘升平深入剖析医疗大模型应用价值,并基于山海医疗大模型的构建与实际落地探索,分享了大模型在特定行业中的定制化优化策略。
以下为分享精华,我们做了整理,谨供学习:
医疗大模型:技术突破与行业应用实践
在深入探讨医疗大模型之前,我们首先需要了解在拥有通用大模型的基础上,为什么还需要行业特定的大模型。
刘升平指出,通用大模型虽然能力强大,但它们缺乏针对特定行业的深入理解和优化,而行业大模型正是为了弥补这一空缺而诞生的,它们基于行业知识和任务进行 学习和优化,从而在各自领域内成为专家级的解决方案。
当前市场上的医疗大模型主要分为四大类别:通用模型、医学文本模型、临床多模态模型以及生物医药模型。作为通用大模型的代表,山海医疗大模型以其卓越的性能和专业能力脱颖而出。在CCKS 2023 PromptCBLUE医疗大模型评测中,山海模型荣获通用赛道一等奖,证明了其在多任务学习和应用上的广泛适用性。此外,在MedBench评测中,山海模型以54.7的高分荣获榜首,这一成绩充分展示了其在医疗领域 理解和精准应用的专业实力。
依据大模型的核心能力,云知声将医疗大模型的应用场景细致划分为四大类别:生成类、理解类、知识类和决策类,以实现对医疗领域不同需求的精准覆盖。
现场,刘升平分享了山海医疗大模型在具体场景的落地应用,引起与会者的广泛关注与思考。
针对门诊场景中的病历撰写需求,云知声门诊病历生成系统以山海医疗大模型为依托,应用前端声音信号处理、智能语音识别等技术,结合庞大的医疗知识图谱,实现了诊室复杂环境下的降噪、医患角色区分、信息摘要及病历自动生成等功能,有效提升病历书写效率,切实为医务人员减负。
针对医疗质量管理中的病历审核需求,云知声依托山海医疗大模型,结合详尽的医疗规范和标准数据库,打造智能病历质控系统,该系统可准确理解病历内涵并进行缺陷筛查,重塑业务流程,大幅提高病历质控工作效率,以及质控的 和广度。
针对商业保险理赔中的医疗费用审核需求,云知声以山海医疗大模型和医疗知识图谱为底层技术支撑,结合医疗文书OCR,构建商保智能监管与审核系统,通过智能录入、规则配置、智能AI审核、审核报告生成四步走,打造具有医学知识和保险理赔经验的虚拟审核员。
云知声面向应用的行业大模型定制优化策略:6种武器+1种秘方
论坛现场,刘升平结合云知声自身实践经验,分享了面向应用的行业大模型定制优化的6种武器和1种秘方,这些策略共同构成了一套全面的方法论,确保了山海医疗大模型能够在实际应用中达到最佳效果。
6种武器
提示工程:通过创造性地设计“咒语”,即输入提示,引导大模型沿着清晰的思维链进行逻辑推理,使其更准确地理解任务需求并生成合适的响应。结合ICL(In-Context Learning),提示工程不仅关注于单个任务的执行,还强调了上下文信息的重要性,使模型能够在特定情境中学习,利用上下文信息来提高生成回答的相关性和准确性,有助于减少模型在生成回答时可能出现的幻觉,即模型生成与现实不符的输出。
检索增强:通过整合外部知识库,让模型能够检索并利用相关信息,从而提供更准确和全面的答案。其核心在于允许模型在生成回答时,动态地检索并利用最新的外部信息,通过减少模型依赖于内部知识的限制,有效降低了生成错误信息的风险,使得模型在处理需要广泛背景知识或实时数据的任务时,表现得更为出色。
指令微调:通过针对性的训练数据,优化模型对特定指令的响应能力,提升模型执行特定任务的效率。通过数据构造、数据合成、指令数据优选与配比等关键步骤,不仅提高了模型对特定指令的响应速度和准确性,还增强了模型在特定任务上的执行效率。
对齐(反馈学习):对齐是确保模型输出与用户需求保持一致性的过程,它通过整合用户的反馈来引导模型的持续学习和自我优化。在这个过程中,模型不仅学习用户的直接反馈,还从用户的行为中提取隐式的反馈信号。利用这些反馈,模型能够自动识别和纠正生成内容中的错误,实现自我纠错。
增量预训练:增量预训练是一种持续提升模型性能的策略,它允许模型通过定期引入新的数据进行学习,以适应不断变化的知识环境。这个过程不仅涉及到数据的更新,还需要强大的算力和精细的数据工程支持。
解码策略:根据不同的应用场景,大模型推理可设置不同的解码策略。针对创意内容生成或行程安排等场景,可采取Sample Search、Top-P、Top-K Sample等基于采样概率的解码策略,增加输出的创造性和选择性;针对选择、推理等答案相对确定的场景,可采取Greedy Search、Beam Search等基于最大概率的解码策略。此外,还可以采取引入辅助模型实现的对比策略和猜测策略,借鉴AlphaGo实现的树搜索解码策略等。
1种秘方
数据的生产、选择与配比,是确保模型性能最大化的关键步骤。在这一过程中,数据的质量和多样性直接影响到模型的学习和泛化能力。
数据生产涉及到收集、生成和整理用于训练和微调模型的数据。这不仅包括公开可用的数据集,也包括特定于行业的专有数据。
数据选择是指从大量可用数据中挑选出对模型训练最有价值的部分。这一步骤要求我们理解模型的需求和任务的特性,以便选择能够最大化模型性能的数据。
数据配比涉及到不同类型和来源数据的混合和权重分配。正确的配比策略可以强化模型对关键特征的学习,同时减少对噪声和不相关信息的敏感性。
综合来看,大模型的定制优化可采取多层次策略,以适应不同算力条件并提升模型效果——在算力有限的情况下,通过调用大模型API并运用提示工程、检索增强结合知识增强等技术来解决实际问题;当算力适中,拥有1至20台服务器时,可通过指令微调、解码策略优化以及对齐优化(反馈学习)来进一步优化任务性能;对于算力充足的情况,既可以在开源底座模型上进行增量预训练,还可以从零开始预训练自己的底座模型,以实现模型性能的根本性提升。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )