5月9日消息,ChatGPT的推出极大地激发了社会对生成式AI的兴趣,自那以来,相关创新的步伐不断加速。企业已从对生成式AI服务的初步评估转向开发并启用AI的应用程序。为了真正降低进入AI创新的门槛,企业需要扩大参与AI项目的人员范围,同时控制相关成本。
日前,开源解决方案供应商红帽公司宣布推出红帽企业Linux AI(RHEL AI)。这是一个基础模型平台,能够使用户更加便捷地开发、测试和部署生成式人工智能(GenAI)模型。
RHEL AI整合了IBM研究院的开源授权Granite大型语言模型(LLM)系列、基于大规模对话机器人对齐(LAB)方法的InstructLab模型对齐工具,以及通过InstructLab项目实施的社区驱动模型开发方法。
该解决方案被封装成一个优化的、可启动的RHEL镜像,用于在混合云环境中部署单个服务器,并已集成到OpenShift AI中。OpenShift AI是红帽的混合机器学习运营(MLOps)平台,能够在分布式集群环境中大规模运行模型和InstructLab。
InstructLab是一个围绕LAB方法和IBM开源Granite模型构建的开源社区。InstructLab项目的目标是使开发者通过简化LLM的创建、构建和贡献过程,像参与任何其他开源项目一样,将LLM开发的权力交到开发者手中。
具体来看,RHEL AI包括:
1.红帽支持和保障的开源许可Granite语言和代码模型;
2.提供支持并具有生命周期管理的InstructLab分发版本,这是一种可扩展且成本效益高的解决方案,能够增强大型语言模型(LLM)的功能,并使知识与技能的贡献得到更广泛的用户接纳。
3.通过RHEL镜像方式提供的优化可启动模型运行实例,包括Granite模型和InstructLab工具包,及优化的Pytorch运行时库和针对AMD Instinct™ MI300X、Intel和NVIDIA GPU以及NeMo框架的加速器。
4.红帽提供的完整企业支持和生命周期保证,从可信的企业产品分发开始,提供24小时全天候生产支持和扩展的生命周期支持。
红帽高级副总裁兼首席产品官Ashesh Badani表示,对企业来说,生成式AI(GenAI)代表了一次革命性的飞跃,但这需要企业真正部署起来,并针对其具体业务需求使用AI模型。通过结合红帽OpenShift AI的广泛应用,RHEL AI和InstructLab项目旨在降低混合云中生成式AI所面临的多种挑战,从数据科学技能的限制到巨大的资源需求,同时促进企业的部署并推动上游社区的创新。”
据悉,红帽OpenShift AI最新版本提供了:边缘模型服务、增强型模型服务、采用Ray支持分布式工作负载、改进模型开发、模型监控和可视化以及新的加速器配置文件。
目前,红帽企业Linux AI已作为开发者预览版提供。在IBM云上已建立的GPU基础设施用于训练Granite模型并支持InstructLab,现IBM云将增加对RHEL AI和OpenShift AI的支持。此整合将使企业能够更轻松地将生成式AI部署至其关键任务应用程序中。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )