全国首批开源即接入!广州算力中心“即刻”部署文心大模型

来源: 广州人工智能公共算力中心  日期:2025-09-08 
6月30日,百度文心4.5系列模型正式开源,广州人工智能公共算力中心(简称“广州算力中心”)作为国内首批文心开源大模型的“内测玩家”,在自有的平云模型开放服务平台中已完成预部署,在开源首日即完成与文心大模型的正式接通。开发者可通过广州算力中心的模型开放服务平台实现"开箱即用"的零门槛快速开发!


 

文心大模型4.5系列开源模型简介


本次文心4.5系列开源模型共10款,涵盖了激活参数规模分别为47B和3B的混合专家(MoE)模型(最大的模型总参数量为424B),以及0.3B的稠密参数模型。

针对 MoE 架构,百度提出了一种创新性的多模态异构模型结构,通过跨模态参数共享机制实现模态间知识融合,同时为各单一模态保留专用参数空间。此架构非常适用于从大语言模型向多模态模型的持续预训练范式,在保持甚至提升文本任务性能的基础上,显著增强多模态理解能力。

文心4.5系列模型在大语言模型的预训练中,模型FLOPs利用率(MFU)达到47%。实验结果显示,该系列模型在多个文本和多模态基准测试中达到SOTA水平,在指令遵循、世界知识记忆、视觉理解和多模态推理任务上效果尤为突出。模型权重按照Apache 2.0协议开源,支持开展学术研究和产业应用。此外,基于飞桨提供开源的产业级开发套件,广泛兼容多种芯片,降低后训练和部署门槛。


 


文心大模型的核心突破
 
 

本次开源的文心大模型4.5系列在三大维度实现升级:

● 多模态混合专家模型预训练:文心4.5通过在文本和视觉两种模态上进行联合训练,更好地捕捉多模态信息中的细微差别,提升在文本生成、图像理解以及多模态推理等任务中的表现。

● 高效训练推理框架:通过节点内专家并行、显存友好的流水线调度、FP8混合精度训练和细粒度重计算等多项技术,显著提升了预训练吞吐。基于飞桨框架,文心4.5在多种硬件平台均表现出优异的推理性能。

● 针对模态的后训练:为了满足实际场景的不同要求,文心团队对预训练模型进行了针对模态的精调。其中,大语言模型针对通用语言理解和生成进行了优化,多模态大模型侧重于视觉语言理解,支持思考和非思考模式。

 



广州算力中心:与优质大模型同行,助力千行百业


人工智能技术发展迅猛,广州算力中心紧跟潮流,不断提升AI领域硬实力。我们期待与更多生态伙伴合作,不管是锐意创新的企业、底蕴深厚的高校,还是追求卓越的科研机构,均可依托广州算力中心这一强大的赋能平台,便捷稳定地调用文心大模型,开展全面细致的测试,实施精准深入的训练,全方位挖掘模型潜力。
 

<广州人工智能公共算力中心-平云模型开放服务平台>

 

登录广州人工智能公共算力中心官网,即刻文心大模型的强悍推理能力,还能一键调用160+款开源模型,轻松玩转AI创新。合作里,我们会全程支持,帮大家破除技术难题,激发创新灵感,加快各行业的数字化、智能化升级。快来广州算力中心,和我们一起描绘智能时代的美好蓝图,向着更智能、更高效的未来进发!

电话:15078300275

邮件:aipcc-gz@grg.net.cn

地址:广东广州市天河区平云路163号

广州数据集团
广州数据集团
 版权所有 粤ICP备2022111211号-1