百度王海峰披露飞桨生态最新成果 开发者数量已达800万

8月16日,由深度学习技术及应用国家工程研究中心主办的WAVE SUMMIT深度学习开发者大会2023在北京举行。百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰做了主题演讲。王海峰首次对外表示,大语言模型具备了理解、生成、逻辑、记忆等人工智能的核心基础能力,为通用人工智能带来曙光。

飞桨开发者数已达800万模型数超80万

WAVE SUMMIT深度学习开发者大会始于2019年4月。王海峰在首届大会上提出,深度学习具有很强的通用性,并具备标准化、自动化和模块化的工业大生产特征,推动人工智能进入工业大生产阶段。四年来,深度学习技术和应用的发展充分验证了这一观点。深度学习技术的通用性越来越强,深度学习平台的标准化、自动化和模块化特征越来越显著,而预训练大模型的兴起,使得人工智能应用的深度和广度进一步拓展。人工智能已进入工业大生产阶段。


(相关资料图)

标准化方面,框架和模型联合优化,多硬件统一适配,应用模式简洁高效,大幅降低人工智能应用门槛;自动化方面,从训练、适配,到推理部署,提升人工智能研发全流程效率;模块化方面,丰富的产业级模型库,支撑人工智能在广泛场景的便捷应用。

据了解,得益于飞桨产业级深度学习开源开放平台和文心大模型的互相促进,飞桨生态愈加繁荣,已凝聚800万开发者,服务22万家企事业单位,基于飞桨创建了80万个模型。

大语言模型为通用人工智能带来曙光

王海峰表示,人工智能具有多种典型能力,理解、生成、逻辑、记忆是其中的核心基础能力,这四项能力越强,越接近通用人工智能,而大语言模型具备了这四项能力,为通用人工智能带来曙光。

具体而言,人工智能的典型能力如创作、编程、解题、规划等都依赖于理解、生成、逻辑、记忆等核心基础能力,依赖程度有所不同。以解题为例,从读懂题目、解答题目到最后写出答案,需要理解、记忆、逻辑及生成能力的综合运用。

如何获得这些能力呢?以文心一言为例,首先从数万亿数据和数千亿知识中融合学习得到预训练大模型,在此基础上采用有监督精调、人类反馈的强化学习和提示等技术,并具备知识增强、检索增强和对话增强等技术优势。

进一步地,通过多种策略优化数据源及数据分布、基础模型长文建模、多类型多阶段有监督精调、多任务自适应有监督精调、多层次多粒度奖励模型等技术创新,全面提升基础通用能力。在检索增强和知识增强的基础上,通过知识点增强,提升对世界知识的掌握和运用;通过大规模逻辑数据构建、逻辑知识建模、多粒度语义知识组合以及符号神经网络,提升逻辑能力;通过构建数据、内容、模型和系统安全的全面安全体系,保障大模型的安全性。

据介绍,在效率方面,通过飞桨端到端自适应混合并行训练技术以及压缩、推理、服务部署的协同优化,文心大模型训练速度达到原来的3倍,推理速度达到原来的30多倍。

在应用方面,通过数据驱动、提示构建,以及插件增强进行场景适配,协同优化。文心一言已上线百度搜索、览卷文档、E 言易图、说图解画、一镜流影五大插件,使模型具备生成实时准确信息、长文本摘要和问答、数据洞察和图表制作、基于图片的创作和问答、文生视频等能力。插件机制扩展了大模型能力边界,更适应场景需要。王海峰表示,未来百度将与开发者共建插件生态,共享技术创新成果。

来源:环球网

关键词:

下一篇: 最后一页

相关新闻

精彩推送