中国类脑脉冲大模型问世,仅需约主流模型2%数据量,运行速度比传统模型快100倍

【文/网 张菁娟】据香港英文媒体《南华早报》10日报道,中国团队近日成功研发并发布了类脑脉冲大模型,这是一款旨在降低能耗、提升性能且无需依赖英伟达芯片的人工智能系统。

该模型名为“瞬悉1.0”(SpikingBrain-1.0),是中国科学院自动化研究所李国齐、徐波团队与沐曦MetaX合作打造的,其核心在于模仿人类大脑仅激活所需神经元的运作模式。

报道称,与ChatGPT等主流人工智能工具不同,“瞬悉1.0”会有选择性地对输入信息做出响应,进而实现节能并加快响应速度。

中国科学院自动化研究所称,“瞬悉1.0”在多个核心性能上实现突破,得益于这种设计,该模型能依托高效转换训练范式,以约为主流大模型2%的预训练数据量实现与众多开源Transformer模型在多任务语言理解(MMLU),中文多任务语言理解(CMMLU、Cevals),常识推理能力(ARC、HS)任务上相媲美的性能。在某些情况下,其运行速度比传统模型快出100倍。

这是中国首次提出大规模类脑脉冲基础模型架构、并首次在国产图形处理器(GPU)算力集群上构建类脑脉冲大模型的训练和推理框架。提出的模型解决了脉冲驱动限制下的大规模类脑模型性能退化问题,其超长序列处理能力在法律/医学文档分析、复杂多智能体模拟、高能粒子物理实验、DNA序列分析、分子动力学轨迹等超长序列任务建模场景中具有显著的潜在效率优势。

中国科学院自动化研究所强调,这次发布的大模型为新一代人工智能发展提供了非Transformer架构的新技术路线,并将启迪更低功耗的下一代神经形态计算理论和芯片设计。

报道指出,在美国收紧对先进人工智能芯片出口管制的背景下,这一模型具有重要的战略意义。

目前,该研究团队开源了SpikingBrain-1.0-7B模型并开放SpikingBrain-1.0-76B测试网址。

该系统在试用网站上介绍道,其深度融合人脑信息处理机制与脉冲计算范式,致力于通过高效、节能、国产化的类脑推理为使用者提供强大而可靠的智能服务。

网站截图

据报道,当前最受欢迎的人工智能模型均需巨大计算能力支撑。企业为训练这些模型,需依赖配备高端芯片的大型数据中心,而这类芯片会消耗大量电力与冷却水。

即便完成训练,这些系统对资源的需求依然很高。处理长输入或生成复杂响应时,它们会因并行处理每个词汇而非聚焦关键信息而变慢,同时给内存带来压力,这不仅推高运行成本,也加剧了对环境的影响。

相比之下,“瞬悉1.0”的研发团队从真实神经元的工作原理中汲取灵感。该系统不会同时处理所有信息,而是有选择性地做出反应,以更低能耗完成复杂任务,与人类大脑的工作方式高度相似。

其核心技术模仿了大脑仅在受到触发时才快速发送信号脉冲的特性。这种由事件驱动的方式使系统大部分时间处于“静默”状态,有助于保持高效节能。

研究人员称,尽管SpikingBrain所用数据仅为传统模型的一小部分,但其性能却与主流开源替代模型相当,并且它在处理长序列数据方面也表现出色。

他们在论文中写道:“这一突破性实践不仅为国产算力平台上的高效大模型研发提供了宝贵经验,更对未来大模型的规模化部署与应用开辟了新路径。”

本文系网独家稿件,未经授权,不得转载。

宣城
上一篇:{loop type="arclist" row=1 }{$vo.title}