今天小编分享的互联网经验:湖南95后女博士,力挑谷歌,要造思考时"不发烧"的AI,欢迎阅读。
作者丨黎晓梅
编辑丨刘恒涛
一个馒头的热量 ( 约 20 瓦 ) ,就能完成需要上万瓦电力的运算?
这是陆兮科技冲击的目标。陆兮科技在 2023 年由两位 95 后女性创立,是国内首家 " 类腦计算生态链 " 企业。2024 年,陆兮科技推出了首个非 Transformer 架构、采用类腦技术路线的国产自研大模型— NLM 模型。NLM 模型高效低能耗,推理效率提升了数倍,能耗却降低了 80% 以上。
目前,该模型已通过国家网信办 " 生成式人工智能服务 "、" 深度合成算法服务 " 两项备案,获准上线公开运行。
作为 Transformer 架构的挑战者之一,陆兮科技以类腦算法搭建全自研架构,力争突破 Transformer 的技术垄断,以及对英伟达等高制程芯片的依赖。在宏大的目标前,陆兮科技的底气何在?
挑战 Transformer 做主权 AI
2017 年谷歌提出的 Transformer 架构,带动了新一轮 AI 工业革命。通过自注意力机制和位置编码,Transformer 成为了大模型主流算法底座,引领了 AI 的未来。
但如今,Transformer 的影响正在减弱。由于计算复杂度高、训练和部署成本居高不下、依赖高性能的 GPU 和大量存储空间,Transformer 架构所需的算力竞争难以为继。
陆兮科技创始人兼 CTO 周芃举例,Transformer 遵循暴力解法,每推出一个新的 Token,就必须回溯所有的 Token。就像是让 AI 读了一本书,之后每回忆书中的部分内容,AI 就要把全书内容全部再读一遍,由此带来了大量算力消耗。
一场针对 Transformer 架构的挑战正拉开帷幕。挑战者包括微软和清华推出的 RetNet;卡内基梅隆大学和普林斯顿大学研究团队推出的 Mamba;华中科技大学、字节跳动和香港大学推出的 Liquid 架构等。
挑战者有一个共同的思路:让底层架构算法降本增效。周芃认为,陆兮科技采用的 " 类腦算法 " 技术路线具有显著优势。" 人工智能的浪潮,最初是由大腦的启发开始的。人腦是当今运算能效比最强、能耗最低、成本最低的计算单元。目前人工智能领網域的顶尖学者们都有一个共识,他们认为下一代人工智能是向大腦靠齐的。"
类腦架构的本质,是模仿人腦的神经元结构和功能,实现高效的运算与存储机制。和 Transformer 的暴力解法不同,人腦在运算时仅调取直接相关的神经元,其余神经元处于休眠状态,这样就能减少无效计算。还是以读书做比喻,类腦架构大模型可以直接定位到相关章节,无需从头到尾再读一遍。
图:类腦模型的参数量级 + 款型
" 我们大腦只耗 20 瓦的功耗,但现在的算力中心,搭载 Transformer 架构大模型,完成同样的计算,可能耗上万瓦的电。类腦计算是下一代 AI 的关键。" 周芃表示,Transformer 是驱动了上一轮 AI 工业革命的蒸气机,但其已过时。新一代类腦架构才是真正能够带领人类走向通用人工智能的高速铁路。
周芃是湖南人,1996 年出生,16 岁考上华中科技大学启明实验班,2022 年,在加州大学圣克鲁斯分校获得博士学位。毕业前后,周芃在多家海外顶尖实验室与人工智能企业工作,进行类腦智能研究。她发表了多篇论文,获得了多项专利,在多个顶级期刊和会议担任审稿人,还是多个海内外开源大模型社群的核心贡献者与首要研发者。
周芃的研究兴趣横跨类腦硬體设计与类腦軟體算法,在軟體硬體双向定制研发、交叉赋能、提升 AI 軟體硬體匹配程度上取得了全球独家学术成果。2023 年,国际电气电子工程师协会(IEEE)向周芃颁发了电路与系统领網域年度最高学术奖项 " 达灵顿奖 "(The Darlington Award)。时年 27 岁的周芃,是该奖项设立以来最年轻的得主。
周芃一直关注国内主权 AI 的发展,加上西方国家对华裔科研人员的区别对待,她决定回国创业。周芃认为,在国际 AI 竞争的大背景下,中国必须做主权架构模型。" 为什么有安卓,我们还要做鸿蒙?为什么有英伟达,我们还要做昇腾?自研架构是主权问题。"
2023 年,周芃和学生时代结识的好友汪博伦,一起回国,在深圳成立公司,汪博伦任 CEO,周芃担任 CTO。公司名字 " 陆兮科技 ",取自第一位直立行走的人类 "Lucy"。
打破对英伟达的依赖 能耗降低 80%
类腦架构的落地,是一场横跨算法、芯片与半导体的 " 极限挑战 "。算法上,要模拟人腦的稀疏计算;芯片设计要存算一体,还要突破国产低制程芯片的性能瓶颈。
" 传统的 AI 以数据驱动为主,但人腦的计算和存储不是完全分开的,大腦是存算一体的结构。" 周芃说道。因此,陆兮科技的业务涉及类腦架构搭建、大模型研发、存算一体研究,以及类腦硬體开发。
然而,类腦架构的算法、芯片,乃至半导体都存在瓶颈。周芃说,现在是摩尔定律的黄昏,但做类腦架构的大模型,就要将算法、芯片的难点全部同步突破。
陆兮科技有一支具备芯片 - 算法协同设计经验的团队,团队成员来自加州大学圣克鲁兹分校、麻省理工大学、清华大学、华中科技大学、电子科技大学、中国地质大学等海内外高校,拥有谷歌、中美相关类腦芯片公司的工作经验。通过 " 自研芯片 "+" 软硬适配 " 的思路,陆兮科技试图打破大模型对英伟达芯片的依赖。
一方面,陆兮科技在国产成熟制程上研发了大模型定制化 FPGA 芯片,在先进制程上研发了性能强大的大模型 ASIC 芯片。通过元器件层面的存算一体集成,实现元器件合二为一,打破 AI 芯片性能 " 唯制程论 ",唤醒了成熟芯片的性能冗余,用国产 AI 芯片走出了一条突围之路。
另一方面,陆兮科技与华为、海光等芯片厂商和全国各地的超算、智算中心积极联动,开展模型 + 芯片软硬體一体化适配,让类腦架构能在铺货量极大的国产成熟芯片上跑起来。
图:陆兮科技智能硬體产品
2024 年 2 月,成立一年的陆兮科技,完成 " 类腦大模型 " 底座模型研发,随后推出了全流程自主研发的 NEURARK 类腦架构。基于 NEURARK 类腦架构,陆兮科技研发了底座模型、通用模型、行业垂类模型、端侧离线模型等多条产品线,满足不同行业的场景的多样化需求。
与 Transformer 架构相比,NEURARK 类腦架构运用稀疏激活机制、隐状态管理、无矩阵乘法架构等核心技术,精准复刻大腦运算与存储机制,让大模型像人腦一样,仅激活相关神经元进行计算和存储,从而减少无效计算。
这样的架构,在算力消耗、能源消耗、存储占用、上下文长度、问答响应延迟等多个维度,实现了数倍的性能提升。
周芃说,NEURARK 类腦大模型在推理效率上较传统模型提升数倍,能耗降低 80% 以上。这一优势使其在低制程芯片上的部署表现更为突出,大模型可在包括 FPGA 在内的低制程 + 低功耗芯片上,实现 10B 量级的大规模部署。这对于降低大模型算力与能源消耗、打破芯片行业垄断有重大意义。
" 我们的类腦模型产品线,每款产品都有一个最鲜明的特点:不需要英伟达的 GPU 就能跑得动。" 周芃介绍," 陆兮科技的大参数量级模型,在传统的 CPU 集群上能运行;终端的中级参数量模型,能在笔记本和家用电腦的 CPU 上运行;而端侧小模型,在手机处理器上就能跑。"
全流程自主研发的类腦架构,确保了技术的自主可控,避免了对国外技术的依赖。目前,陆兮 NLM 类腦大模型,通过了国家网信办《生成式人工智能服务备案》、《深度合成算法备案》,是我国首个采用类腦技术路线、通过两项备案、获准上线公开运行的国产自研底层架构大模型。
赋能千行百业 冲击 6000 亿参数规模
"AI 的未来不是快速地流量变现,而是用最前瞻的科技研究、最稳定可靠的智能产品、最丰富普适的功能,创造新质生产力,赋能千行百业高质量发展。水利预测、医疗康复……这些才是国家真正的需求。" 周芃说。
目前,陆兮类腦大模型已在医疗、康养、水利、能源、安防、消费电子等 20 余个基础设施行业实现全面预部署,与中国电子、水利部长江水利委员会、联通、中国田径协会等多个国央企、行业头部企业合作。其中,陆兮科技类腦医疗大模型已在多家三甲医院、医联体网络医院与重点科室实现全面部署。
在这些应用场景中,陆兮科技的类腦大模型,有效提升了工作效率和准确性。例如,通过对洪涝灾害进行预报、预警、预演和预案,提高了灾害预警的科学性。
与国央企共同研发推广通用医疗大模型、糖尿 + 甲乳专病大模型,提高了诊断的准确性和效率。
在端侧,陆兮科技 "NLM-GPT" 刚亮相时,仅需使用手机自带处理器与存储硬體,能在一台普通安卓手机的离线模式下运行,完成工作与生活中的各项任务。
目前,陆兮科技的端侧大模型,已成功部署在手机、手表、手环、耳机、电视、会议设备、智能家居等终端设备中,并在百元级的消费类电子产品中实现 100% 离线端侧部署。
图:架构的核心技术说明
在陆兮科技,女性员工数量超过了一半以上,公司致力于性别平等,提倡员工共同养育子女、处理家庭事务,打造一个更包容、支持女性的工作环境。" 女性从年轻时就经历了无数挑战,形成了强大的韧性,遇到各种艰难险阻,我们都能逢山开路,遇水架桥。陆兮科技创始人的女性身份,对于公司长期、稳健、可持续发展,是极大的优势。" 周芃说。
研究显示,人腦的突触连接总数在 100 万亿左右,相当于 100 万亿的参数规模。而当前最先进的 GPT-4 参数规模约为 1.8 万亿,和人腦参数规模差了 55 倍。
目前,陆兮科技大模型的参数规模为 580 亿。周芃透露,公司正在冲刺下一量级的规模,预计 2025 年将大模型参数规模提升至 6000 亿。
周芃认为,类腦架构将会厚积薄发,轉捩點就在于模型参数规模的扩大,直到逼近人腦的规模。
"Transformer 是近年来发展最快的架构,但之后会趋向平缓。类腦架构在缓慢发展后,将迎来爆发。" 周芃对未来的发展信心满满。
本文为创业邦原创,未经授权不得转载,否则创业邦将保留向其追究法律责任的权利。如需转载或有任何疑问,请联系 [email protected]。