无问芯穹:成为大模型时代的算力运营商
无问芯穹在行业内首次实现了多种大模型算法在多种芯片上的高效协同部署、运行,以独家技术优势解决异构算力整合问题,降低行业对单一国际芯片品牌的依赖,增强产业链供应链韧性和竞争力。
文|钱丽娜 ID | BMR2004 在AI算力冰冷的赛道中,一群来自清华大学、上海交通大学、中国科学院的年轻学者用“无问芯穹”这四个充满诗情画意的字,打开了面向无垠穹隆的空间。“无问”二字源自清华的校歌,歌词中写道“立德立言,无问西东”,AI时代即起,英雄也将不问出处。 2025年年初,DeepSeek的问世,人们惊觉大模型训练还能如此压榨算力。在算力决定生产力和竞争力的时刻,算力优化这条赛道的机会陡然出现。 01 找准生态壁垒中的机会 依托“多元异构、软硬协同”的核心技术优势,无问芯穹打造了连接“M种场景与模型”和“N种硬件与芯片”的“M×N”AI基础设施新范式。 无问芯穹的目标是成为大模型时代首选的算力运营商。这样的定位来自于他们对市场的洞察。 人工智能发展由算力、算法和数据三要素驱动。如果把人工智能比作一支火箭,数据是燃料,算法是导航系统,算力就是引擎。人工智能算法要在人工智能芯片上完成部署才能运行,而芯片市场中国际尖端芯片市占率居高不下,虽然许多场景里国产芯片也能完成任务,但囿于国际主流芯片的基础软件生态壁垒,通常难以被优先使用。此外,国产算力间生态互不相通,多元芯片间难协同提供算力。同时,算力资源呈现持有方分散化、地域分布不均衡的特点,跨系统调度与利用效率不高,高性价比、高附加值算力仍存在巨大的供给缺口。 为此,无问芯穹构建了一朵“异构云”,在行业内首次实现了多种大模型算法在多种芯片上的高效协同部署和运行,以独家技术优势解决异构算力整合问题,降低行业对单一国际芯片品牌的依赖,增强产业链供应链韧性和竞争力。 无问芯穹首创了跨机房训练技术,提升零散算力资源可用性,实现高价值数据资源本地处理,让算力与数据流通更高效。打通异属算力资源的高效调度,解决算力需求动态预测与调度问题,实现跨域算力资源共享和配置优化,助力算力资源与下游产业协同发展。 依托“多元异构、软硬协同”的核心技术优势,无问芯穹打造了连接“M种场景与模型”和“N种硬件与芯片”的“M×N”AI基础设施新范式,实现多种大模型算法在多元芯片上的高效协同部署;在云侧,无问芯穹基于多元芯片算力底座构建了Infini-AI异构云平台,向大模型开发者提供极致性价比的高性能算力和原生工具链,为大模型从开发到部署的全生命流程降本增效;在端侧,无问芯穹以软硬协同核心技术构筑“端模型+端软件+端IP”智能终端一体化解决方案。 02 解决异构、异域和异属问题
“异构云”克服了既有算力资源利用的技术“难点”,连接全国算力一体化建设的布局“断点”,打通算力到新质生产力转化的生态“堵点”。 无问芯穹基于异构云平台打造了多区域算力生态平台,可汇聚异构、异域、异属算力,向区域下游产业提供集算力咨询、交易、交付、运营与调度为一体的公共算力服务。具体来看分别表现为: 异构:多元算力优化适配,突破基础软件壁垒使能国产芯片 异构云的核心技术是异构算力适配,即通过一系列技术手段和优化策略,使不同芯片之间能够高效、稳定地协同工作,实现整体系统的最佳性能和功能表现。 2024年7月,无问芯穹于业内首次突破性地实现六种不同品牌芯片间的交叉混合训练,用华为昇腾、天数智芯、沐曦、摩尔线程四种国产芯片分别与超威半导体(AMD)、英伟达(NVIDIA)进行联合训练,算力利用率最高可达97.6%,支持700亿参数规模的大模型训练。该技术可帮助上层用户及任务屏蔽底层芯片差异,促进存量算力资源与新增可控算力二者间高效融合。 异域:跨机房、跨端云训练,解放长尾数据与算力资源价值 在异域联合训练技术方面,无问芯穹全球首创跨机房训练技术。通过并行编排机制的独特创新,实现跨越120公里的异属机房中集群间联合训练,在通信带宽仅有不到20GB/s 的情况下,实现沐曦加速卡与英伟达加速卡的跨机房混训,最大化降低低通信带宽的影响,使算力的性能损失保持在10%以内。同时,该技术支持云、边数据隔离式模型训练。企业利用极少量边缘算力即可实现和充沛云端算力的协同训练,高价值行业数据资产得以留在本地,可极大提升数据流通效率与产业价值。 异属:汇聚多来源算力建设算力生态平台,赋能产业数智升级 在异属算力资源高效调度方面,无问芯穹持续打造算力资源市场化运营最佳实践。过去3个月间,无问芯穹已成功利用核心技术实力,先后推动上海徐汇模速空间算力生态平台、浙江杭州市算力资源服务平台、北京海淀公共算力服务平台等标杆项目落地。 无问芯穹联合创始人、首席执行官夏立雪介绍,近百家下游企业正排队入驻上述平台。算力生态平台的建设有利于将算力服务从单一资源交易升级为全产业链生态引擎,既解决企业“用得起、用得好”算力的现实需求,也通过生态聚合效应赋能地区构建因地制宜的特色现代化产业体系。 无问芯穹的“异构云”克服了既有算力资源利用的技术“难点”,连接全国算力一体化建设的布局“断点”,打通算力到新质生产力转化的生态“堵点”。结合人工智能应用开发工具链,提升算力基础设施对大模型广泛应用的支持水平,让算力真正成为推动数智化转型的核心引擎。 03 智能终端的机会
无问芯穹以软硬协同核心技术优势打造了“端模型+端软件+端IP”智能终端一体化解决方案。 然而,动辄百亿参数规模的大模型部署对端侧设备的计算能力、功耗和存储空间都提出了巨大挑战。将模型安装终端本地环境后,模型性能损失、推理速度太慢、功耗效益低下等困境将影响智能消费终端的发展,限制自动驾驶感知决策、无人机路径规划、具身智能动作决策等场景的落地效果。 为此,无问芯穹以软硬协同核心技术优势打造了“端模型+端软件+端IP”智能终端一体化解决方案,以顶尖的终端AI系统,在更加苛刻的硬件资源限制下,深度协同应用场景,实现算法模型、推理引擎、系统调度、芯片架构的全链路优化闭环。已发布全球首个多模态3B轻量化开源模型,同精度下推理速度领先其他模型300%;自研智能终端大模型推理引擎,在多种硬件上推理性能达行业第一;自研第二代大模型推理处理器LPU,实现智能终端推理性能和能效的量级提升。 端模型:多模态模型端侧轻量化部署,升级关键生产力工具 大模型能力正从云侧逐渐下沉至终端,逐渐加深对视觉、听觉等更多模态信息的理解,终端需要实现更匹配人类感官感受的新交互范式。 2024年12月,无问芯穹推出全球第一款端侧全模态理解开源模型Megrez-3B-Omni,实现端上图像、音频、文本模态数据的极速推理,并在三个模态的多种测评基准中都取得了最优性能,推理速度最大可领先同精度模型300%,同时还特别提供了WebSearch 功能,可以自动决策工具调用时机,用户得以构建属于自己AI搜索,通过网络获取最新信息,克服小模型的幻觉问题和知识储备不足的局限。 端软件:支持端侧AI更高效落地,协同基础软硬件系统运行 随着优质数据资源价值挖掘触顶,未来模型能力增长将转向依赖推理时的迭代计算,以此提升模型指令遵循能力和复杂任务处理能力,这将推动产业中10—100倍的推理开销需求增长。 无问芯穹自研智能终端推理加速引擎Mizar 适配Intel、AMD、NVIDIA等硬件平台,支持各种终端设备CPU、GPU 和NPU 的同时推理,还能通过跨越软硬件层次的系统优化,为多款智能终端设备额外带来70% 以上的性能提升,最大化端侧硬件性能的利用,已在联想多款型号产品中完成适配,将伴随最新版本产品预装量产和上线。 端IP:软硬件一体化设计,以AI推理硬件为智能终端提速增效 多模态模型与推理时计算的范式变化使得智能终端的算力与带宽需求激增,现有端芯片已无法满足泛端侧智能应用需求。无问芯穹长期坚持软硬件协同优化技术路线以实现硬件效能的数量级提升,而非单纯依赖硬件工艺的缓慢迭代,自研第二代大模型推理处理器LPU(Large-model Processing Unit)IP,采用了“算法-软件-架构-工艺”协同优化设计,支持文生文、文生图与文生视频等大模型在智能终端上的高性能、低功耗推理,可大幅降低大模型终端产业部署成本,支撑人工智能在新型消费电子、创新型硬件制造以及工业、服务、医疗等众多场景中的高质量落地。 无问芯穹基于软硬件协同设计核心技术能力,打造的“端模型+端软件+端IP”智能终端一体化解决方案,可适用于多样化新一代智能终端, 致力于实现10倍以上的推理吞吐和能效提升,正与联想等行业伙伴一起打造下一代现象级新终端与端云协同计算新范式,推动端侧轻量化模型在垂类终端如智能网联新能源汽车、人工智能手机和电脑、智能机器人以及智能制造装备中的规模化落地。
智能终端是将我国数字技术突破与制造优势、市场优势更好结合的最佳“反应界面”。随着多模态、强推理、端芯片等端侧大模型技术拐点的到来,数十亿终端将迈入大模型时代,实现人机交互范式的根本性变革。