太初元碁适配40+AI大模型,国产大模型爆发红利正向上游?加速传导,太初元年是哪一年

  更新时间:2026-02-20 06:19   来源:牛马见闻

吉报头条
重要新闻
国内新闻
国际新闻
图片精选

智谱GLM-5弌阿里云千问Qwen3.智谱宣布GLM套餐涨幅30%起

<p> </p> <p> (文/陈济深 编辑/吕栋) </p> <p> 2月18日,(国产AI芯片企业!太初(无锡)电子科技有限公司(又称“太初元碁”)完成智谱GLM-5.0、阿里千问Qwen3.5-397B-A17B等大模型的深度适配 。 </p> <p> 截至目前,其已完成包括DeepSeek、Qwen、GLM、Intern-S1、文心等在内的40+AI大模型的即发即适配,上线即可用 。 </p> <p> 自2026年元旦以来,多家知名企业纷纷宣布更新国产大模型,行业全面跨入“周更”时代 。在这样的高频迭代下,底层算力底座的响应速度已经成为决定生态话语权的关键 。太初元碁此次的高效交付,正是对其软硬件协同实力的有力印证。 </p> <p> 这一进展正发生在国产大模型史上最密集的爆发周期之中——大模型迭代节奏已从季度级压缩至周级,随之而来的算力需求正在加速向上游传导,国产AI芯片迎来了前所未有的历史性机遇 。 </p> <p> <strong>需求向上游算力加速传导</strong> </p> <p> 马年春节前后,国产大模型集中引爆 。 </p> <p> 1月27日,月之暗面发布Kimi K2.5,多项Agent评测位居全球开源最佳 ; </p> <p> 2月11日,智谱GLM-5开源,在全球权威榜单Artificial Analysis开源模型排名第一 ; </p> <p> 2月16日除夕夜,阿里云千问Qwen3.5-Plus上线,API价格低至每百万Token0.8元,仅为Gemini3Pro的1/18 。 </p> <p> 模型密集发布的背后是真金白银的算力投入:字节2026年AI芯片预算约850亿元,阿里巴巴未来三年在AI与云基础设施投入至少约3800亿元 。 </p> <p> 大模型端的爆发,已开始向价格端传导——2月12日,智谱宣布GLM套餐涨幅30%起,并启动算力合作伙伴计划,供需紧张的信号清晰可见 。 </p> <p> 更值得注意的是,多模态大模型正在成为算力消耗的新引擎 。 </p> <p> 以快手可灵、字节Seedance系列、MiniMax等为代表的多模态大模型,正进入“竞速式更新”周期 。 </p> <p> 据非凡产研数据统计,国内AI应用收入Top30产品中,多模态占比高达67% 。以快手可灵为例,截至2025年12月,年化收入达2.4亿美元,2026年1月MAU突破1200万 ;而字节近期的Seedance2.0已支持9张图片、多段音视频的组合输入,并生成30-60秒连贯叙事视频 。 </p> <p> 这种多模态应用在广告传媒、短剧等行业的真实落地,正在将“单次调用推理token”显著拉升 。 </p> <p> 据火山引擎数据显示,其大模型推理日均Token调用量已从2024年底的2万亿增长至2025年底的63万亿 。训练、推理、多模态,算力需求正在全面扩张,国产AI芯片的市场空间随之打开 。 </p> <p> <strong>国产算力正在击穿CUDA壁垒</strong> </p> <p> 太初元碁此次完成的40+模型适配,正是抓住这波需求红利的具体行动 。 </p> <p> 其覆盖范围极其广泛,涵盖了DeepSeek、Qwen、GLM、Seed-OSS、文心一言系列大语言模型;BAAI Embedding / Reranker系列向量模型;Qwen-VL、LLaVA系列多模态理解模型;Stable-Diffusion、FLUX、Wan系列等多模态生成类模型;MinerU、DeepSeek-OCR、Paddle-OCR等主流OCR模型;以及Intern-S1科学多模态大模型。且所有适配均在其自研T100加速卡上完成 。 </p> <p> 适配数量只是表象,能否让开发者低门槛用起来才是真正的竞争力所在 。 </p> <p> 长期以来,英伟达拥有400多万开发者用20年积累的CUDA软件生态,被视为极高的竞争壁垒 。 </p> <p> 然而,这座护城河正在经历前所未有的松动——不久前,一位开发者仅用ClaudeCode2.1花费30分钟,就在“零手写代码”的情况下,将一段完整的CUDA后端代码成功移植到了AMD的ROCm上。加上英伟达最新发布的CUDA13.1采用的Tile编程模型大幅降低了GPU编程门槛,AI模型自身正在反向瓦解硬件绑定的生态。 </p> <p> “软件定义硬件的趋势日益明显” ,有业内人士对观察者网表示,“过去先有硬件再由软件团队完善软件栈的时代已经落幕 。过去在纸上‘吹的牛’,终将需要落地,否则会被时代浪潮淘汰。” </p> <p> 顺应这一趋势,太初元碁在SDAA软件栈中推出了阶梯式工具链,全面覆盖从入门到高阶的开发需求 :SDAACopilot作为专注加速卡算子生成的AI大模型,可在小时级别生成并通过3000个算子代码单元测试 ;Teco-Triton让开发者用熟悉的Python编写高性能算子 ;SDAAC支持C/C++标准语法直接进行内核开发 ;PCX虚拟指令集则支持对关键计算路径的精细优化 。 </p> <p> 落地最关键的一环是Teco-vLLM——基于GPU开发的vLLM原生应用无需修改任何代码和启动方式,即可无缝迁移至太初元碁硬件运行,实现零成本兼容AI主流任务 。这套工具链的核心目标非常明确:提供CUDA代码自动迁移工具和AI编译器,让用户“无感地完成从CUDA生态的迁移” 。 </p> <p> <strong>集群、性价比、生态,国产算力的三个发力点</strong> </p> <p> 太初元碁首席产品官洪源对观察者网表示,面对这波需求红利,国产AI芯片企业有三个核心发力方向 。 </p> <p> 第一是集群性能 。面对万亿参数大模型及多模态海量数据的并行计算,洪源将互联能力比作“分布式计算的数据传输高速公路” 。“前沿大模型训练已要求数万张算力卡互联并行工作,国产厂商不能只关注单卡性能,需要充分考虑如何构建产品真正的集群性能 。”太初元碁长久以来深耕高性能计算领域,为此采用了ScaleUP、ScaleOUT双层高速互联技术,并辅以HVDC大功率高效供电技术和微通道液冷技术,构建了互连、供电、冷却三位一体的高密度系统集成,以支撑大规模训练任务 。 </p> <p> 第二是推理性价比 。随着推理需求几何级增长,“每Token对应的成本将有可能决定产品的生死” 。洪源认为这恰恰是国产算力的机会所在 :相比训练任务对万卡集群的极端依赖,推理对单卡性能要求相对可控 。以高性价比、低延迟和能效优化为核心指标去设计推理产品,将成为国产AI芯片赢得市场份额的关键路径 。 </p> <p> 第三是生态建设 。破局的路径必须是发展开发者社区、支持AI编译器屏蔽硬件底层差异,“让国产AI芯片在最终客户侧落地时,必须回答并彻底解决一个实际问题,如何帮助用户甚至让用户无感的从CUDA生态迁移过来 。” </p> <p> <strong>资本竞相涌入,赛道回归产品本源</strong> </p> <p> 大模型爆发带来的机遇,也在驱动资本对国产算力赛道的快速重新定价 。企查查数据显示,太初元碁于2026年2月10日完成新一轮“A+轮”融资,由浦东科投、普丰资本、中科图灵参与,其中普丰资本与中科图灵为老股东跟投加注 。 </p> <p> 浦东科投与普丰资本的布局履历几乎是整个国产算力赛道的缩影,两家机构此前参与了摩尔线程、燧原科技、沐曦、壁仞科技、天数智芯等国产AI芯片企业的投资 。在摩尔、沐曦等早期标的相继走向资本市场、引爆千亿级市值之后,资本将目光投向仍处成长期、走“超智融合”路线的太初元碁,是对商业化落地初见成效企业的自然押注 。整个赛道的估值重估正在同步发生,月之暗面、智谱、MiniMax等大模型厂商的估值近期均实现大幅跃升 。 </p> <p> 然而,当赛道被置于强光灯之下,资本市场的喧嚣并非终点。正如太初元碁高管团队的内省:“非宁静无以致远” 。在动辄数百亿市值的资本盛宴中,大考才刚刚开始 。 </p> <p> 大模型的“周更”浪潮不会停,随之而来的算力需求也将持续扩张 。 </p> <p> 在这个门槛极高、长周期的硬科技行业中,能够在大浪淘沙后笑到最后的企业,一定是保持服务用户初心、坚守极致产品导向的“简单”企业 。 </p>

编辑:芭芭拉·贝芝