硅基流动业务提速,小厂如何在大模型行业搏空间?
来源:界面新闻作者:伍洋宇2025-09-19 11:25

2025年初,凭借在DeepSeekV3及R1爆火前后的迅速反应,硅基流动赶在2月1日上线了基于国产芯片服务的前述两款模型,赚得了市场一大波关注及用户。

彼时,硅基流动的更多目标用户指向C端(消费者端),认为企业端用户的大模型部署场景和需求还不甚明朗。近半年时间过去,公司透过已注册的700万用户、1万余家企业用户观察到了变化。

硅基流动联合创始人胡健告诉界面新闻记者,团队发现多数企业从最开始的尝试心态逐渐变为发现了更多可落地的场景(例如智能办公、能源领域系统级优化等),并且走到了可以批量部署的阶段。

在这个时间点,公司正式推出了企业级MaaS(模型即服务)平台,涉及异构算力纳管、模型训练、推理部署等一系列环节。平台预集成了一批主流开源与闭源大模型,提供多种算力卡推理加速包,新模型可在1-3天完成适配并同步至企业私有环境。

自AI大模型成为创业风口以来,在模型层与应用层的热点接续中,一批提供MaaS平台的中间层企业找准定位成长起来,意图成为这片领域稳固的基础设施。硅基流动正是其中一家。

在此之前,企业部署大模型的难题已经得到了总结,模型筛选成本高、适配周期长、性能成本高、模型升级导致的作业不顺畅等等。硅基流动的核心目标,就是通过公有云的方式加快对模型和用户需求的感知,同时弥补国产芯片软件生态,提升算力运营效率,支持企业对大模型能力的“开箱即用”。

面对同样提供MaaS服务的云厂商们,硅基流动绕不开的是差异化竞争话题。

异构算力是其中一个重要维度。胡健提到,现有企业客户中国企占比相对较高,通常掌握大量国产芯片,模型部署往往要建立在异构算力基础上,而国产芯片从能用到好用还存在优化空间。因此,针对国产芯片进行模型适配与推理加速,以达到英伟达等海外厂商同等规格的GPU表现,成为MaaS平台的主要任务之一。

硅基流动为此构建了闭源的大模型推理引擎,覆盖英伟达、AMD、昇腾、沐曦、摩尔等主流芯片厂商,其能力尤为体现在新模型的适配速度上。

例如,国产卡从前被诟病对新模型适配周期较长,从数周到数月不等。对此,胡健表示,如果是基于硅基流动的国产芯片公有云,一个72B的稠密模型可以做到当天上线,MoE架构模型最快可以在1-2天内上线。

对模型层和算力层的理解,以及对其产品的洞察,可能很大程度上决定了中间层公司的先发优势。胡健回忆称,DeepSeekV3和R1上线之前,对方团队曾建议配备40台H100机器,出于成本考量,硅基流动决定与华为昇腾合作,及时为市场提供了适配国产芯片的V3及R1模型。

回头看,这个决策无比正确且重要。“我们最开始的时候用户基数可能不到50万,一个月不到的时间涨到了500多万,翻了10倍左右。”胡健说。但与R1的爆火难以复制是一样的,这样的时机在业内也很难再出现了。

当前更常规的做法还是采取市场思维,在新模型出现后及时测评,如果达到要求,先快速适配一两台机器验证流量,随着规模的扩大再做弹性跟进。“但其实市面上永远是二八定律,百分之二三十的模型占据了百分之八十的流量。”

在商业模式上,MaaS平台还有需要摸索的路。目前,项目制收费和token消耗计费是两大主流付费模式,但前者存在一定规模化的限制,而后者则要考虑token价格会越来越便宜。胡健推测,参考电力模式,未来token费用或许会根据不同行业、不同应用出现类似工业用电、农业用电的分级收费制度。在此基础上,他认为市场还在不断加速扩张。

IDC数据显示,2024年12月,中国公有云大模型日均tokens调用量9522亿,是2024年6月日均调用量963亿次的近10倍。随着模型层的推陈出新,以及应用层的新产品不断涌现,行业普遍认为AI算力的消耗长期仍呈现大幅上升趋势。

“在这么大增长的情况之下,我们一个小厂,有自己的使命,也有自己的生存空间。”胡健认为,市场远未到竞争的态势,而是属于大模型应用服务的偏中早期阶段。

并且,随着模型和应用走向多元化,中间层公司也有采取纵向发展的机会,就某一个领域的具体场景将模型、功能以及行业特性绑定更深,最终形成差异化的生存路径。

责任编辑: 陈勇洲
声明:证券时报力求信息真实、准确,文章提及内容仅供参考,不构成实质性投资建议,据此操作风险自担
下载“证券时报”官方APP,或关注官方微信公众号,即可随时了解股市动态,洞察政策信息,把握财富机会。
网友评论
登录后可以发言
发送
网友评论仅供其表达个人看法,并不表明证券时报立场
暂无评论
为你推荐
时报热榜
换一换
    热点视频
    换一换