DeepSeek产业聚光灯 | 流量红利里的“中国范式”

科技 AI 大模型 2025-03-05 23:08:18
DeepSeek模型的部署降低了算力门槛,削弱了英伟达等公司的主导地位,硅基流动与华为云的合作则让市场看到了中国芯片的力量。

观点网 2月19日,硅基流动表示已于2024年底完成亿元人民币Pre-A轮融资。本轮融资由华创资本领投,普华资本跟投,老股东耀途资本继续超额跟投,华兴资本担任独家财务顾问。本轮融资之前,硅基流动已引入美团作为战略股东。

从促进硅基流动未来的发展来看,此次融资将加速硅基流动的AI云基础设施升级与商业化拓展;而从市场的角度来看,Pre-A轮融资也表明了资本市场对于AI基础设施赛道的重视。

据市场统计,从2023年底发布以来,DeepSeek的用户量激增50%,但在春节期间却因外部黑客攻击、自身算力不足导致服务器频繁显示“繁忙”情况,这也为硅基流动等第三方平台提供了较大的流量红利。

在国产芯片上跑起来

2月1日,硅基流动和华为云联合上线基于华为云昇腾云服务的DeepSeekR1/V3推理服务。观点指数了解到,目前硅基流动和云昇腾云服务支持部署的DeepSeek模型可以获得持平全球高端GPU的效果。

且值得注意的是,本次合作上线的满血版DeepSeek是在国产芯片上运行的。

具体来说,华为采用自研的达芬奇架构开发了昇腾910和昇腾310两款AI处理器芯片,而华为云又上线了昇腾AI云服务,并面向企业提供一键接入获取AI算力的服务。华为昇腾AI云服务有一个“百模千态”专区,其中除了华为的盘古大模型外,还能适配业界主流的上百个开源大模型,从而支撑企业和开发者更快速地创建自己的大模型应用。

因为DeepSeek是开源模型,所以此次合作是由华为云负责调配算力资源,硅基流动负责让模型在GPU上可以运行并具备问答能力,同时确保模型运行稳定、不损失精度,且保证运行速度尽可能快,保障了用户体验。

据悉,硅基流动也是除了官方以外,第一个提供基于国产芯片的671B满血模型MaaS云服务的平台。硅基流动并非只上线DeepSeek这一种大模型,还有通义大模型Qwen2、GLM-4、FLUX.1、CosyVoice等在内的上百款主流模型,此外还提供模型训练、微调、托管到部署的全链路支持。

对于中小企业而言,无需自建算力中心即可使用大模型。且2月19日消息称,轻流与硅基流动正式达成合作,并成功上线了“硅基流动连接器”。这一创新合作将为用户提供更加便捷的集成解决方案,使企业能够在轻流系统中直接快捷使用硅基流动的多项功能,从而进一步提升业务系统的智能化和自动化水平。

DeepSeek的流量红利带动了硅基流动等第三方大模型云服务商,同样也引起市场对于国产芯片的重视。市场消息称,华为的昇腾910B芯片在实测中性能超过英伟达A100,达到127%。

市场表现同样展示了国产芯片的实力,2月27日,非国产芯片英伟达股价大跌8.5%,市值蒸发2740亿美元,股价目前已较1月6日创下的历史高点回落近20%。

2月27日,国产芯片寒武纪发布的业绩快报显示,2024年实现营业总收入11.74亿元,同比增长65.56%;净利亏损4.43亿元,上年同期亏损8.48亿元。2024年全年,寒武纪股价涨幅超过387%;2025年至今,股价又上涨了近21%,总市值飙升至3323亿元。

算力生态

目前,我国的算力产业正处在高速增长的阶段。据IDC数据披露,2024年中国智能算力规模同比增长74.1%。未来两年,中国智能算力规模将保持高速增长。

其中,大模型和生成式人工智能的快速发展推高了算力需求,2024年中国智能算力规模达725.3EFLOPS(每秒百亿亿次浮点运算次数),同比增长74.1%。预计2025年中国智能算力规模将达到1037.3EFLOPS,较2024年增长43%;2026年中国智能算力规模将达到1460.3EFLOPS,为2024年的两倍。同时,2023年至2028年期间,中国智能算力规模的五年年复合增长率预计达46.2%。

除了市场需求外,算力的蓬勃发展同样离不开国家相关政策的支持和技术的发展。

2024年12月28日,国家发改委等六部分发布《关于促进数据产业高质量发展的指导意见》。其中提及打造全国一体化算力体系,发展通算智算、超算等多元化算力资源,支持企业参与算力全产业链生态建设,构建一体化高质量算力供给体系。

DeepSeek对依赖自研大模型并通过模型调用构建商业模式的公司,如OpenAI、Anthropic、月之暗面、字节跳动等造成较大影响。据悉,DeepSeek-R1仅以1%的成本(约为600万美元)的投入便实现了超越Llama 3(Llama同样也是开源模型)的性能表现,这一成就已引发公司内部AI团队的担忧,尤其是考虑到他们正在研发的下一代模型Llama 4的预期投入将比Llama 3高出数倍。

据媒体报道,Meta已成立四个专门的研究小组,深入分析DeepSeek的技术原理,并计划将其应用于Llama模型的优化中。

DeepSeek模型的部署降低了算力门槛,削弱了英伟达等公司的主导地位,也为云厂商带来了新的收益机会。

1月30日起,亚马逊AWS宣布,其用户可以在Amazon Bedrock和Amazon SageMaker AI中部署 DeepSeek-R1模型,享受AWS提供的优质服务和支持。

1月29日,微软也宣布DeepSeek-R1已在Azure AI Foundry 和 GitHub上提供,开发者将很快就能在Copilot +PC上本地运行DeepSeek的R1精简模型,以及在Windows庞大的GPU生态系统中运行。

DeepSeek的流量红利中,带来的还有整个算力生态产业链的整合。

2月2日,浪潮信息、中科曙光在算力基础设施方面为DeepSeek提供服务,前者为DeepSeek北京亦庄智算中心提供AI服务器集群,配套英伟达H800芯片及自研AIStation管理平台。

此外,中科曙光还承建DeepSeek杭州训练中心的液冷系统。高效的液冷系统能够保障DeepSeek在大规模计算和长时间运行过程中服务器的稳定性能,为其提供稳定的运行环境,确保DeepSeek的训练任务能够高效、稳定地进行。

1月28日,润泽科技表示将为DeepSeek提供廊坊数据中心的3000+机柜资源,采用间接蒸发冷却技术,运营成本低于同行15%,可确保DeepSeek的数据存储、处理等工作稳定高效进行。

2月8日,超擎数智表示为DeepSeek提供光模块和交换机。光模块和交换机是数据传输的关键部件,其性能优劣直接影响数据传输的速度和稳定性,超擎数智提供的高性能产品能够满足DeepSeek在数据传输方面的高要求。

在智算中心方面,超擎数智的光模块和交换机能够实现高速的数据交换,使得不同的计算设备之间能够高效协作,大大提升了整个智算中心的运行效率,为DeepSeek模型的训练和应用提供了有力保障。

免责声明:本文内容与数据由观点根据公开信息整理,不构成投资建议,使用前请核实。

撰文:吴丹怡 审校:徐耀辉
返回