Peak XV领投C2i,网格到GPU供电方案破解AI算力能耗瓶颈

行业背景
随着生成式AI模型规模持续攀升,算力需求呈指数级增长。BloombergNEF2025年报告预测,全球数据中心电力消耗将在2035年接近翻三倍;Goldman Sachs研究更指出,2023年至2030年间,数据中心整体功耗可能增长175%,相当于再添一个全球前十的用电大国。面对如此规模的能耗,电力成本已成为制约AI算力扩张的关键瓶颈。
C2i的技术路线
C2i Semiconductors成立于2024年,由前德州仪器(TI)电源团队成员Ram Anant、Vikram Gakhar、Preetam Tadeparthy等人联合创立。公司提出的“grid‑to‑GPU”系统,旨在将传统数据中心中多级电压转换(高压→低压→GPU)过程整合为单一、即插即用的供电链路。
- 端到端集成:一次性完成高压到GPU供电的电压降级、功率转换与控制,省去中间多级变压器和分配模块。
- 能效提升:公司估算可将整体供电损耗从目前的15%‑20%削减约10%,即每消耗1兆瓦电力可节约约100千瓦。
- 成本连锁效应:降低电能损耗直接减轻散热负荷,进而提升GPU利用率并降低冷却费用,整体降低数据中心的总拥有成本(TCO)。
融资与市场布局
本轮融资由Peak XV Partners领投,金额1500万美元,后续还有Yali Deeptech和TDK Ventures跟投,使C2i累计融资达到1900万美元。Peak XV的管理合伙人Rajan Anandan指出,资本支出(CAPEX)之外,运营阶段的能源支出(OPEX)是数据中心成本结构的最大变量,“如果能将能耗削减10%‑30%,对应的利润空间将是数百亿美元”。
C2i计划在2026年4‑6月完成首批两款硅芯片的流片,并将在美国和台湾设立客户服务团队,快速对接大型云服务商和超算中心进行实地验证。公司目前拥有约65名工程师,涵盖硅设计、封装以及系统架构三大核心能力。
行业挑战与前景
电源交付是数据中心技术栈中最为成熟且壁垒最高的环节之一,长期由拥有深厚财务实力的传统厂商主导。C2i的全栈重构需要同步推进芯片、封装与系统软件的协同验证,研发周期长且资本需求大。Peak XV提醒,尽管技术风险和市场接受度仍存不确定性,但C2i的验证周期相对较短——“我们将在六个月内看到实测结果”,Anandan如是说。
此外,印度的半导体设计生态近年快速成熟,政府提供的设计激励与人才红利为本土初创提供了前所未有的成长空间。Anandan将其比作“2008年的电商浪潮”,认为C2i有望成为全球供应链中的关键节点。
结语
如果C2i的“网格到GPU”方案能够兑现其能效承诺,势必在AI算力成本结构中重新划分价值链。对于依赖大规模GPU集群的AI模型训练和推理服务提供商而言,降低10%‑30%的电力消耗不仅是成本优化,更是提升竞争力的关键杠杆。未来几个月的实测数据将决定这一新兴技术能否从实验室走向商业化,进而影响全球AI基础设施的布局格局。