前谷歌团队创立InfiniMind 推出企业级视频智能平台DeepFrame

32 阅读3分钟应用
前谷歌团队创立InfiniMind 推出企业级视频智能平台DeepFrame

背景

随着企业视频数据规模爆炸,传统的帧级标签已难以满足对叙事、因果和业务洞察的需求。InfiniMind的两位创始人——前Google Japan首席技术官Aza Kai和前运营总监Hiraku Yanagita——看准了这“一片暗数据” 的商业价值,决定以视频智能为突破口,打造企业级的全链路分析基础设施。

核心产品概览

  • TV Pulse:2025年4月在日本上线的实时电视内容监测系统,能够即时捕捉品牌曝光、情感倾向和公关影响。
  • DeepFrame:即将于2026年3月进入Beta的长时视频智能平台,支持一次性处理200小时以上的素材,精准定位场景、说话人和事件。

两款产品均采用零代码接入模式,客户只需上传原始视频,平台即完成多模态解析并返回结构化查询结果。

技术亮点

  1. 跨模态理解:融合视觉、音频和语音模型,实现对画面、声音以及字幕的统一语义映射。
  2. 大规模时序建模:基于2021‑2023间快速迭代的视觉语言模型,突破单帧标注的局限,能够捕捉跨秒、跨分钟的情节走向。
  3. 成本效益:受益于GPU成本下降与算力提升,DeepFrame在保持高精度的同时,将单位时长的处理费用压至行业均值的60%。

融资与市场布局

InfiniMind本轮种子轮融资额为580万美元,领投方UTEC并得到CX2、Headline Asia、Chiba Dojo以及a16z Scout的支持。公司计划将总部迁往美国,同时保留日本研发中心,以利用当地成熟的硬件生态和人才储备。

已与日本多家大型广播机构和零售渠道完成试点,签约客户包括多家批发商、媒体集团以及安防企业。随着DeepFrame的全球Beta即将启动,InfiniMind将在美国市场复制日本的成功案例,重点服务于媒体监测、品牌安全、工业安全和智能零售等垂直领域。

前景展望

创始人Kai将视频智能视为通向通用人工智能(AGI)的关键路径之一:“理解视频即是理解现实。”在AI算力持续提升、跨模态模型日趋成熟的大背景下,InfiniMind的技术有望在未来几年内成为企业级视频分析的标配服务,推动从被动存储向主动洞察的转型。


“我们的目标不仅是帮助企业挖掘视频中的商业价值,更是通过大规模视频认知,推动机器对真实世界的更深层次理解。” — Aza Kai, InfiniMind CEO

本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。