Google推出Project Genie实验原型 打造交互式无限世界

26 阅读3分钟前沿
Google推出Project Genie实验原型 打造交互式无限世界

项目概述

Google 于 2026 年 1 月 29 日向美国地区的 Google AI Ultra 订阅用户开放 Project Genie,这是一个基于最新世界模型 Genie 3 的实验性原型。用户可以使用文字或上传图片快速勾勒出一个可实时漫游的三维环境,并在浏览过程中即时生成路径、物理交互和角色动作。

关键功能

  • 世界草绘:通过文本提示或 Nano Banana Pro 辅助的图像预览,用户可在几秒钟内创建出包含地形、建筑乃至角色的完整场景。
  • 实时探索:系统在用户移动时实时预测前方的环境变化,支持第一人称、第三人称视角切换以及行走、飞行、驾驶等多种交互方式。
  • 世界 Remix:用户可基于已有的提示重新生成或在画廊中挑选创意场景进行二次创作,完成后可导出短视频以供分享。

技术与团队背景

Project Genie 由 Google DeepMind、Google Research 与 Google Labs 三大团队联合研发,核心模型 Genie 3 于去年 8 月首次向内部测试者展示。相较于传统的 3D 静态快照,Genie 3 能在每一步动作后即时推演物理规律,保持长达 60 秒的连贯生成,同时兼容 Gemini 大模型的语言理解能力,实现跨模态提示的无缝衔接。

责任与局限

  • 生成的场景在真实感和细节上仍有提升空间,部分提示可能出现偏差。
  • 角色控制偶尔出现延迟或不稳定,尤其在复杂交互时表现更明显。
  • 当前原型限制生成长度为 60 秒,且部分 August 版 Genie 3 的功能(如可编程事件)尚未开放。

Google 在页面中重申,Project Genie 属于实验性研究原型,后续将持续收集用户反馈,以完善模型的真实性、可控性和多样性。

市场与未来展望

随着生成式 AI 向沉浸式媒体延伸,Project Genie 为内容创作者、游戏开发者以及教育培训提供了全新的快速原型工具。Google 表示,未来将在更多地区推广该原型,并探索将世界模型技术应用于机器人仿真、数字孪生以及历史场景重建等场景,助力通往通用人工智能(AGI)的路径。

“我们希望通过交互式世界模型,让用户直接感受 AI 在现实复杂环境中的推理与创造能力。”——Google DeepMind 项目负责人

本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。