本报讯 (记者陈红)据Xmax AI官方消息,Xmax AI近日正式发布全球首个虚实融合的实时交互视频生成模型——X1。该模型实现毫秒级实时视频生成和低门槛的手势交互,可将虚拟内容实时、无缝地融入现实物理空间,打破了AI视频生成“预制内容”的传统范式。目前,Xmax AI已通过技术演示应用X-cam beta开放了X1模型的能力体验,用户可通过TestFlight下载。
当前,全球AI视频生成领域发展势头迅猛,行业企业纷纷在画质、时长和分辨率上展开技术角逐,相关技术主要服务于影视、广告等专业领域的生产力需求。但现有技术路线多聚焦于“文生视频”的单向输出,对于普通用户而言,复杂的操作流程、漫长的生成等待时间以及内容缺乏互动性,使得AI视频生成难以真正融入日常生活。
针对这一行业痛点,Xmax AI选择“虚实融合+实时交互”的技术路线,X1模型无需复杂的提示词,也无需漫长的云端渲染等待,仅凭手机摄像头和直觉化手势,即可实现虚拟与现实的无缝融合,推动AI视频从“被动的消费内容”向“共创体验”跃迁,让AI视频实现“人人可玩”。
基于X1模型的实时生成能力,Xmax AI落地了四大核心玩法,覆盖多元交互场景。一是次元互动,上传任意角色图,通过手机摄像头对准现实平面,即可将角色实时置入现实场景,虚拟角色能对触摸、捏握等手势做出精准的动态与物理反馈;二是世界滤镜,上传指定风格图片后,摄像头捕捉的现实画面可实现实时全域风格化转化,动作同步保持风格一致性与连贯性;三是触控动图,上传静态照片后,通过触摸屏拖拽照片中的元素,可唤醒并操控角色做出相应动作;四是表情捕手,镜头对准人物后选择指定表情Emoji,AI可实时生成神态精准的动态表情包。
X1模型的技术实现,源于团队在算法与工程层面的核心突破。为实现极速响应与精准意图理解,Xmax AI团队创新端到端流式重渲染架构,实现帧级自回归DiT模型,通过多阶段蒸馏压缩与对抗训练,将扩散采样速度大幅提升;同时构建统一交互模型架构,融合空间三维关系与屏幕二维操作,让模型能精准解析“捏”“拖拽”等复杂用户意图。针对虚实融合数据稀缺的行业困境,团队还搭建了半自动化合成管线,筑牢技术壁垒的同时,也为AI视频生成领域储备了数字资产。
硬核技术的突破,依托专业的研发团队。据悉,Xmax AI团队汇聚了来自华为“天才少年”计划、清华大学KEG与HCI实验室、香港科技大学(广州),以及字节跳动、快手等高校和头部企业的顶尖人才,兼具算法研发与工程落地能力。
Xmax AI方面表示,X1模型和X-cam应用只是企业布局的开端,团队正致力于定义全新的内容交互范式,搭建下一代内容交互引擎。X1模型的推出,让AI视频从单纯的内容生成走向虚实融合的实时交互,为行业发展提供了全新的技术方向。