AI深水炸弹已然爆炸

禁止剧透,剧透拉黑。

没有丝毫预热和剧透,Open AI深夜直接丢下核弹炸了街,从业者深感要变天。2月16日凌晨,Open AI发布了首个"文生视频"模型Sora。官方介绍Sora能根据文字指令创造出包含丰富细节的逼真场景角色,且能用多角度镜头生成一镜到底的60秒长视频。

目前官网上已经更新了48个样片,视频中人物背景都具有惊人的一致性,并且借助于对语言的深刻理解,Sora创造出的角色能表达丰富的情感。更令业内惊叹的是,Sora身上似乎开始出现"世界模型"的雏形。通过大量观察训练,它学会了许多关于真实世界的物理规律。

要知道原先动画影视公司为让动物的数百万根毛发、皮肤纹理、衣物等细节在3D建模中表现得如现实场景般真实,为此专门成立研究部门,且投入了不菲的成本和时间才得以实现。而如今Sora只需要一行描述,几次提示便能自动完成。

虽然Open AI坦言Sora仍有一些效果上的瑕疵,也因潜在的风险暂未对公众开放,但凭借着极度真实的视觉效果,这一足以"模糊虚实"的王炸级技术正粗暴地冲击着大众心智。

事实上文生视频并非Open AI的独门,赛道早已涌入大量玩家。去年下半年开始,谷歌Meta及部分AI创业公司相继下场试水,国内的字节跳动也于11月推出了文生视频模型Pixel Dance、阿里云的Animate Anyone以及百度文心大模型的类似功能同样在内测,入局者众多但各家效果却未达预期。

当Runway Gen2、Pika Pix、Verse等AI视频工具还在突破数秒内的连贯性时,Sora已经将时长拉至1分钟,大幅度拉高生成视频的可用性。影眸科技CTO张启煊评价道:Sora跟Pika Runway及同类玩家已拉开代差,