
今天,专注于视频生成的 runway 公司正式推出了他们的新一代模型系列 —— gen-4。我就说runway 这么长时间憋啥大招呢,模型直接上线,没有套路,最牛的是gen-4解决了场景一致性问题,还有视觉特效加持
下面给大家第一时间划个重点:
简单来说,gen-4 在视频生成的保真度、动态运动捕捉和可控性上都树立了新的标准,相较于之前的 gen-3 alpha 版本,提升非常明显
它的核心优势在于:
1. 高动态与真实感:能生成运动轨迹极其逼真、充满动态感的视频内容 2. 高度一致性:无论是视频中的主体人物、物体,还是整体的艺术风格,gen-4 都能保持高度连贯统一 3. 精准理解与执行:对用户输入的提示词(prompt)理解更深刻,执行更到位,并且拥有顶尖的“世界理解”能力,让生成内容更符合逻辑和物理规律
视觉参考+指令=精准创作
gen-4 的一大亮点在于它能利用视觉参考(比如你提供一张图片或一段视频)结合文字指令,来创造新的图像和视频。这意味着你可以指定某个角色、特定风格或场景,让 ai 在此基础上进行创作,确保内容的连续性和你对故事走向的掌控力
实战检验:短片作品展示 gen-4 强大实力
为了展示 gen-4 的叙事潜力,runway 团队用它制作了一系列短片和 mv:
《the lonely little flame》:这部短片完全由 gen-4 生成,展示了其端到端的创作能力
《new york is a zoo》:集中体现了 gen-4 惊人的视觉特效(vfx)潜力。制作团队先通过 gen-4 的 references 功能,将真实的动物参考图和纽约实景照片融合,再结合提示词指定具体动作,最终效果是将超写实的动物无缝置入了纽约的电影感场景中
《the herd》:这部短片讲述了一个年轻人在夜晚被牛群追逐的故事。仅用了几张图片作为参考,gen-4 就构建出了角色形象和迷雾笼罩的牛群场景,最后再结合 act-one 工具将故事串联起来
《the retrieval》:一部动画风格的短片,讲述探险者寻找神秘花朵的故事,同样完全由 gen-4 制作
如何用上 gen-4?
好消息是,gen-4 的图像生成视频)功能,现在已经面向所有 runway 的付费方案用户和企业客户正式推送。而备受期待的 references(视觉参考)功能也将在不久后上线
试用地址:
https://app.runwayml.com/login
更多关于 gen-4 的技术细节和研发背景,可以访问官方发布页面:
http://runwayml.com/research/introducing-runway-gen-4
⭐星标ai寒武纪,好内容不错过⭐
用你的赞和在看告诉我~