OpenAI发布文生视频模型Sora,AI融合全息将带来怎样的沉浸体验?

继一年多前发布ChatGPT在全球引发AI浪潮之后,近日,全球AI领军企业OpenAI又发布了一款名为Sora的视频生成模型。和以往只能生成几秒钟视频的模型不同,Sora能够生成长达60秒的逼真视频,同时,它不仅能够了解用户在Prompt中提出的要求,还能get到人、物在物理世界中的存在方式,虽然生成效果还有些瑕疵,但Sora的出现仍引发了人们的热议,大家也能明显感觉到Sora似乎是懂一些物理的。在实际生活中,如果能将这一智能AI技术与现实融合,它又将给我们带来怎样的沉浸感受呢?

视频大模型Sora的功能特色

在OpenAI发布的文生视频模型中,它完美继承了DALL·E 3的画质和遵循指令能力,可根据用户的一句话生成长达1分钟的高清视频。与其他AI生成视频应用相比,Sora可以在单个生成的视频中创建多个镜头,并模拟复杂的摄像机运镜,同时准确地保持角色和视觉风格,其中物体运动、光线折射、液体流动等现象都看起来非常逼真,不仅能准确呈现细节,还能理解物体在物理世界中的存在,并生成具有丰富情感的角色。但由于刚刚推出,Sora还存在着一定的技术不成熟之处,其生成的视频中仍然存在一些物理错误,比如物体在空中漂浮、重力失常等。

AI“文生视频”如何改变未来

Sora的出现让世界看到了人工智能的无限可能,随着 AI 技术的不断发展,未来 AI 模型对物理世界的理解会越来越深刻。OpenAI在关于Sora的详细技术报告中表示,Sora对自然语言的理解能力很强,OpenAI将其视为能够理解和模拟现实世界的模型的基础,相信其能力是实现AGI(通用人工智能)的重要里程碑,在未来世界里,它又会带来怎样的改变呢?

如业界专家所说,Sora的影响往小了说是文生视频技术突破了一个数量级,可直接应用于短视频、广告等行业,往大了说,它提供了理解、重建和模拟这个世界的可能性,其强大的生成能力使得它在多个领域都有潜在的应用价值。例如在影视制作行业,通过使用Sora,可以根据文字脚本快速生成逼真的视频内容,还可以用于创建虚拟角色和场景,为电影制作提供无限的创意空间。而在广告行业中,通过文字提示,即可生成符合宣传主题和品牌调性的视频广告,更好吸引到受众。在虚拟现实领域,AI生成视频可提供丰富的视频类型,从而为用户带来更加沉浸式的互动体验。

AI融入沉浸式投影,带来更多逼真视效

沉浸式体验空间中,用户往往会被逼真生动的内容所打动,随着技术的完善和发展,如果可以将AI文生视频融入其中,它将完全有潜力在沉浸式体验空间中发挥重要作用,使内容更换更便捷,为用户提供更加逼真和吸引人的虚拟体验。

同时,需要注意的是虽然这一技术具有广泛的应用前景,但在实际应用中还需考虑到其适用性和局限性,结合具体场景具体分析,才能达到更好的应用效果。

文章编辑:偏锋光术栗子