点击蓝字 关注我们
SUBSCRIBE to US
Image: Runway
据一份公告称,人工智能初创公司Runway表示,其最新的人工智能视频模型能够在多个镜头中生成连贯的场景和人物(https://runwayml.com/research/introducing-runway-gen-4)。人工智能生成的视频在保持叙事连贯方面可能存在困难,但Runway在X(推特)上声称,新模型Gen-4应该能让用户在叙事时拥有更多的“连贯性和掌控性”。
新的Gen-4视频合成模型目前正在向付费用户和企业用户推出,它允许用户使用单张参考图像在多个镜头中生成角色和物体。然后用户必须描述他们想要的构图,之后该模型将从多个角度生成连贯的输出内容。
例如,这家初创公司发布了一个视频,视频中的一名女子在各种光照条件下、不同镜头和情境中保持着相同的外貌。
在Runway发布Gen-3 Alpha视频生成器不到一年后就推出了这个Gen-4模型(https://runwayml.com/research/introducing-gen-3-alpha)。该Gen-3 Alpha模型延长了用户可生成视频的时长,但也引发了争议,因为据报道它是基于数千个从YouTube上抓取的视频和盗版电影进行训练的。
微信号|IEEE电气电子工程师学会
新浪微博|IEEE中国
Bilibili | IEEE中国
· IEEE电气电子工程师学会 ·
往
期
推
荐
AI如何解读人类幸福?
无人机助推产业迈向新高度
数字干扰让人抓狂?这些方法或许能解决
检查大坝:卫星和无人机如何帮助避免灾难