英伟达推出VideoLDM,根据文本可生成4.7秒视频

IT之家 4 月 20 日消息,英伟达和康奈尔大学的研究团队合作,近日推出了名为 VideoLDM 模型,可以根据文本描述,自动生成最高分辨率 2048*1280、24 帧、最长 4.7 秒的视频。

英伟达表示该模型配有 41 亿个参数,其中 27 亿个经过视频训练,这符合现代生成式 AI 的标准。IT之家从博文中获悉,英伟达表示通过高效的潜在扩散模型(LDM),能够创建多样化、高质量、高清晰度的视频。

该模型还能创建驾驶场景的视频,视频分辨率为 1024 512 像素,最长 5 分钟。英伟达表示目前该项目处于研究阶段,暂时不会向公众开放。

详细报告可以访问:https://research.nvidia.com/labs/toronto-ai/VideoLDM/

展开阅读全文

页面更新:2024-03-20

标签:英伟   文本   高效   视频   像素   最高分   最长   模型   场景   公众

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top