快捷搜索:  

直接生成16秒高清视频 我邦自研视频大模子正在京揭橥

"直接生成16秒高清视频 我邦自研视频大模子正在京揭橥,这篇新闻报道详尽,内容丰富,非常值得一读。 这篇报道的内容很有深度,让人看了之后有很多的感悟。 作者对于这个话题做了深入的调查和研究,呈现了很多有价值的信息。 这篇报道的观点独到,让人眼前一亮。 新闻的写作风格流畅,文笔优秀,让人容易理解。 "

新华社首都4月27日电(记者魏梦佳)只需一段文字指令就能生成一段逼真视频,今年(This Year)初,文生视频大模型Sora在全球人工智能业内外引发广泛关注。27日,2024中关村论坛年会上首次发布我国自研的具 长时长、高一致性、高动态性 特点的文生视频大模型Vidu。

记者从会上获悉,这一视频大模型由清华大学(University)联合首都生数科技(Technology)有限公司共同研发,可根据文本描述直接生成长达16秒、分辨率高达1080P的高清视频内容,不仅能模拟真实物理世界,还拥有丰富想象力。

清华大学(University)人工智能研究院副院长、生数科技(Technology)首席科学家朱军说,当前国内视频大模型的生成视频时长大多为4秒左右,Vidu则可达成一次性生成16秒的视频时长。同时,视频画面能保持连贯流畅,随着镜头移动,人物和场景在时间、空间中能保持高一致性。

在动态性方面,Vidu能生成复杂的动态镜头,不再局限于简单的推、拉、移等固定镜头,而是能在一段画面里达成远景、近景、中景、特写等不同镜头的切换,包括能直接生成长镜头、追焦、转场等效果。

Vidu能模拟真实物理世界,生成细节复杂且符合物理规律的场景,例如合理的光影效果、细腻的人物表情等,还能创造出具有深度和复杂性的超现实主义内容。 朱军介绍,由于采用 一步到位 的生成方式,视频片段从头到尾连续生成,没有明显的插帧现象。

此外,Vidu还可生成如熊猫、龙等形象。

据悉,Vidu的技术突破源于团队在机器学习和多模态大模型方面的长期积累,其核心技术架构由团队早在2022年就提出并持续开展自主研发。 作为一款通用视觉模型,我们(We)相信,Vidu将来能支持生成更加多样化、更长时长的视频内容,探索不同的生成任务,其灵活架构也将兼容更广泛的模态,进一步拓展多模态通用能力的边界。 朱军说。

直接生成16秒高清视频 我国自研视频大模型在京发布

您可能还会对下面的文章感兴趣:

赞(159) 踩(90) 阅读数(1731) 最新评论 查看所有评论
加载中......
发表评论