
GitHub - IamCreateAI/Ruyi-Models
2025年1月14日 · Ruyi is an image-to-video model capable of generating cinematic-quality videos at a resolution of 768, with a frame rate of 24 frames per second, totaling 5 seconds and 120 frames. It supports lens control and motion amplitude control.
Ruyi-Models/README_CN.md at main - GitHub
Ruyi 是一款图生视频模型,能够生成 768 分辨率、每秒 24 帧总计 5 秒 120 帧的影视级视频,支持 镜头控制 与 运动幅度控制,使用 RTX 3090 或 RTX 4090 可 无精度损失 地生成 512 分辨 …
[ComfyUI]如意:智驾企业下场搞开源视频模型!7B图生视频&首尾帧&任意宽高比&增强运动与相机控制_comfyui ruyi …
2024年12月19日 · 今天文章主题介绍一款名为Ruyi的AI视频模型框架。 这是一家智能驾驶车企:图森未来发布的一款图生视频的开源大模型,具有中国风名字,叫 Ruyi(如意)。
Ruyi-Models:生成图像到视频开源模型,支持镜头控制与运动幅 …
2024年12月20日 · Ruyi-Models 支持镜头控制和运动幅度控制,使用 RTX 3090 或 RTX 4090 显卡可以生成 512 分辨率、120 帧(或 768 分辨率、约 72 帧)的无损视频。 该项目提供了详细 …
“Ruyi如我心意,让我的图片动起来” - CreateAI视频大模型Ruyi荣 …
Ruyi是一个基于 DiT架构 的图生视频模型,它由两部分构成:一个 Casual VAE 模块负责视频数据的压缩和解压,一个Diffusion Transformer负责压缩后的视频生成。 其中Casual VAE模块会将空间分辨率压缩至1/8,时间分辨率压缩至1/4,压缩后每个像素由16位的BF16进行表示。 DiT部分使用3D full attention,在空间上使用2D RoPE进行位置编码,时间上使用sin_cos进行位置编码,最终的loss选用了 DDPM 进行训练。 模型的总参数量约为7.1B,使用了约200M个视频片段进行训 …
图森未来正式发布图生视频大模型“Ruyi” - 知乎
2024年12月17日 · Ruyi是图森未来正式发布的第一款“图生视频”模型。 凭借在帧间一致性、动作流畅性方面的卓越表现,以及和谐自然的色彩呈现和构图,Ruyi大模型将为视觉叙事提供全新的可能性。
Ruyi I2V 图片视频,支持运镜控制 - RunningHub ComfyUI Workflow
Ruyi 是一款图生视频模型,能够生成 768 分辨率、每秒 24 帧总计 5 秒 120 帧的影视级视频,支持镜头控制与运动幅度控制,使用 RTX 3090 或 RTX 4090 可无精度损失地生成 512 分辨率、120 帧(768分辨率、~72帧)的视频。
图森未来发布图生视频开源大模型“Ruyi”:RTX 4090 就能运行
2024年12月17日 · 据介绍,Ruyi 是一个基于 DiT 架构的图生视频模型,它由两部分构成:一个 Casual VAE 模块负责视频数据的压缩和解压一个 Diffusion Transformer 负责压缩后的视频生成模型的总参数量约为...
Ruyi-Models-一款能够生成电影级质量视频的图像到视频模型
Ruyi-Models是一个图像到视频的模型,能够生成高达768分辨率、每秒24帧的电影级视频,支持镜头控制和运动幅度控制。 使用RTX 3090或RTX 4090显卡,可以无损生成512分辨率、120帧的视频。
图森未来发布并开源“Ruyi”图生视频模型 - CSDN博客
2024年12月30日 · Ruyi基于DiT架构,由Casual VAE 模块和Diffusion Transformer组成,总参数量约为7.1B,使用了约200M个视频片段进行训练。 该模型支持多分辨率和多时长的视频生成,能够处理从384×384到1024×1024的分辨率,并具备首帧、首尾帧控制生成、运动幅度控制和镜头控制 …