需求人群:
"适合影视制作、广告创作、视频内容创作者以及需要高效视频生成的开发者和企业。该模型能够快速生成高质量的视频内容,降低制作成本,提高创作效率。"
使用场景示例:
影视制作公司利用 SkyReels-V1 快速生成高质量的预告片和片段。
广告创作者通过该模型生成创意视频,用于社交媒体广告。
视频内容创作者快速生成个性化视频,提升内容创作效率。
产品特色:
支持文本到视频(T2V)和图像到视频(I2V)生成
能够捕捉 33 种面部表情和 400 多种自然动作组合
基于高质量影视数据训练,生成电影级画质的视频
提供高效的推理框架 SkyReelsInfer,支持多 GPU 并行处理
支持用户级 GPU 推理,优化内存占用,适合消费级显卡
使用教程:
1. 克隆 SkyReels-V1 仓库到本地。
2. 安装依赖:运行 `pip install -r requirements.txt`。
3. 配置模型参数,如分辨率、帧率、提示词等。
4. 启动推理:运行 `video_generate.py` 脚本,指定模型 ID 和任务类型。
5. 根据需要选择单 GPU 或多 GPU 推理模式,优化性能。
浏览量:25
最新流量情况
月访问量
5.03m
平均访问时长
00:06:29
每次访问页数
5.88
跳出率
37.10%
流量来源
直接访问
52.07%
自然搜索
32.84%
邮件
0.04%
外链引荐
12.88%
社交媒体
2.04%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.85%
德国
3.90%
印度
9.41%
俄罗斯
4.16%
美国
18.95%
SkyReels-V1 是首个开源的人类中心视频基础模型,专注于高质量视频生成。
SkyReels-V1 是一个开源的人类中心视频基础模型,基于高质量影视片段微调,专注于生成高质量的视频内容。该模型在开源领域达到了顶尖水平,与商业模型相媲美。其主要优势包括:高质量的面部表情捕捉、电影级的光影效果以及高效的推理框架 SkyReelsInfer,支持多 GPU 并行处理。该模型适用于需要高质量视频生成的场景,如影视制作、广告创作等。
SkyReels V1 是一个开源的人类中心视频基础模型,专注于高质量影视级视频生成。
SkyReels V1 是一个基于 HunyuanVideo 微调的人类中心视频生成模型。它通过高质量影视片段训练,能够生成具有电影级质感的视频内容。该模型在开源领域达到了行业领先水平,尤其在面部表情捕捉和场景理解方面表现出色。其主要优点包括开源领先性、先进的面部动画技术和电影级光影美学。该模型适用于需要高质量视频生成的场景,如影视制作、广告创作等,具有广泛的应用前景。
Lumina-Video 是一个用于视频生成的初步尝试项目,支持文本到视频的生成。
Lumina-Video 是 Alpha-VLLM 团队开发的一个视频生成模型,主要用于从文本生成高质量的视频内容。该模型基于深度学习技术,能够根据用户输入的文本提示生成对应的视频,具有高效性和灵活性。它在视频生成领域具有重要意义,为内容创作者提供了强大的工具,能够快速生成视频素材。目前该项目已开源,支持多种分辨率和帧率的视频生成,并提供了详细的安装和使用指南。
文本图像到视频生成模型
Allegro-TI2V是一个文本图像到视频生成模型,它能够根据用户提供的提示和图像生成视频内容。该模型以其开源性、多样化的内容创作能力、高质量的输出、小巧高效的模型参数以及支持多种精度和GPU内存优化而受到关注。它代表了当前人工智能技术在视频生成领域的前沿进展,具有重要的技术价值和商业应用潜力。Allegro-TI2V模型在Hugging Face平台上提供,遵循Apache 2.0开源协议,用户可以免费下载和使用。
文本到视频的生成模型
CogVideoX是一个开源的视频生成模型,与商业模型同源,支持通过文本描述生成视频内容。它代表了文本到视频生成技术的最新进展,具有生成高质量视频的能力,能够广泛应用于娱乐、教育、商业宣传等领域。
使用Hailuo AI技术在线生成专业功夫视频。
AI Kungfu Video Generator是一个基于Hailuo AI模型的在线平台,能够让用户通过上传照片并选择相关提示,快速生成高质量的功夫视频。该技术利用人工智能的强大能力,将静态图片转化为充满动感的武术场景,为用户带来极具视觉冲击力的体验。其主要优点包括操作简单、生成速度快以及高度的定制化选项。产品定位为满足用户对功夫视频创作的需求,无论是个人娱乐还是商业用途,都能提供相应的解决方案。此外,平台还提供免费试用,用户在注册后可以免费生成第一个视频,之后则需要升级到付费计划以获得更多功能。
Phantom 是一款基于跨模态对齐的主体一致性视频生成模型。
Phantom 是一种先进的视频生成技术,通过跨模态对齐实现主体一致性视频生成。它能够根据单张或多张参考图像生成生动的视频内容,同时严格保留主体的身份特征。该技术在内容创作、虚拟现实和广告等领域具有重要应用价值,能够为创作者提供高效且富有创意的视频生成解决方案。Phantom 的主要优点包括高度的主体一致性、丰富的视频细节以及强大的多模态交互能力。
一个基于强化学习优化的大型语言模型,专注于数学问题解决能力的提升。
DeepScaleR-1.5B-Preview 是一个经过强化学习优化的大型语言模型,专注于提升数学问题解决能力。该模型通过分布式强化学习算法,显著提高了在长文本推理场景下的准确率。其主要优点包括高效的训练策略、显著的性能提升以及开源的灵活性。该模型由加州大学伯克利分校的 Sky Computing Lab 和 Berkeley AI Research 团队开发,旨在推动人工智能在教育领域的应用,尤其是在数学教育和竞赛数学领域。模型采用 MIT 开源许可,完全免费供研究人员和开发者使用。
使用简单的提示和图像生成视频片段。
Adobe Firefly 是一款基于人工智能技术的视频生成工具。它能够根据用户提供的简单提示或图像快速生成高质量的视频片段。该技术利用先进的 AI 算法,通过对大量视频数据的学习和分析,实现自动化的视频创作。其主要优点包括操作简单、生成速度快、视频质量高。Adobe Firefly 面向创意工作者、视频制作者以及需要快速生成视频内容的用户,提供高效、便捷的视频创作解决方案。目前该产品处于 Beta 测试阶段,用户可以免费使用,未来可能会根据市场需求和产品发展进行定价和定位。
Goku 是一款基于流的视频生成基础模型,专注于高质量视频生成。
Goku 是一个专注于视频生成的人工智能模型,能够根据文本提示生成高质量的视频内容。该模型基于先进的流式生成技术,能够生成流畅且具有吸引力的视频,适用于多种场景,如广告、娱乐和创意内容制作。Goku 的主要优点在于其高效的生成能力和对复杂场景的出色表现能力,能够显著降低视频制作成本,同时提升内容的吸引力。该模型由香港大学和字节跳动的研究团队共同开发,旨在推动视频生成技术的发展。
VideoWorld是一个探索从无标签视频中学习知识的深度生成模型。
VideoWorld是一个专注于从纯视觉输入(无标签视频)中学习复杂知识的深度生成模型。它通过自回归视频生成技术,探索如何仅通过视觉信息学习任务规则、推理和规划能力。该模型的核心优势在于其创新的潜在动态模型(LDM),能够高效地表示多步视觉变化,从而显著提升学习效率和知识获取能力。VideoWorld在视频围棋和机器人控制任务中表现出色,展示了其强大的泛化能力和对复杂任务的学习能力。该模型的研究背景源于对生物体通过视觉而非语言学习知识的模仿,旨在为人工智能的知识获取开辟新的途径。
VideoJAM 是一种用于增强视频生成模型运动连贯性的框架。
VideoJAM 是一种创新的视频生成框架,旨在通过联合外观 - 运动表示来提升视频生成模型的运动连贯性和视觉质量。该技术通过引入内指导机制(Inner-Guidance),利用模型自身预测的运动信号动态引导视频生成,从而在生成复杂运动类型时表现出色。VideoJAM 的主要优点是能够显著提高视频生成的连贯性,同时保持高质量的视觉效果,且无需对训练数据或模型架构进行大规模修改,即可应用于任何视频生成模型。该技术在视频生成领域具有重要的应用前景,尤其是在需要高度运动连贯性的场景中。
OmniHuman-1 是一种基于单张人像和运动信号生成人类视频的多模态框架。
OmniHuman-1 是一个端到端的多模态条件人类视频生成框架,能够基于单张人像和运动信号(如音频、视频或其组合)生成人类视频。该技术通过混合训练策略克服了高质量数据稀缺的问题,支持任意宽高比的图像输入,生成逼真的人类视频。它在弱信号输入(尤其是音频)方面表现出色,适用于多种场景,如虚拟主播、视频制作等。
YuE 是一个专注于全曲生成的开源音乐基础模型,能够根据歌词生成完整的音乐作品。
YuE 是由香港科技大学和多模态艺术投影团队开发的开源音乐生成模型。它能够根据给定的歌词生成长达 5 分钟的完整歌曲,包括人声和伴奏部分。该模型通过多种技术创新,如语义增强音频标记器、双标记技术和歌词链式思考等,解决了歌词到歌曲生成的复杂问题。YuE 的主要优点是能够生成高质量的音乐作品,并且支持多种语言和音乐风格,具有很强的可扩展性和可控性。该模型目前免费开源,旨在推动音乐生成技术的发展。
一种新颖的图像到视频采样技术,基于Hunyuan模型实现高质量视频生成。
leapfusion-hunyuan-image2video 是一种基于 Hunyuan 模型的图像到视频生成技术。它通过先进的深度学习算法,将静态图像转换为动态视频,为内容创作者提供了一种全新的创作方式。该技术的主要优点包括高效的内容生成、灵活的定制化能力以及对高质量视频输出的支持。它适用于需要快速生成视频内容的场景,如广告制作、视频特效等领域。该模型目前以开源形式发布,供开发者和研究人员免费使用,未来有望通过社区贡献进一步提升其性能。
Llasa-1B 是一个基于 LLaMA 的文本转语音 (TTS) 模型,支持中英文语音合成。
Llasa-1B 是一个由香港科技大学音频实验室开发的文本转语音模型。它基于 LLaMA 架构,通过结合 XCodec2 代码本中的语音标记,能够将文本转换为自然流畅的语音。该模型在 25 万小时的中英文语音数据上进行了训练,支持从纯文本生成语音,也可以利用给定的语音提示进行合成。其主要优点是能够生成高质量的多语言语音,适用于多种语音合成场景,如有声读物、语音助手等。该模型采用 CC BY-NC-ND 4.0 许可证,禁止商业用途。
GameFactory 是一个基于预训练视频扩散模型的通用世界模型,可创建开放领域的游戏。
GameFactory 是一个创新的通用世界模型,专注于从少量的《我的世界》游戏视频数据中学习,并利用预训练视频扩散模型的先验知识来生成新的游戏内容。该技术的核心优势在于其开放领域的生成能力,能够根据用户输入的文本提示和操作指令生成多样化的游戏场景和互动体验。它不仅展示了强大的场景生成能力,还通过多阶段训练策略和可插拔的动作控制模块,实现了高质量的交互式视频生成。该技术在游戏开发、虚拟现实和创意内容生成等领域具有广阔的应用前景,目前尚未明确其价格和商业化定位。
利用先进人工智能技术,将静态照片转化为浪漫接吻动画。
AI Kissing Video Generator Free 是一款基于先进人工智能技术的在线平台,能够将普通静态照片转化为自然流畅的浪漫接吻动画。该技术利用深度学习模型,专门针对浪漫互动进行训练,确保生成的动画高度逼真且自然。产品注重用户隐私与数据安全,所有上传内容在处理后自动删除。其主要面向情侣、内容创作者、婚礼策划师等群体,提供高质量的浪漫视频生成服务。产品提供免费试用版本,同时有付费升级选项,满足不同用户的需求。
Seaweed-APT是一种支持实时单步生成1280x720 24fps视频的模型。
Seaweed-APT是一种用于视频生成的模型,通过对抗性后训练技术,实现了大规模文本到视频的单步生成。该模型能够在短时间内生成高质量的视频,具有重要的技术意义和应用价值。其主要优点是速度快、生成效果好,适用于需要快速生成视频的场景。目前尚未明确具体的价格和市场定位。
大规模视频生成模型,可创建逼真视觉效果与自然连贯动作。
Luma Ray2 是一款先进的视频生成模型,基于 Luma 新的多模态架构训练,计算能力是 Ray1 的 10 倍。它能够理解文本指令,并可接受图像和视频输入,生成具有快速连贯动作、超逼真细节和逻辑事件序列的视频,使生成的视频更接近生产就绪状态。目前提供文本到视频的生成功能,图像到视频、视频到视频和编辑功能即将推出。产品主要面向需要高质量视频生成的用户,如视频创作者、广告公司等,目前仅对付费订阅用户开放,可通过官网链接尝试使用。
一种基于扩散变换器网络的高动态、逼真肖像图像动画技术。
Hallo3是一种用于肖像图像动画的技术,它利用预训练的基于变换器的视频生成模型,能够生成高度动态和逼真的视频,有效解决了非正面视角、动态对象渲染和沉浸式背景生成等挑战。该技术由复旦大学和百度公司的研究人员共同开发,具有强大的泛化能力,为肖像动画领域带来了新的突破。
开源图像到视频生成模型
Ruyi-Mini-7B是由CreateAI团队开发的开源图像到视频生成模型,具有约71亿参数,能够从输入图像生成360p到720p分辨率的视频帧,最长5秒。模型支持不同宽高比,并增强了运动和相机控制功能,提供更大的灵活性和创造力。该模型在Apache 2.0许可下发布,意味着用户可以自由使用和修改。
快速因果视频生成器,实现即时视频生成。
CausVid是一个先进的视频生成模型,它通过将预训练的双向扩散变换器适配为因果变换器,实现了即时视频帧的生成。这一技术的重要性在于它能够显著减少视频生成的延迟,使得视频生成能够以交互式帧率(9.4FPS)在单个GPU上进行流式生成。CausVid模型支持从文本到视频的生成,以及零样本图像到视频的生成,展现了视频生成技术的新高度。
腾讯开源的大型视频生成模型训练框架
HunyuanVideo是腾讯开源的一个系统性框架,用于训练大型视频生成模型。该框架通过采用数据策划、图像-视频联合模型训练和高效的基础设施等关键技术,成功训练了一个超过130亿参数的视频生成模型,是所有开源模型中最大的。HunyuanVideo在视觉质量、运动多样性、文本-视频对齐和生成稳定性方面表现出色,超越了包括Runway Gen-3、Luma 1.6在内的多个行业领先模型。通过开源代码和模型权重,HunyuanVideo旨在缩小闭源和开源视频生成模型之间的差距,推动视频生成生态系统的活跃发展。
视频生成模型Sora的存档库
SoraVids是一个基于Hugging Face平台的视频生成模型Sora的存档库。它包含了87个视频和83个对应的提示,这些视频和提示在OpenAI撤销API密钥前被公开展示。这些视频均为MIME类型video/mp4,帧率为30 FPS。SoraVids的背景是OpenAI的视频生成技术,它允许用户通过文本提示生成视频内容。这个存档库的重要性在于它保存了在API密钥被撤销前生成的视频,为研究和教育提供了宝贵的资源。
基于DiT的视频生成模型,实时生成高质量视频。
LTX-Video是由Lightricks开发的首个基于DiT的视频生成模型,能够实时生成高质量的视频内容。该模型以24 FPS的速度生成768x512分辨率的视频,速度超过观看速度。模型经过大规模多样化视频数据集的训练,能够生成高分辨率且内容真实多样的视频。LTX-Video支持文本到视频(text-to-video)以及图像+文本到视频(image+text-to-video)的应用场景。
视频扩散模型,用于虚拟试穿。
Fashion-VDM是一个视频扩散模型(VDM),用于生成虚拟试穿视频。该模型接受一件衣物图片和人物视频作为输入,旨在生成人物穿着给定衣物的高质量试穿视频,同时保留人物的身份和动作。与传统的基于图像的虚拟试穿相比,Fashion-VDM在衣物细节和时间一致性方面表现出色。该技术的主要优点包括:扩散式架构、分类器自由引导增强控制、单次64帧512px视频生成的渐进式时间训练策略,以及联合图像-视频训练的有效性。Fashion-VDM在视频虚拟试穿领域树立了新的行业标准。
开源视频生成模型,支持10秒视频和更高分辨率。
CogVideoX1.5-5B-SAT是由清华大学知识工程与数据挖掘团队开发的开源视频生成模型,是CogVideoX模型的升级版。该模型支持生成10秒视频,并支持更高分辨率的视频生成。模型包含Transformer、VAE和Text Encoder等模块,能够根据文本描述生成视频内容。CogVideoX1.5-5B-SAT模型以其强大的视频生成能力和高分辨率支持,为视频内容创作者提供了一个强大的工具,尤其在教育、娱乐和商业领域有着广泛的应用前景。
© 2025 AIbase 备案号:闽ICP备08105208号-14