浏览量:97
最新流量情况
月访问量
4.38m
平均访问时长
00:07:17
每次访问页数
6.50
跳出率
38.34%
流量来源
直接访问
51.33%
自然搜索
30.08%
邮件
0.86%
外链引荐
11.05%
社交媒体
6.66%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
15.94%
中国
15.11%
印度
9.28%
日本
3.94%
德国
3.35%
高效的文本到音频生成模型,具有潜在一致性。
AudioLCM是一个基于PyTorch实现的文本到音频生成模型,它通过潜在一致性模型来生成高质量且高效的音频。该模型由Huadai Liu等人开发,提供了开源的实现和预训练模型。它能够将文本描述转化为接近真实的音频,具有重要的应用价值,尤其是在语音合成、音频制作等领域。
从音频生成照片般逼真的人类avatar
audio2photoreal是一个从音频生成照片级逼真avatar的开源项目。它包含了一个pytorch实现,可以从音频中合成交谈中的人类形象。该项目提供了训练代码、测试代码、预训练的运动模型以及数据集访问。它的模型包括人脸扩散模型、人体扩散模型、人体VQ VAE模型和人体引导变换器模型。该项目让研究人员和开发者能够训练自己的模型,并基于语音合成高质量的逼真avatar。
音频处理和生成的深度学习库
AudioCraft 是一个用于音频处理和生成的 PyTorch 库。它包含了两个最先进的人工智能生成模型:AudioGen 和 MusicGen,可以生成高质量的音频。AudioCraft 还提供了 EnCodec 音频压缩 / 分词器和 Multi Band Diffusion 解码器等功能。该库适用于音频生成的深度学习研究。
视频到音频生成模型
vta-ldm是一个专注于视频到音频生成的深度学习模型,能够根据视频内容生成语义和时间上与视频输入对齐的音频内容。它代表了视频生成领域的一个新突破,特别是在文本到视频生成技术取得显著进展之后。该模型由腾讯AI实验室的Manjie Xu等人开发,具有生成与视频内容高度一致的音频的能力,对于视频制作、音频后期处理等领域具有重要的应用价值。
音频生成与自动字幕生成模型
GenAU是一个由Snap Research开发的音频生成模型,它通过AutoCap自动字幕生成模型和GenAu音频生成架构,显著提升了音频生成的质量。它在生成环境声音和效果方面具有挑战性,特别是在数据稀缺和字幕质量不足的情况下。GenAU模型能够生成高质量的音频,并且在音频合成领域具有很大的潜力。
为无声视频生成逼真且同步的声音。
FoleyCrafter是一个基于文本的视频到音频生成框架,能够生成与输入视频语义相关且时间同步的高质量音频。该技术在视频制作领域具有重要意义,特别是在后期制作过程中,可以大大提升效率和音频质量。它由上海人工智能实验室和香港中文大学(深圳)共同研发。
智能视频到音频生成,简化声音设计。
Resona V2A是一款AI驱动的视频到音频生成技术产品,它能够仅通过视频数据自动生成与场景、动画或电影完美匹配的声音设计、效果、拟音和环境音。该技术通过自动化音频创作过程,节省了大约90%的时间和努力,使得音频制作更加高效和智能。Resona V2A技术正在被电影制作、动画、教育和多媒体项目等行业专家和团队测试,他们对音频生产流程的效率和卓越性有严格要求。
AI驱动的视频和音频生成平台,简化内容创作。
VidAU AI Video & Audio Creator是一个AI驱动的视频和音频生成平台,它通过简化从构思到制作的整个内容创作过程,使得用户能够轻松创建引人入胜的视频。平台提供多种AI工具,包括视频更换、视频翻译、字幕翻译和去除、AI虚拟形象发言人以及文本转音频等功能,帮助用户提升视频内容的质量和吸引力。VidAU支持120多种语言的视频翻译,覆盖150多个国家,能够节省90%以上的视频制作时间。
开源视觉-语言-动作模型,推动机器人操作技术发展。
OpenVLA是一个具有7亿参数的开源视觉-语言-动作(VLA)模型,通过在Open X-Embodiment数据集上的970k机器人剧集进行预训练。该模型在通用机器人操作策略上设定了新的行业标准,支持开箱即用控制多个机器人,并且可以通过参数高效的微调快速适应新的机器人设置。OpenVLA的检查点和PyTorch训练流程完全开源,模型可以从HuggingFace下载并进行微调。
基于扩散模型的文本到音频生成技术
Make-An-Audio 2是一种基于扩散模型的文本到音频生成技术,由浙江大学、字节跳动和香港中文大学的研究人员共同开发。该技术通过使用预训练的大型语言模型(LLMs)解析文本,优化了语义对齐和时间一致性,提高了生成音频的质量。它还设计了基于前馈Transformer的扩散去噪器,以改善变长音频生成的性能,并增强时间信息的提取。此外,通过使用LLMs将大量音频标签数据转换为音频文本数据集,解决了时间数据稀缺的问题。
音乐生成工具,助力音乐制作人
musicgen-songstarter-v0.2是一个针对音乐制作人设计的音频生成模型,专门用于生成有用的旋律循环。该模型在Splice样本库中的旋律循环数据集上进行了微调,能够生成立体声音频,音频频率为32kHz。与v0.1版本相比,v0.2版本使用了三倍的独特样本,并且模型大小从中等提升到了大型。
OptimizerAI是一个AI声音效果生成器,为创作者、游戏开发者、艺术家和视频制作者提供服务
OptimizerAI专注于使用人工智能技术生成各种声音效果,旨在为游戏、视频、短片、广告等多媒体内容增添活力。该平台提供了高质量的音频生成服务,并计划推出文本到声音效果生成功能。
通过音频生成充满表情的肖像视频
阿里巴巴的EMO: 是一款生成具有表情丰富的面部表情视频的工具,可以根据输入的角色图像和声音音频生成各种头部姿势和表情的声音头像视频。支持多语言歌曲和各种肖像风格,能够根据音频节奏生成动态、表现丰富的动画角色。
BRIA AI开源的用于图像背景去除的Pytorch模型
RMBG-1.4是一个用于图像背景去除的Pytorch模型,由BRIA AI开发,经过专业级数据集的训练,能够高效准确地分割前景和背景。该模型的精度、效率和通用性目前可与领先的开源模型媲美,适用于支持企业大规模内容创作的商业使用案例。由于使用了合法许可的训练数据集并有效减轻了模型偏差,RMBG-1.4在保证内容安全方面尤为突出。
统一的语言模型评估框架
PromptBench是一个基于Pytorch的Python包,用于评估大型语言模型(LLM)。它为研究人员提供了用户友好的API,以便对LLM进行评估。主要功能包括:快速模型性能评估、提示工程、对抗提示评估以及动态评估等。优势是使用简单,可以快速上手评估已有数据集和模型,也可以轻松定制自己的数据集和模型。定位为LLM评估的统一开源库。
Meta旗下AI音频生成研究
Audiobox是Meta的新一代音频生成研究模型,可以利用语音输入和自然语言文本提示生成声音和音效,轻松为各种用例创建定制音频。Audiobox系列模型还包括专业模型Audiobox Speech和Audiobox Sound,所有Audiobox模型都是基于共享的自监督模型Audiobox SSL构建的。
Read为用户生成个性化的每日新闻音频简报
Read是一个新闻音频生成平台。它可以自动搜集用户感兴趣的内容,生成个性化的每日音频新闻简报,帮助用户高效获取所需信息。该产品拥有人工智能生成的自然语音功能,支持邮件订阅,提供个性化推荐,功能强大。适合需要每日了解所关心事件和新闻的用户。
用文字创建、定制、吸引,Snowpixel 让您轻松生成美丽的图片、视频、音乐等作品。
Snowpixel 是一个能够通过文字生成美丽图片、视频、音乐等作品的平台。用户可以使用自己的数据训练定制模型,为作品增添个性化的风格。Snowpixel 提供了视频生成、音乐生成、图片生成、音频生成、3D 对象生成和像素艺术模型等功能。用户可以在不同的场景下使用 Snowpixel,比如创作个性化作品、定制模型、生成音乐、生成视频等。Snowpixel 的定价灵活,用户可以按需选择付费。
一款用于训练PyTorch计算机视觉模型的开源库。
YOLO-NAS Pose是一款免费的、开源的库,用于训练基于PyTorch的计算机视觉模型。它提供了训练脚本和快速简单复制模型结果的示例。内置SOTA模型,可以轻松加载和微调生产就绪的预训练模型,包括最佳实践和验证的超参数,以实现最佳的准确性。可以缩短训练生命周期,消除不确定性。提供分类、检测、分割等不同任务的模型,可以轻松集成到代码库中。
使用文本生成带有声音的短视频
ShortVideoGen是一个简单易用的文本转视频应用,使用最先进的视频和音频生成AI模型,帮助您在几秒钟内创建个性化视频。只需提交文本提示,指定帧率和最大帧数,选择是否需要声音,等待魔法发生,即可生成符合要求的视频。
用AI创作音乐,免费试用
Stable Audio是一款AI音乐生成工具,可根据用户的描述生成定制长度的音乐,支持商业使用。其高质量音频生成和商业授权让音乐创作更加简单。Stable Audio的使命是为创作者提供音乐创作工具,帮助他们实现音乐创作的梦想。
AI音乐生成引擎
Musico是一款由AI驱动的音乐生成引擎,可以根据手势、动作、代码或其他声音生成音乐。Musico的引擎结合传统和现代机器学习算法,以各种风格生成无尽的版权自由音乐。从半辅助到全自动的创作,Musico的引擎为音乐专业人士和非音乐人提供了适应其上下文的新的音频生成方式。
发现、创新、变现AI创意
AI创意市场是一个AI创意产品的在线市场,用户可以轻松买卖AI动力激发的创意,从文本生成开始,未来还会引入图像、视频和音频生成等更多功能。AI创意市场让用户进行交易并学习AI的最佳应用。
与您最喜爱的LLaMA LLM模型聊天
LlamaChat是一个桌面客户端,可以与LLaMA、Alpaca和GPT4All模型进行聊天。Alpaca是斯坦福大学基于OpenAI的text-davinci-003数据进行Fine-tuning后的7B参数LLaMA模型。您可以使用LlamaChat导入原始的PyTorch模型检查点文件或预转换的.ggml模型文件。LlamaChat是完全开源免费的,并且始终如一地保持开源。您可以在GitHub上找到更多信息。
用AI技术编程潜意识,实现目标达成
Binaural Beats Factory提供基于人工智能的在线自我催眠/潜意识/肯定音频生成器。通过解锁思维的力量,轻松实现目标。探索个性化双音节节拍和潜意识建议的可能性,同步大脑波,积极改变思维、情绪和行为。体验未来的音频创作与我们用户友好的在线应用程序,并发现大量免费的自我催眠/潜意识/肯定音频曲目。立即开始转变旅程,实现您想要的生活。
Stability AI 生成模型是一个开源的生成模型库。
Stability AI 生成模型是一个开源的生成模型库,提供了各种生成模型的训练、推理和应用功能。该库支持各种生成模型的训练,包括基于 PyTorch Lightning 的训练,提供了丰富的配置选项和模块化的设计。用户可以使用该库进行生成模型的训练,并通过提供的模型进行推理和应用。该库还提供了示例训练配置和数据处理的功能,方便用户进行快速上手和定制。
大规模参数扩散变换器模型
DiT-MoE是一个使用PyTorch实现的扩散变换器模型,能够扩展到160亿参数,与密集网络竞争的同时展现出高度优化的推理能力。它代表了深度学习领域在处理大规模数据集时的前沿技术,具有重要的研究和应用价值。
7亿参数的语言模型,展示数据整理技术的有效性。
DCLM-Baseline-7B是一个7亿参数的语言模型,由DataComp for Language Models (DCLM)团队开发,主要使用英语。该模型旨在通过系统化的数据整理技术来提高语言模型的性能。模型训练使用了PyTorch与OpenLM框架,优化器为AdamW,学习率为2e-3,权重衰减为0.05,批次大小为2048序列,序列长度为2048个token,总训练token数达到了2.5T。模型训练硬件使用了H100 GPU。
© 2024 AIbase 备案号:闽ICP备08105208号-14