需求人群:
"该技术的目标受众是音频合成领域的研究人员和开发者,以及需要高质量文本到音频转换的应用场景,如自动配音、有声读物制作等。Make-An-Audio 2通过其先进的技术,能够生成与文本内容语义对齐且时间一致的高质量音频,满足这些用户的需求。"
使用场景示例:
自动生成有声读物的背景音效和对话
为视频内容自动添加旁白和音效
创建虚拟角色的声音,用于游戏或动画
产品特色:
使用预训练的大型语言模型(LLMs)解析文本,优化时间信息捕获
引入结构化文本编码器,辅助学习扩散去噪过程中的语义对齐
设计基于前馈Transformer的扩散去噪器,改善变长音频生成性能
利用LLMs增强和转换音频标签数据,缓解时间数据稀缺问题
在客观和主观指标上超越基线模型,显著提升时间信息理解、语义一致性和声音质量
使用教程:
步骤1: 准备自然语言文本作为输入
步骤2: 使用Make-An-Audio 2的Text Encoder解析文本
步骤3: 结构化文本编码器辅助学习语义对齐
步骤4: 利用扩散去噪器生成音频
步骤5: 调整生成音频的长度和时间控制
步骤6: 根据需要修改结构化输入以精确控制时间
步骤7: 生成最终的音频输出
浏览量:15
最新流量情况
月访问量
1509
平均访问时长
00:00:11
每次访问页数
0.96
跳出率
31.48%
流量来源
直接访问
19.39%
自然搜索
42.67%
邮件
0
外链引荐
37.95%
社交媒体
0
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
德国
61.51%
新加坡
19.39%
韩国
19.10%
实时表情生成人类模型
PROTEUS是Apparate Labs推出的一款下一代基础模型,用于实时表情生成人类。它采用先进的transformer架构的潜在扩散模型,创新的潜在空间设计实现了实时效率,并能通过进一步的架构和算法改进,达到每秒100帧以上视频流。PROTEUS旨在提供一种通过语音控制的视觉体现,为人工对话实体提供直观的接口,并且与多种大型语言模型兼容,可定制用于多种不同应用。
基于LLM的文本到图像生成系统
DiffusionGPT是一种基于大型语言模型(LLM)的文本到图像生成系统。它利用扩散模型构建了针对各种生成模型的领域特定树,从而能够无缝地适应各种类型的提示并集成领域专家模型。此外,DiffusionGPT引入了优势数据库,其中的思维树得到了人类反馈的丰富,使模型选择过程与人类偏好保持一致。通过广泛的实验和比较,我们展示了DiffusionGPT的有效性,展示了它在不同领域推动图像合成边界的潜力。
内容一致的多场景视频生成
VideoDrafter 是一个内容一致的多场景视频生成框架。它利用大型语言模型(LLM)将输入提示转换为包含多场景脚本的综合脚本,脚本包括描述事件、前景 / 背景实体以及相机运动的提示。VideoDrafter 识别脚本中的共同实体,并要求 LLM 对每个实体进行详细描述。然后,将每个实体的描述输入到文本到图像模型中,以生成每个实体的参考图像。最后,通过考虑参考图像、事件描述和相机运动,通过扩散过程生成多场景视频,扩散模型将参考图像作为条件和对齐进行处理,以增强多场景视频的内容一致性。
高效的文本到音频生成模型,具有潜在一致性。
AudioLCM是一个基于PyTorch实现的文本到音频生成模型,它通过潜在一致性模型来生成高质量且高效的音频。该模型由Huadai Liu等人开发,提供了开源的实现和预训练模型。它能够将文本描述转化为接近真实的音频,具有重要的应用价值,尤其是在语音合成、音频制作等领域。
开源音频样本和声音设计模型
Stable Audio Open是一个开源的文本到音频模型,专为生成短音频样本、音效和制作元素而优化。它允许用户通过简单的文本提示生成高达47秒的高质量音频数据,特别适用于创造鼓点、乐器即兴演奏、环境声音、拟音录音等音乐制作和声音设计。开源发布的关键好处是用户可以根据自己的自定义音频数据微调模型。
RAG-based LLM agents的Elo排名工具
RAGElo是一个工具集,使用Elo评分系统帮助选择最佳的基于检索增强生成(RAG)的大型语言模型(LLM)代理。随着生成性LLM在生产中的原型设计和整合变得更加容易,评估仍然是解决方案中最具有挑战性的部分。RAGElo通过比较不同RAG管道和提示对多个问题的答案,计算不同设置的排名,提供了一个良好的概览,了解哪些设置有效,哪些无效。
利用知识图谱和文档网络增强语言模型性能
Knowledge Graph RAG 是一个开源的Python库,它通过创建知识图谱和文档网络来增强大型语言模型(LLM)的性能。这个库允许用户通过图谱结构来搜索和关联信息,从而为语言模型提供更丰富的上下文。它主要应用于自然语言处理领域,尤其是在文档检索和信息抽取任务中。
你的私人AI聊天工具,运行在浏览器中。
Chatty是一个利用WebGPU技术在浏览器中本地且私密地运行大型语言模型(LLMs)的私人AI聊天工具。它提供了丰富的浏览器内AI体验,包括本地数据处理、离线使用、聊天历史管理、支持开源模型、响应式设计、直观UI、Markdown和代码高亮显示、文件聊天、自定义内存支持、导出聊天记录、语音输入支持、重新生成响应以及明暗模式切换等功能。
构建一个会讲故事的人工智能大型语言模型。
LLM101n是一个开源课程,旨在教授如何从头开始构建一个能讲故事的人工智能大型语言模型(LLM)。课程内容涵盖了从基础到高级的多个方面,包括语言模型、机器学习、深度学习框架等,适合希望深入理解AI和LLM的编程人员和研究人员。
免费开源的浏览器侧边栏插件,集成AI功能
BrainyAI是一个完全免费的Chrome浏览器扩展,用户只需登录一次即可使用各种AI网站。通过便捷的侧边栏,BrainyAI提供AI聊天聚合、AI搜索、AI阅读和增强的AI网页浏览等功能。支持多种大型语言模型,如Gpt3.5、Gpt4等,并且注重用户隐私,所有聊天历史、设置和登录数据都安全地存储在本地设备上。
使用大型语言模型编辑大型代码库的工具。
Moatless Tools 是一个业余项目,作者在这里尝试一些关于如何使用大型语言模型(LLMs)来编辑大型现有代码库的想法。项目认为,构建好工具以插入正确的上下文到提示中并处理响应,比依赖代理推理解决方案更为关键。
52B参数的开源多语言大型语言模型
Tele-FLM(亦称FLM-2)是一个52亿参数的开源多语言大型语言模型,具有稳定高效的预训练范式和增强的事实判断能力。基于解码器仅变换器架构,已在大约2T的token上进行训练。Tele-FLM在同等规模上展现出优越的性能,有时甚至超越了更大的模型。除了分享模型权重外,我们还提供了核心设计、工程实践和训练细节,期待它们对学术界和工业界社区都有所裨益。
探索大型语言模型的偏好和价值观对齐。
prism-alignment 是一个由 HannahRoseKirk 创建的数据集,专注于研究大型语言模型(LLMs)的偏好和价值观对齐问题。数据集通过调查问卷和与语言模型的多轮对话,收集了来自不同国家和文化背景的参与者对模型回答的评分和反馈。这些数据对于理解和改进人工智能的价值观对齐至关重要。
无代码LLM平台,用于结构化非结构化文档。
Unstract是一个无代码的LLM(大型语言模型)平台,它允许用户通过简单的无代码方法启动APIs和ETL管道来处理非结构化文档。它支持从多种云文件/对象存储系统中读取复杂文档,并将结构化数据写入流行的数据仓库和数据库。Unstract利用大型语言模型的能力,超越了传统的RPA(机器人流程自动化),实现了机器到机器的自动化。
提升市场搜索、推荐和原生广告的排名
Promoted是一个专注于市场搜索、推荐和原生广告排名的解决方案,通过先进的机器学习技术和大型语言模型搜索相关性AI技术,显著提升转化率和广告质量。它为市场平台提供了统一的搜索、推荐和广告服务,帮助企业实现更好的匹配和更高的收益。
19亿参数规模的角色扮演模型,支持few shots角色定制。
Index-1.9B-Character是由Index团队自主研发的大型语言模型,专注于角色扮演领域,拥有19亿参数规模。该模型支持用户通过上传角色对话语料实现快速的角色定制,具备较高的角色一致性、对话能力和角色扮演吸引力。在CharacterEval权威benchmark评估中,整体均分排名第九,表现优于同量级模型。
多令牌预测模型,提升语言模型的效率与性能
multi-token prediction模型是Facebook基于大型语言模型研究开发的技术,旨在通过预测多个未来令牌来提高模型的效率和性能。该技术允许模型在单次前向传播中生成多个令牌,从而加快生成速度并可能提高模型的准确性。该模型在非商业研究用途下免费提供,但使用时需遵守Meta的隐私政策和相关法律法规。
大型视频-语言模型,提供视觉问答和视频字幕生成。
VideoLLaMA2-7B是由DAMO-NLP-SG团队开发的多模态大型语言模型,专注于视频内容的理解和生成。该模型在视觉问答和视频字幕生成方面具有显著的性能,能够处理复杂的视频内容,并生成准确、自然的语言描述。它在空间-时间建模和音频理解方面进行了优化,为视频内容的智能分析和处理提供了强大的支持。
大型语言模型,支持多语言和编程语言文本生成。
Nemotron-4-340B-Base是由NVIDIA开发的大型语言模型,拥有3400亿参数,支持4096个token的上下文长度,适用于生成合成数据,帮助研究人员和开发者构建自己的大型语言模型。模型经过9万亿token的预训练,涵盖50多种自然语言和40多种编程语言。NVIDIA开放模型许可允许商业使用和派生模型的创建与分发,不声明对使用模型或派生模型生成的任何输出拥有所有权。
提升大型语言模型性能的混合代理技术
MoA(Mixture of Agents)是一种新颖的方法,它利用多个大型语言模型(LLMs)的集体优势来提升性能,实现了最先进的结果。MoA采用分层架构,每层包含多个LLM代理,显著超越了GPT-4 Omni在AlpacaEval 2.0上的57.5%得分,达到了65.1%的得分,使用的是仅开源模型。
多维奖励模型,助力构建自定义大型语言模型。
Nemotron-4-340B-Reward是由NVIDIA开发的多维奖励模型,用于合成数据生成管道,帮助研究人员和开发者构建自己的大型语言模型(LLMs)。该模型由Nemotron-4-340B-Base模型和一个线性层组成,能够将响应末尾的标记转换为五个标量值,对应于HelpSteer2属性。它支持最多4096个标记的上下文长度,并能够对每个助手轮次的五个属性进行评分。
NVIDIA的高级语言模型,优化于英文对话场景。
Nemotron-4-340B-Instruct是由NVIDIA开发的大型语言模型(LLM),专为英文单轮和多轮对话场景优化。该模型支持4096个token的上下文长度,经过监督式微调(SFT)、直接偏好优化(DPO)和奖励感知偏好优化(RPO)等额外的对齐步骤。模型在约20K人工标注数据的基础上,通过合成数据生成管道合成了超过98%的用于监督微调和偏好微调的数据。这使得模型在人类对话偏好、数学推理、编码和指令遵循方面表现良好,并且能够为多种用例生成高质量的合成数据。
基于大型语言模型的多智能体应用开发框架
agentUniverse 是一个基于大型语言模型的多智能体应用开发框架,提供了构建单一智能体和多智能体协作机制的所有必需组件。通过模式工厂,允许开发者构建和自定义多智能体协作模式,轻松构建多智能体应用,并分享不同技术与业务领域的模式实践。
轻量级文本分类工具,使用大型语言模型嵌入。
fastc是一个基于大型语言模型嵌入的简单且轻量级的文本分类工具。它专注于CPU执行,使用高效的模型如deepset/tinyroberta-6l-768d生成嵌入。通过余弦相似度分类代替微调,实现文本分类。它还可以在不增加额外开销的情况下,使用相同的模型运行多个分类器。
高效生成一致性人物视频动画的模型
UniAnimate是一个用于人物图像动画的统一视频扩散模型框架。它通过将参考图像、姿势指导和噪声视频映射到一个共同的特征空间,以减少优化难度并确保时间上的连贯性。UniAnimate能够处理长序列,支持随机噪声输入和首帧条件输入,显著提高了生成长期视频的能力。此外,它还探索了基于状态空间模型的替代时间建模架构,以替代原始的计算密集型时间Transformer。UniAnimate在定量和定性评估中都取得了优于现有最先进技术的合成结果,并且能够通过迭代使用首帧条件策略生成高度一致的一分钟视频。
长视频理解基准测试
LVBench是一个专门设计用于长视频理解的基准测试,旨在推动多模态大型语言模型在理解数小时长视频方面的能力,这对于长期决策制定、深入电影评论和讨论、现场体育解说等实际应用至关重要。
一个交互式绘图应用,用于数学方程的绘制和计算。
AI Math Notes 是一个开源的交互式绘图应用程序,允许用户在画布上绘制数学方程。应用程序利用多模态大型语言模型(LLM)计算并显示结果。该应用程序使用Python开发,利用Tkinter库创建图形用户界面,使用PIL进行图像处理。灵感来源于Apple在2024年全球开发者大会(WWDC)上展示的'Math Notes'。
多模态语言模型的视觉推理工具
Visual Sketchpad 是一种为多模态大型语言模型(LLMs)提供视觉草图板和绘图工具的框架。它允许模型在进行规划和推理时,根据自己绘制的视觉工件进行操作。与以往使用文本作为推理步骤的方法不同,Visual Sketchpad 使模型能够使用线条、框、标记等更接近人类绘图方式的元素进行绘图,从而更好地促进推理。此外,它还可以在绘图过程中使用专家视觉模型,例如使用目标检测模型绘制边界框,或使用分割模型绘制掩码,以进一步提高视觉感知和推理能力。
© 2024 AIbase 备案号:闽ICP备08105208号-14