需求人群:
"Hibiki 适合需要实时语音翻译的场景,如国际会议、多语言直播、在线教育等,尤其适合开发者和研究人员,可用于开发相关应用或进行学术研究。"
使用场景示例:
在国际会议中,实时将法语演讲翻译为英语,为听众提供即时翻译。
用于多语言直播平台,将主播的法语语音实时翻译为英语,拓展观众群体。
在在线教育平台上,将教师的法语授课内容实时翻译为英语,方便不同语言背景的学生学习。
产品特色:
支持流式语音翻译,实时逐块生成翻译结果
可同时生成目标语音和文本翻译,满足多种使用需求
采用多流架构,联合建模源语音和目标语音
支持语音转换功能,可保留原说话人的语音特征
提供多种后端实现(如 PyTorch、Rust、MLX 等),适配不同硬件平台
使用教程:
1. 安装所需的后端库(如 PyTorch 或 Rust)。
2. 下载 Hibiki 模型文件,选择适合的版本(如 PyTorch 或 MLX)。
3. 准备待翻译的音频文件。
4. 使用命令行工具运行翻译脚本,指定音频文件和输出路径。
5. 根据需要调整参数(如分类器自由引导系数)以优化翻译效果。
6. 查看生成的翻译音频文件和文本翻译结果。
浏览量:19
最新流量情况
月访问量
5.03m
平均访问时长
00:06:29
每次访问页数
5.88
跳出率
37.10%
流量来源
直接访问
52.07%
自然搜索
32.84%
邮件
0.04%
外链引荐
12.88%
社交媒体
2.04%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.85%
德国
3.90%
印度
9.41%
俄罗斯
4.16%
美国
18.95%
Hibiki 是一款用于流式语音翻译(即同声传译)的模型,能够实时逐块生成正确翻译。
Hibiki 是一款专注于流式语音翻译的先进模型。它通过实时积累足够的上下文信息来逐块生成正确的翻译,支持语音和文本翻译,并可进行声音转换。该模型基于多流架构,能够同时处理源语音和目标语音,生成连续的音频流和时间戳文本翻译。其主要优点包括高保真语音转换、低延迟实时翻译以及对复杂推理策略的兼容性。Hibiki 目前支持法语到英语的翻译,适合需要高效实时翻译的场景,如国际会议、多语言直播等。模型开源免费,适合开发者和研究人员使用。
实时语音翻译,支持100多种语言的会议、通话和聊天
Byrdhouse提供基于AI的实时语音翻译和字幕翻译,支持100多种语言,可用于你的会议、通话和聊天。Byrdhouse让我们不再为实时翻译操心,让你可以专注于与全球团队和国际合作伙伴的沟通协作。通过Byrdhouse,参会者无需笔记就可以投入到对话中。还可以获得不同语言的会议记录和文字记录。Byrdhouse帮助建立一个包容的文化,让每一个人的声音都能被倾听,无论你说什么语言。
实时语音翻译,连接全球人们,畅享无障碍沟通。
SpeakShift是一款实时语音翻译产品,通过连接全球人们,打破语言障碍。用户可以在SpeakShift上进行实时语音翻译,实现无缝沟通。SpeakShift的主要功能包括语音识别、翻译、语音合成等。其优势在于高精度的翻译效果和快速的响应速度。SpeakShift提供不同的定价方案供用户选择,并且适用于各种场景,包括旅行、商务、教育等。使用SpeakShift,用户可以轻松地与世界各地的人交流,打破语言壁垒。
实时语音翻译,打破语言障碍
Interpre-X 是一款实时语音翻译工具,支持10多种语言,帮助用户在任何地方打破语言障碍。通过最先进的人工智能技术,提供语音到语音、语音到文字、文字到语音和文字到文字的翻译服务。无需额外设备,只需良好的网络连接即可使用。Interpre-X 提供高质量的翻译,以自然、人类质量的声音和准确的口音进行播放。适用于社交、旅行、观看电视、学习语言以及与不同语言的朋友交流等场景。现已推出beta版,欢迎试用。
PIKE-RAG 是一种专注于领域知识和推理增强生成的模型。
PIKE-RAG 是微软开发的一种领域知识和推理增强生成模型,旨在通过知识提取、存储和推理逻辑增强大型语言模型(LLM)的能力。该模型通过多模块设计,能够处理复杂的多跳问答任务,并在工业制造、矿业和制药等领域显著提升了问答准确性。PIKE-RAG 的主要优点包括高效的知识提取能力、强大的多源信息整合能力和多步推理能力,使其在需要深度领域知识和复杂逻辑推理的场景中表现出色。
SkyReels V1 是一个开源的人类中心视频基础模型,专注于高质量影视级视频生成。
SkyReels V1 是一个基于 HunyuanVideo 微调的人类中心视频生成模型。它通过高质量影视片段训练,能够生成具有电影级质感的视频内容。该模型在开源领域达到了行业领先水平,尤其在面部表情捕捉和场景理解方面表现出色。其主要优点包括开源领先性、先进的面部动画技术和电影级光影美学。该模型适用于需要高质量视频生成的场景,如影视制作、广告创作等,具有广泛的应用前景。
SkyReels-V1 是首个开源的人类中心视频基础模型,专注于高质量视频生成。
SkyReels-V1 是一个开源的人类中心视频基础模型,基于高质量影视片段微调,专注于生成高质量的视频内容。该模型在开源领域达到了顶尖水平,与商业模型相媲美。其主要优势包括:高质量的面部表情捕捉、电影级的光影效果以及高效的推理框架 SkyReelsInfer,支持多 GPU 并行处理。该模型适用于需要高质量视频生成的场景,如影视制作、广告创作等。
一个基于强化学习优化的大型语言模型,专注于数学问题解决能力的提升。
DeepScaleR-1.5B-Preview 是一个经过强化学习优化的大型语言模型,专注于提升数学问题解决能力。该模型通过分布式强化学习算法,显著提高了在长文本推理场景下的准确率。其主要优点包括高效的训练策略、显著的性能提升以及开源的灵活性。该模型由加州大学伯克利分校的 Sky Computing Lab 和 Berkeley AI Research 团队开发,旨在推动人工智能在教育领域的应用,尤其是在数学教育和竞赛数学领域。模型采用 MIT 开源许可,完全免费供研究人员和开发者使用。
Lumina-Video 是一个用于视频生成的初步尝试项目,支持文本到视频的生成。
Lumina-Video 是 Alpha-VLLM 团队开发的一个视频生成模型,主要用于从文本生成高质量的视频内容。该模型基于深度学习技术,能够根据用户输入的文本提示生成对应的视频,具有高效性和灵活性。它在视频生成领域具有重要意义,为内容创作者提供了强大的工具,能够快速生成视频素材。目前该项目已开源,支持多种分辨率和帧率的视频生成,并提供了详细的安装和使用指南。
Zonos-v0.1 是一款具有高保真语音克隆功能的实时文本转语音(TTS)模型。
Zonos-v0.1 是 Zyphra 团队开发的实时文本转语音(TTS)模型,具备高保真语音克隆功能。该模型包含一个 1.6B 参数的 Transformer 模型和一个 1.6B 参数的混合模型(Hybrid),均在 Apache 2.0 开源许可下发布。它能够根据文本提示生成自然、富有表现力的语音,并支持多种语言。此外,Zonos-v0.1 还可以通过 5 到 30 秒的语音片段实现高质量的语音克隆,并且可以根据说话速度、音调、音质和情绪等条件进行调整。其主要优点是生成质量高、支持实时交互,并且提供了灵活的语音控制功能。该模型的发布旨在推动 TTS 技术的研究和发展。
支持100万Token上下文的开源Qwen模型,适用于长序列处理任务
Qwen2.5-1M 是一款开源的人工智能语言模型,专为处理长序列任务而设计,支持最多100万Token的上下文长度。该模型通过创新的训练方法和技术优化,显著提升了长序列处理的性能和效率。它在长上下文任务中表现出色,同时保持了短文本任务的性能,是现有长上下文模型的优秀开源替代。该模型适用于需要处理大量文本数据的场景,如文档分析、信息检索等,能够为开发者提供强大的语言处理能力。
BEN2是一个基于深度学习的图像分割模型,专注于背景擦除和前景提取。
BEN2(Background Erase Network)是一个创新的图像分割模型,采用了Confidence Guided Matting(CGM)流程。它通过一个细化网络专门处理模型置信度较低的像素,从而实现更精确的抠图效果。BEN2在头发抠图、4K图像处理、目标分割和边缘细化方面表现出色。其基础模型是开源的,用户可以通过API或Web演示免费试用完整模型。该模型训练数据包括DIS5k数据集和22K专有分割数据集,能够满足多种图像处理需求。
Gemini 2.0 是谷歌推出的最新一代生成式 AI 模型,包含 Flash、Flash-Lite 和 Pro 版本。
Gemini 2.0 是谷歌在生成式 AI 领域的重要进展,代表了最新的人工智能技术。它通过强大的语言生成能力,为开发者提供高效、灵活的解决方案,适用于多种复杂场景。Gemini 2.0 的主要优点包括高性能、低延迟和简化的定价策略,旨在降低开发成本并提高生产效率。该模型通过 Google AI Studio 和 Vertex AI 提供,支持多种模态输入,具备广泛的应用前景。
Mistral Small 3 是一款开源的 24B 参数模型,专为低延迟和高效性能设计。
Mistral Small 3 是由 Mistral AI 推出的一款开源语言模型,具有 24B 参数,采用 Apache 2.0 许可证。该模型专为低延迟和高效性能设计,适合需要快速响应的生成式 AI 任务。它在多任务语言理解(MMLU)基准测试中达到 81% 的准确率,并且能够以每秒 150 个标记的速度生成文本。Mistral Small 3 的设计目标是提供一个强大的基础模型,用于本地部署和定制化开发,支持多种行业应用,如金融服务、医疗保健和机器人技术等。该模型未使用强化学习(RL)或合成数据训练,因此在模型生产管线中处于较早期阶段,适合用于构建推理能力。
首个面向语境智能的人类级实时交互系统,支持多情感、多风格语音交互。
SpeechGPT 2.0-preview 是一款由复旦大学自然语言处理实验室开发的先进语音交互模型。它通过海量语音数据训练,实现了低延迟、高自然度的语音交互能力。该模型能够模拟多种情感、风格和角色的语音表达,同时支持工具调用、在线搜索和外部知识库访问等功能。其主要优点包括强大的语音风格泛化能力、多角色模拟以及低延迟交互体验。目前该模型仅支持中文语音交互,未来计划扩展到更多语言。
YuE 是一个专注于全曲生成的开源音乐基础模型,能够根据歌词生成完整的音乐作品。
YuE 是由香港科技大学和多模态艺术投影团队开发的开源音乐生成模型。它能够根据给定的歌词生成长达 5 分钟的完整歌曲,包括人声和伴奏部分。该模型通过多种技术创新,如语义增强音频标记器、双标记技术和歌词链式思考等,解决了歌词到歌曲生成的复杂问题。YuE 的主要优点是能够生成高质量的音乐作品,并且支持多种语言和音乐风格,具有很强的可扩展性和可控性。该模型目前免费开源,旨在推动音乐生成技术的发展。
Llasa-1B 是一个基于 LLaMA 的文本转语音 (TTS) 模型,支持中英文语音合成。
Llasa-1B 是一个由香港科技大学音频实验室开发的文本转语音模型。它基于 LLaMA 架构,通过结合 XCodec2 代码本中的语音标记,能够将文本转换为自然流畅的语音。该模型在 25 万小时的中英文语音数据上进行了训练,支持从纯文本生成语音,也可以利用给定的语音提示进行合成。其主要优点是能够生成高质量的多语言语音,适用于多种语音合成场景,如有声读物、语音助手等。该模型采用 CC BY-NC-ND 4.0 许可证,禁止商业用途。
Llasa-3B 是一个基于 LLaMA 的文本到语音合成模型,支持中英文语音生成。
Llasa-3B 是一个强大的文本到语音(TTS)模型,基于 LLaMA 架构开发,专注于中英文语音合成。该模型通过结合 XCodec2 的语音编码技术,能够将文本高效地转换为自然流畅的语音。其主要优点包括高质量的语音输出、支持多语言合成以及灵活的语音提示功能。该模型适用于需要语音合成的多种场景,如有声读物制作、语音助手开发等。其开源性质也使得开发者可以自由探索和扩展其功能。
与先进AI学习60种外语,跨越语言边界,提升口语能力。
TalkAI练口语是一款先进的口语学习工具,通过AI技术为用户提供一对一的口语陪聊服务,支持超过60种语言。其重要性在于帮助用户突破语言障碍,提升口语水平,无论是初学者还是希望提升口语能力的学习者都能从中受益。该产品由深圳市惊叹科技有限公司开发,于2021年12月03日成立,注册地位于深圳市宝安区。其服务对象广泛,包括学校、企业和个人用户,致力于通过技术创新推动语言学习的普及和发展。目前暂无明确公开的价格信息,但根据其功能和服务范围,推测其可能采用付费模式或提供部分免费试用服务。
一个简单的检索增强生成框架,使小型模型通过异构图索引和轻量级拓扑增强检索实现良好的RAG性能。
MiniRAG是一个针对小型语言模型设计的检索增强生成系统,旨在简化RAG流程并提高效率。它通过语义感知的异构图索引机制和轻量级的拓扑增强检索方法,解决了小型模型在传统RAG框架中性能受限的问题。该模型在资源受限的场景下具有显著优势,如在移动设备或边缘计算环境中。MiniRAG的开源特性也使其易于被开发者社区接受和改进。
RAIN是一种实时动画无限视频流技术。
RAIN是一种实时动画无限视频流技术,能够在消费级设备上实现高质量、低延迟的实时动画。它通过高效计算不同噪声水平和长时间间隔的帧标记注意力,同时去噪比以往流式方法更多的帧标记,从而在保持视频流连贯性的同时,以更快的速度和更短的延迟生成视频帧。RAIN仅引入少量额外的1D注意力块,对系统负担较小。该技术有望在游戏渲染、直播和虚拟现实等领域与CG结合,利用AI的泛化能力渲染无数新场景和对象,并提供更互动的参与方式。
MatterGen是一个利用生成式AI进行材料设计的工具。
MatterGen是微软研究院推出的一种生成式AI工具,用于材料设计。它能够根据应用的设计要求直接生成具有特定化学、机械、电子或磁性属性的新型材料,为材料探索提供了新的范式。该工具的出现有望加速新型材料的研发进程,降低研发成本,并在电池、太阳能电池、CO2吸附剂等领域发挥重要作用。目前,MatterGen的源代码已在GitHub上开源,供公众使用和进一步开发。
一个拥有8200万参数的前沿文本到语音(TTS)模型。
Kokoro-82M是一个由hexgrad创建并托管在Hugging Face上的文本到语音(TTS)模型。它具有8200万参数,使用Apache 2.0许可证开源。该模型在2024年12月25日发布了v0.19版本,并提供了10种独特的语音包。Kokoro-82M在TTS Spaces Arena中排名第一,显示出其在参数规模和数据使用上的高效性。它支持美国英语和英国英语,可用于生成高质量的语音输出。
一款简单易用的无限录音转文字APP,支持中英双语实时翻译。
inFin:Infinite AI Voice Notes 是一款专为提高工作效率而设计的语音笔记应用。它利用先进的人工智能技术,将录音实时转换为文字,并支持中英文的无限实时翻译。该产品的主要优点在于其简洁的用户界面和强大的功能,能够在各种场景下为用户提供便捷的记录和翻译服务。产品背景信息显示,它是由昱晗马开发,旨在为用户提供一个简单但卓越的语音记录解决方案。该应用是免费的,适合需要高效记录和翻译的用户。
开源幻觉评估模型
Llama-3-Patronus-Lynx-8B-Instruct是由Patronus AI开发的一个基于meta-llama/Meta-Llama-3-8B-Instruct模型的微调版本,主要用于检测在RAG设置中的幻觉。该模型训练于包含CovidQA、PubmedQA、DROP、RAGTruth等多个数据集,包含人工标注和合成数据。它能够评估给定文档、问题和答案是否忠实于文档内容,不提供文档之外的新信息,也不与文档信息相矛盾。
视频水印开源模型,用于验证视频来源。
Meta Video Seal是一个先进的开源视频水印模型,能够在视频编辑后仍嵌入持久、不可见的水印。随着AI生成内容的增加,验证视频来源变得至关重要。Video Seal通过嵌入隐形水印,即使在视频被编辑后,也能保持水印的完整性,这对于版权保护和内容验证具有重要意义。
快速生成类人语音的TTS模型
Flash是ElevenLabs最新推出的文本转语音(Text-to-Speech, TTS)模型,它以75毫秒加上应用和网络延迟的速度生成语音,是低延迟、会话型语音代理的首选模型。Flash v2仅支持英语,而Flash v2.5支持32种语言,每两个字符消耗1个信用点。Flash在盲测中持续超越了同类超低延迟模型,是速度最快且具有质量保证的模型。
智能眼镜,集成AI、实时翻译和音乐识别功能
Ray-Ban Meta Glasses是Meta公司推出的一款智能眼镜,它通过集成最新的软件更新,提供了包括实时AI、实时翻译和Shazam音乐识别在内的多种功能。这款眼镜允许用户完全无需动手,就能体验世界、分享个人视角和捕捉重要时刻。产品背景信息显示,Ray-Ban Meta Glasses通过定期的软件更新不断增强功能,使其变得更加智能和有用。
可扩展的流媒体语音合成技术,结合大型语言模型。
CosyVoice 2是由阿里巴巴集团的SpeechLab@Tongyi团队开发的语音合成模型,它基于监督离散语音标记,并结合了两种流行的生成模型:语言模型(LMs)和流匹配,实现了高自然度、内容一致性和说话人相似性的语音合成。该模型在多模态大型语言模型(LLMs)中具有重要的应用,特别是在交互体验中,响应延迟和实时因素对语音合成至关重要。CosyVoice 2通过有限标量量化提高语音标记的码本利用率,简化了文本到语音的语言模型架构,并设计了块感知的因果流匹配模型以适应不同的合成场景。它在大规模多语言数据集上训练,实现了与人类相当的合成质量,并具有极低的响应延迟和实时性。
© 2025 AIbase 备案号:闽ICP备08105208号-14