需求人群:
"该产品适用于需要高效语音识别的开发者、企业和研究机构,尤其适合那些需要支持多种语言和方言的场景,如智能客服、语音助手和教育应用。开源特性使其成为学术研究和商业应用的理想选择。"
使用场景示例:
在智能客服系统中,快速准确地识别用户语音指令,提供即时响应。
用于教育应用,帮助学生练习普通话发音和听力理解。
在音乐制作中,准确识别和转录歌唱歌词,辅助创作和编辑。
产品特色:
支持普通话、中文方言和英语的语音识别
在公共普通话语音识别基准测试中达到最高水平
具备出色的歌唱歌词识别能力
开源代码,便于开发者进行定制和优化
提供多种模型变体,满足不同性能和效率需求
使用教程:
1. 从 Hugging Face 下载模型文件并放置在 'pretrained_models' 文件夹中。
2. 创建 Python 环境并安装依赖项。
3. 将音频文件转换为 16kHz 16-bit PCM 格式。
4. 使用命令行工具或 Python API 调用模型进行语音识别。
5. 根据需要调整模型参数,如 beam size 和解码长度,以优化识别效果。
浏览量:84
最新流量情况
月访问量
27175.38k
平均访问时长
00:04:57
每次访问页数
5.82
跳出率
44.30%
流量来源
直接访问
49.33%
自然搜索
34.96%
邮件
0.03%
外链引荐
12.77%
社交媒体
2.89%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
18.60%
印度
8.26%
日本
3.19%
俄罗斯
5.17%
美国
17.44%
开源工业级自动语音识别模型,支持普通话、方言和英语,性能卓越。
FireRedASR-AED-L 是一个开源的工业级自动语音识别模型,专为满足高效率和高性能的语音识别需求而设计。该模型采用基于注意力的编码器-解码器架构,支持普通话、中文方言和英语等多种语言。它在公共普通话语音识别基准测试中达到了新的最高水平,并且在歌唱歌词识别方面表现出色。该模型的主要优点包括高性能、低延迟和广泛的适用性,适用于各种语音交互场景。其开源特性使得开发者可以自由地使用和修改代码,进一步推动语音识别技术的发展。
Aya Vision 32B 是一个支持多语言的视觉语言模型,适用于OCR、图像描述、视觉推理等多种用途。
Aya Vision 32B 是由 Cohere For AI 开发的先进视觉语言模型,拥有 320 亿参数,支持 23 种语言,包括英语、中文、阿拉伯语等。该模型结合了最新的多语言语言模型 Aya Expanse 32B 和 SigLIP2 视觉编码器,通过多模态适配器实现视觉与语言理解的结合。它在视觉语言领域表现出色,能够处理复杂的图像与文本任务,如 OCR、图像描述、视觉推理等。该模型的发布旨在推动多模态研究的普及,其开源权重为全球研究人员提供了强大的工具。该模型遵循 CC-BY-NC 许可证,并需遵守 Cohere For AI 的合理使用政策。
8亿参数的多语言视觉语言模型,支持OCR、图像描述、视觉推理等功能
CohereForAI的Aya Vision 8B是一个8亿参数的多语言视觉语言模型,专为多种视觉语言任务优化,支持OCR、图像描述、视觉推理、总结、问答等功能。该模型基于C4AI Command R7B语言模型,结合SigLIP2视觉编码器,支持23种语言,具有16K上下文长度。其主要优点包括多语言支持、强大的视觉理解能力以及广泛的适用场景。该模型以开源权重形式发布,旨在推动全球研究社区的发展。根据CC-BY-NC许可协议,用户需遵守C4AI的可接受使用政策。
音刻转录是一款快速、精准、丝滑的音视频转录工具。
音刻转录是一款专注于音视频转录的在线工具,通过先进的语音识别技术,能够快速将音频或视频文件转换为文本。其主要优点包括转录速度快、准确率高、支持多种语言和文件格式。产品定位为高效办公和学习辅助工具,旨在帮助用户节省时间和精力,提升工作效率。音刻转录提供免费试用版本,用户可以体验其核心功能,付费版本则提供更多高级功能和大文件支持,满足不同用户的需求。
Scribe 是全球最准确的语音转文字模型,支持99种语言。
Scribe 是由 ElevenLabs 开发的高精度语音转文字模型,旨在处理真实世界音频的不可预测性。它支持99种语言,提供单词级时间戳、说话人分离和音频事件标记等功能。Scribe 在 FLEURS 和 Common Voice 基准测试中表现卓越,超越了 Gemini 2.0 Flash、Whisper Large V3 和 Deepgram Nova-3 等领先模型。它显著降低了传统服务不足语言(如塞尔维亚语、粤语和马拉雅拉姆语)的错误率,这些语言在竞争模型中的错误率通常超过40%。Scribe 提供 API 接口供开发者集成,并将推出低延迟版本以支持实时应用。
Phi-4-multimodal-instruct 是微软开发的轻量级多模态基础模型,支持文本、图像和音频输入。
Phi-4-multimodal-instruct 是微软开发的多模态基础模型,支持文本、图像和音频输入,生成文本输出。该模型基于Phi-3.5和Phi-4.0的研究和数据集构建,经过监督微调、直接偏好优化和人类反馈强化学习等过程,以提高指令遵循能力和安全性。它支持多种语言的文本、图像和音频输入,具有128K的上下文长度,适用于多种多模态任务,如语音识别、语音翻译、视觉问答等。该模型在多模态能力上取得了显著提升,尤其在语音和视觉任务上表现出色。它为开发者提供了强大的多模态处理能力,可用于构建各种多模态应用。
DeepSeek API与各种流行软件的集成,帮助开发者和用户快速接入DeepSeek能力。
Awesome DeepSeek Integration是一个开源项目,旨在将DeepSeek API集成到各种流行软件中。它为开发者和用户提供了一个快速接入DeepSeek能力的平台,通过与不同软件的集成,用户可以在熟悉的环境中使用DeepSeek的强大功能。该项目完全免费,支持多种语言,具有高度的灵活性和可扩展性,能够满足不同用户的需求。
开源的工业级普通话自动语音识别模型,支持多种应用场景。
FireRedASR 是一个开源的工业级普通话自动语音识别模型,采用 Encoder-Decoder 和 LLM 集成架构。它包含两个变体:FireRedASR-LLM 和 FireRedASR-AED,分别针对高性能和高效能需求设计。该模型在普通话基准测试中表现出色,同时在方言和英文语音识别上也有良好表现。它适用于需要高效语音转文字的工业级应用,如智能助手、视频字幕生成等。模型开源,便于开发者集成和优化。
Mistral Small 24B 是一款多语言、高性能的指令微调型大型语言模型,适用于多种应用场景。
Mistral Small 24B 是一款由 Mistral AI 团队开发的大型语言模型,拥有 240 亿参数,支持多语言对话和指令处理。该模型通过指令微调,能够生成高质量的文本内容,适用于聊天、写作、编程辅助等多种场景。其主要优点包括强大的语言生成能力、多语言支持以及高效推理能力。该模型适合需要高性能语言处理的个人和企业用户,具有开源许可,支持本地部署和量化优化,适合对数据隐私有要求的场景。
PengChengStarling 是一个基于 icefall 项目的多语言自动语音识别(ASR)模型开发工具包。
PengChengStarling 是一个专注于多语言自动语音识别(ASR)的开源工具包,基于 icefall 项目开发。它支持完整的 ASR 流程,包括数据处理、模型训练、推理、微调和部署。该工具包通过优化参数配置和集成语言 ID 到 RNN-Transducer 架构中,显著提升了多语言 ASR 系统的性能。其主要优点包括高效的多语言支持、灵活的配置设计以及强大的推理性能。PengChengStarling 的模型在多种语言上表现出色,且模型规模较小,推理速度极快,适合需要高效语音识别的场景。
YuE是一个开源的音乐生成模型,能够将歌词转化为完整的歌曲。
YuE是一个开创性的开源基础模型系列,专为音乐生成设计,能够将歌词转化为完整的歌曲。它能够生成包含吸引人的主唱和配套伴奏的完整歌曲,支持多种音乐风格。该模型基于深度学习技术,具有强大的生成能力和灵活性,能够为音乐创作者提供强大的工具支持。其开源特性也使得研究人员和开发者可以在此基础上进行进一步的研究和开发。
一款基于StyleTTS 2架构的先进AI文本转语音模型,拥有8200万参数,提供高质量的自然语音合成。
Kokoro TTS是一款专注于文本转语音的AI模型,其主要功能是将文本内容转换为自然流畅的语音输出。该模型基于StyleTTS 2架构,拥有8200万参数,能够在保持高质量语音合成的同时,提供高效的性能和较低的资源消耗。其多语言支持和可定制的语音包使其能够满足不同用户在多种场景下的需求,如制作有声读物、播客、培训视频等,尤其适合教育领域,帮助提升内容的可访问性和吸引力。此外,Kokoro TTS是开源的,用户可以免费使用,这使得它在成本效益上具有显著优势。
DeepSeek-R1-Distill-Llama-8B 是一个高性能的开源语言模型,适用于文本生成和推理任务。
DeepSeek-R1-Distill-Llama-8B 是 DeepSeek 团队开发的高性能语言模型,基于 Llama 架构并经过强化学习和蒸馏优化。该模型在推理、代码生成和多语言任务中表现出色,是开源社区中首个通过纯强化学习提升推理能力的模型。它支持商业使用,允许修改和衍生作品,适合学术研究和企业应用。
一个免费开源的简历生成器,简化简历创建、更新和分享过程。
Reactive Resume 是一个由 Amruth Pillai 开发的免费开源简历生成器,旨在帮助用户轻松创建、更新和分享简历。该项目已持续开发超过3年,具备丰富的功能和高度的灵活性。它采用 MIT 开源许可证,用户可以自由使用和修改代码,甚至可以通过 Docker 自行托管。其支持多种语言、多种简历模板和自定义功能,满足不同用户的需求。作为一款完全免费且无广告的产品,它以实用性和便捷性为主要优势,致力于帮助求职者在求职过程中脱颖而出。
Whisper Turbo 是一款免费在线快速准确的语音识别工具。
Whisper Turbo 是基于 Whisper Large-v3 模型优化的语音识别工具,专为快速语音转录而设计。它利用先进的 AI 技术,能够高效地将不同音频源的语音转换为文本,支持多种语言和口音。该工具免费提供给用户,旨在帮助人们节省时间和精力,提高工作效率。其主要面向需要快速准确转录语音内容的用户,如博主、内容创作者、企业等,为他们提供便捷的语音转文字解决方案。
这是一个基于Qwen2.5-32B模型的4位量化版本,专为高效推理和低资源部署设计。
该产品是一个基于Qwen2.5-32B的4位量化语言模型,通过GPTQ技术实现高效推理和低资源消耗。它在保持较高性能的同时,显著降低了模型的存储和计算需求,适合在资源受限的环境中使用。该模型主要面向需要高性能语言生成的应用场景,如智能客服、编程辅助、内容创作等。其开源许可和灵活的部署方式使其在商业和研究领域具有广泛的应用前景。
一个具有先进语音活动检测、唤醒词激活和即时转录功能的稳健、高效、低延迟的语音到文本库。
RealtimeSTT是一个开源的语音识别模型,能够实时将语音转换为文本。它使用了先进的语音活动检测技术,可以自动检测语音的开始和结束,无需手动操作。此外,它还支持唤醒词激活功能,用户可以通过说出特定的唤醒词来启动语音识别。该模型具有低延迟、高效率的特点,适合需要实时语音转录的应用场景,如语音助手、会议记录等。它基于Python开发,易于集成和使用,且在GitHub上开源,社区活跃,不断有新的更新和改进。
基于ESP32的AI聊天机器人项目,可实现多语言对话与声纹识别
xiaozhi-esp32 是一个开源的 AI 聊天机器人项目,基于乐鑫的 ESP-IDF 开发。它将大语言模型与硬件设备相结合,使用户能够打造出个性化的 AI 伴侣。项目支持多种语言的语音识别与对话,具备声纹识别功能,能够识别不同用户的语音特征。其开源特性降低了 AI 硬件开发的门槛,为学生、开发者等群体提供了宝贵的学习资源,有助于推动 AI 技术在硬件领域的应用与创新。项目目前免费开源,适合不同层次的开发者进行学习与二次开发。
实时浏览器端语音识别应用
Moonshine Web是一个基于React和Vite构建的简单应用,它运行了Moonshine Base,这是一个针对快速准确自动语音识别(ASR)优化的强大语音识别模型,适用于资源受限的设备。该应用在浏览器端本地运行,使用Transformers.js和WebGPU加速(或WASM作为备选)。它的重要性在于能够为用户提供一个无需服务器即可在本地进行语音识别的解决方案,这对于需要快速处理语音数据的应用场景尤为重要。
开源AI模型,具有7B参数和3.1T训练令牌
RWKV-6 Finch 7B World 3是一个开源的人工智能模型,拥有7B个参数,并且经过3.1万亿个多语言令牌的训练。该模型以其环保的设计理念和高性能而著称,旨在为全球用户提供高质量的开源AI模型,无论国籍、语言或经济状况如何。RWKV架构旨在减少对环境的影响,每令牌消耗的功率固定,与上下文长度无关。
Android平台上的私有、设备端语音识别键盘和文字服务
Transcribro是一款运行在Android平台上的私有、设备端语音识别键盘和文字服务应用,它使用whisper.cpp来运行OpenAI Whisper系列模型,并结合Silero VAD进行语音活动检测。该应用提供了语音输入键盘,允许用户通过语音进行文字输入,并且可以被其他应用显式使用,或者设置为用户选择的语音转文字应用,部分应用可能会使用它来进行语音转文字。Transcribro的背景是为用户提供一种更安全、更私密的语音转文字解决方案,避免了云端处理可能带来的隐私泄露问题。该应用是开源的,用户可以自由地查看、修改和分发代码。
开源的语音识别和说话人分割模型推理代码
Reverb 是一个开源的语音识别和说话人分割模型推理代码,使用 WeNet 框架进行语音识别 (ASR) 和 Pyannote 框架进行说话人分割。它提供了详细的模型描述,并允许用户从 Hugging Face 下载模型。Reverb 旨在为开发者和研究人员提供高质量的语音识别和说话人分割工具,以支持各种语音处理任务。
新型基础语音对语音模型,提供人性化对话体验。
EVI 2是Hume AI推出的新型基础语音对语音模型,能够以接近人类的自然方式与用户进行流畅对话。它具备快速响应、理解用户语调、生成不同语调、以及执行特定请求的能力。EVI 2通过特殊训练增强了情感智能,能够预测并适应用户的偏好,维持有趣且引人入胜的性格和个性。此外,EVI 2还具有多语言能力,能够适应不同应用场景和用户需求。
开源多模态大型语言模型,支持实时语音输入和流式音频输出。
Mini-Omni是一个开源的多模态大型语言模型,能够实现实时的语音输入和流式音频输出的对话能力。它具备实时语音到语音的对话功能,无需额外的ASR或TTS模型。此外,它还可以在思考的同时进行语音输出,支持文本和音频的同时生成。Mini-Omni通过'Audio-to-Text'和'Audio-to-Audio'的批量推理进一步增强性能。
与大型语言模型进行自然的语音对话
OpenVoiceChat是一个开源项目,旨在提供一个与大型语言模型(LLM)进行自然语音对话的平台。它支持多种语音识别(STT)、文本到语音(TTS)和LLM模型,允许用户通过语音与AI进行交互。项目采用Apache-2.0许可,强调开放性和易用性,目标是成为封闭商业实现的开源替代品。
开源的语音到语音转换模块
speech-to-speech 是一个开源的模块化GPT4-o项目,通过语音活动检测、语音转文本、语言模型和文本转语音等连续部分实现语音到语音的转换。它利用了Transformers库和Hugging Face hub上可用的模型,提供了高度的模块化和灵活性。
300行代码实现基于LLM的语音转录。
WeST是一个开源的语音识别转录模型,以300行代码的简洁形式,基于大型语言模型(LLM)实现语音到文本的转换。它由一个大型语言模型、一个语音编码器和一个投影器组成,其中仅投影器部分可训练。WeST的开发灵感来源于SLAM-ASR和LLaMA 3.1,旨在通过简化的代码实现高效的语音识别功能。
© 2025 AIbase 备案号:闽ICP备08105208号-14