需求人群:
"该产品适用于需要高效语音识别的开发者、企业和研究机构,尤其适合那些需要支持多种语言和方言的场景,如智能客服、语音助手和教育应用。开源特性使其成为学术研究和商业应用的理想选择。"
使用场景示例:
在智能客服系统中,快速准确地识别用户语音指令,提供即时响应。
用于教育应用,帮助学生练习普通话发音和听力理解。
在音乐制作中,准确识别和转录歌唱歌词,辅助创作和编辑。
产品特色:
支持普通话、中文方言和英语的语音识别
在公共普通话语音识别基准测试中达到最高水平
具备出色的歌唱歌词识别能力
开源代码,便于开发者进行定制和优化
提供多种模型变体,满足不同性能和效率需求
使用教程:
1. 从 Hugging Face 下载模型文件并放置在 'pretrained_models' 文件夹中。
2. 创建 Python 环境并安装依赖项。
3. 将音频文件转换为 16kHz 16-bit PCM 格式。
4. 使用命令行工具或 Python API 调用模型进行语音识别。
5. 根据需要调整模型参数,如 beam size 和解码长度,以优化识别效果。
浏览量:11
最新流量情况
月访问量
26103.68k
平均访问时长
00:04:43
每次访问页数
5.49
跳出率
43.69%
流量来源
直接访问
48.80%
自然搜索
35.36%
邮件
0.03%
外链引荐
12.91%
社交媒体
2.88%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
16.85%
印度
7.96%
日本
3.46%
俄罗斯
5.47%
美国
16.98%
开源工业级自动语音识别模型,支持普通话、方言和英语,性能卓越。
FireRedASR-AED-L 是一个开源的工业级自动语音识别模型,专为满足高效率和高性能的语音识别需求而设计。该模型采用基于注意力的编码器-解码器架构,支持普通话、中文方言和英语等多种语言。它在公共普通话语音识别基准测试中达到了新的最高水平,并且在歌唱歌词识别方面表现出色。该模型的主要优点包括高性能、低延迟和广泛的适用性,适用于各种语音交互场景。其开源特性使得开发者可以自由地使用和修改代码,进一步推动语音识别技术的发展。
开源AI模型,具有7B参数和3.1T训练令牌
RWKV-6 Finch 7B World 3是一个开源的人工智能模型,拥有7B个参数,并且经过3.1万亿个多语言令牌的训练。该模型以其环保的设计理念和高性能而著称,旨在为全球用户提供高质量的开源AI模型,无论国籍、语言或经济状况如何。RWKV架构旨在减少对环境的影响,每令牌消耗的功率固定,与上下文长度无关。
开源的工业级普通话自动语音识别模型,支持多种应用场景。
FireRedASR 是一个开源的工业级普通话自动语音识别模型,采用 Encoder-Decoder 和 LLM 集成架构。它包含两个变体:FireRedASR-LLM 和 FireRedASR-AED,分别针对高性能和高效能需求设计。该模型在普通话基准测试中表现出色,同时在方言和英文语音识别上也有良好表现。它适用于需要高效语音转文字的工业级应用,如智能助手、视频字幕生成等。模型开源,便于开发者集成和优化。
结合DeepSeek R1推理能力和Claude创造力及代码生成能力的统一API和聊天界面。
DeepClaude是一个强大的AI工具,旨在将DeepSeek R1的推理能力与Claude的创造力和代码生成能力相结合,通过统一的API和聊天界面提供服务。它利用高性能的流式API(用Rust编写)实现即时响应,同时支持端到端加密和本地API密钥管理,确保用户数据的隐私和安全。该产品是完全开源的,用户可以自由贡献、修改和部署。其主要优点包括零延迟响应、高度可配置性以及支持用户自带密钥(BYOK),为开发者提供了极大的灵活性和控制权。DeepClaude主要面向需要高效代码生成和AI推理能力的开发者和企业,目前处于免费试用阶段,未来可能会根据使用量收费。
Mistral Small 24B 是一款多语言、高性能的指令微调型大型语言模型,适用于多种应用场景。
Mistral Small 24B 是一款由 Mistral AI 团队开发的大型语言模型,拥有 240 亿参数,支持多语言对话和指令处理。该模型通过指令微调,能够生成高质量的文本内容,适用于聊天、写作、编程辅助等多种场景。其主要优点包括强大的语言生成能力、多语言支持以及高效推理能力。该模型适合需要高性能语言处理的个人和企业用户,具有开源许可,支持本地部署和量化优化,适合对数据隐私有要求的场景。
PengChengStarling 是一个基于 icefall 项目的多语言自动语音识别(ASR)模型开发工具包。
PengChengStarling 是一个专注于多语言自动语音识别(ASR)的开源工具包,基于 icefall 项目开发。它支持完整的 ASR 流程,包括数据处理、模型训练、推理、微调和部署。该工具包通过优化参数配置和集成语言 ID 到 RNN-Transducer 架构中,显著提升了多语言 ASR 系统的性能。其主要优点包括高效的多语言支持、灵活的配置设计以及强大的推理性能。PengChengStarling 的模型在多种语言上表现出色,且模型规模较小,推理速度极快,适合需要高效语音识别的场景。
YuE是一个开源的音乐生成模型,能够将歌词转化为完整的歌曲。
YuE是一个开创性的开源基础模型系列,专为音乐生成设计,能够将歌词转化为完整的歌曲。它能够生成包含吸引人的主唱和配套伴奏的完整歌曲,支持多种音乐风格。该模型基于深度学习技术,具有强大的生成能力和灵活性,能够为音乐创作者提供强大的工具支持。其开源特性也使得研究人员和开发者可以在此基础上进行进一步的研究和开发。
一款基于StyleTTS 2架构的先进AI文本转语音模型,拥有8200万参数,提供高质量的自然语音合成。
Kokoro TTS是一款专注于文本转语音的AI模型,其主要功能是将文本内容转换为自然流畅的语音输出。该模型基于StyleTTS 2架构,拥有8200万参数,能够在保持高质量语音合成的同时,提供高效的性能和较低的资源消耗。其多语言支持和可定制的语音包使其能够满足不同用户在多种场景下的需求,如制作有声读物、播客、培训视频等,尤其适合教育领域,帮助提升内容的可访问性和吸引力。此外,Kokoro TTS是开源的,用户可以免费使用,这使得它在成本效益上具有显著优势。
DeepSeek-R1-Distill-Llama-8B 是一个高性能的开源语言模型,适用于文本生成和推理任务。
DeepSeek-R1-Distill-Llama-8B 是 DeepSeek 团队开发的高性能语言模型,基于 Llama 架构并经过强化学习和蒸馏优化。该模型在推理、代码生成和多语言任务中表现出色,是开源社区中首个通过纯强化学习提升推理能力的模型。它支持商业使用,允许修改和衍生作品,适合学术研究和企业应用。
DeepSeek-R1-Distill-Qwen-32B 是一款高性能的开源语言模型,适用于多种文本生成任务。
DeepSeek-R1-Distill-Qwen-32B 是由 DeepSeek 团队开发的高性能语言模型,基于 Qwen-2.5 系列进行蒸馏优化。该模型在多项基准测试中表现出色,尤其是在数学、代码和推理任务上。其主要优点包括高效的推理能力、强大的多语言支持以及开源特性,便于研究人员和开发者进行二次开发和应用。该模型适用于需要高性能文本生成的场景,如智能客服、内容创作和代码辅助等,具有广泛的应用前景。
一个免费开源的简历生成器,简化简历创建、更新和分享过程。
Reactive Resume 是一个由 Amruth Pillai 开发的免费开源简历生成器,旨在帮助用户轻松创建、更新和分享简历。该项目已持续开发超过3年,具备丰富的功能和高度的灵活性。它采用 MIT 开源许可证,用户可以自由使用和修改代码,甚至可以通过 Docker 自行托管。其支持多种语言、多种简历模板和自定义功能,满足不同用户的需求。作为一款完全免费且无广告的产品,它以实用性和便捷性为主要优势,致力于帮助求职者在求职过程中脱颖而出。
Whisper Turbo 是一款免费在线快速准确的语音识别工具。
Whisper Turbo 是基于 Whisper Large-v3 模型优化的语音识别工具,专为快速语音转录而设计。它利用先进的 AI 技术,能够高效地将不同音频源的语音转换为文本,支持多种语言和口音。该工具免费提供给用户,旨在帮助人们节省时间和精力,提高工作效率。其主要面向需要快速准确转录语音内容的用户,如博主、内容创作者、企业等,为他们提供便捷的语音转文字解决方案。
这是一个基于Qwen2.5-32B模型的4位量化版本,专为高效推理和低资源部署设计。
该产品是一个基于Qwen2.5-32B的4位量化语言模型,通过GPTQ技术实现高效推理和低资源消耗。它在保持较高性能的同时,显著降低了模型的存储和计算需求,适合在资源受限的环境中使用。该模型主要面向需要高性能语言生成的应用场景,如智能客服、编程辅助、内容创作等。其开源许可和灵活的部署方式使其在商业和研究领域具有广泛的应用前景。
一个具有先进语音活动检测、唤醒词激活和即时转录功能的稳健、高效、低延迟的语音到文本库。
RealtimeSTT是一个开源的语音识别模型,能够实时将语音转换为文本。它使用了先进的语音活动检测技术,可以自动检测语音的开始和结束,无需手动操作。此外,它还支持唤醒词激活功能,用户可以通过说出特定的唤醒词来启动语音识别。该模型具有低延迟、高效率的特点,适合需要实时语音转录的应用场景,如语音助手、会议记录等。它基于Python开发,易于集成和使用,且在GitHub上开源,社区活跃,不断有新的更新和改进。
基于ESP32的AI聊天机器人项目,可实现多语言对话与声纹识别
xiaozhi-esp32 是一个开源的 AI 聊天机器人项目,基于乐鑫的 ESP-IDF 开发。它将大语言模型与硬件设备相结合,使用户能够打造出个性化的 AI 伴侣。项目支持多种语言的语音识别与对话,具备声纹识别功能,能够识别不同用户的语音特征。其开源特性降低了 AI 硬件开发的门槛,为学生、开发者等群体提供了宝贵的学习资源,有助于推动 AI 技术在硬件领域的应用与创新。项目目前免费开源,适合不同层次的开发者进行学习与二次开发。
一款高效率的2.4亿参数轻量级语言模型
YuLan-Mini是由中国人民大学AI Box团队开发的一款轻量级语言模型,具有2.4亿参数,尽管仅使用1.08T的预训练数据,但其性能可与使用更多数据训练的行业领先模型相媲美。该模型特别擅长数学和代码领域,为了促进可复现性,团队将开源相关的预训练资源。
实时浏览器端语音识别应用
Moonshine Web是一个基于React和Vite构建的简单应用,它运行了Moonshine Base,这是一个针对快速准确自动语音识别(ASR)优化的强大语音识别模型,适用于资源受限的设备。该应用在浏览器端本地运行,使用Transformers.js和WebGPU加速(或WASM作为备选)。它的重要性在于能够为用户提供一个无需服务器即可在本地进行语音识别的解决方案,这对于需要快速处理语音数据的应用场景尤为重要。
先进的指令遵循模型,提供全面后训练技术指南。
Llama-3.1-Tulu-3-8B-RM是Tülu3模型家族的一部分,该家族以开源数据、代码和配方为特色,旨在为现代后训练技术提供全面指南。该模型专为聊天以外的多样化任务(如MATH、GSM8K和IFEval)提供最先进的性能。
Android平台上的私有、设备端语音识别键盘和文字服务
Transcribro是一款运行在Android平台上的私有、设备端语音识别键盘和文字服务应用,它使用whisper.cpp来运行OpenAI Whisper系列模型,并结合Silero VAD进行语音活动检测。该应用提供了语音输入键盘,允许用户通过语音进行文字输入,并且可以被其他应用显式使用,或者设置为用户选择的语音转文字应用,部分应用可能会使用它来进行语音转文字。Transcribro的背景是为用户提供一种更安全、更私密的语音转文字解决方案,避免了云端处理可能带来的隐私泄露问题。该应用是开源的,用户可以自由地查看、修改和分发代码。
开源的语音识别和说话人分割模型推理代码
Reverb 是一个开源的语音识别和说话人分割模型推理代码,使用 WeNet 框架进行语音识别 (ASR) 和 Pyannote 框架进行说话人分割。它提供了详细的模型描述,并允许用户从 Hugging Face 下载模型。Reverb 旨在为开发者和研究人员提供高质量的语音识别和说话人分割工具,以支持各种语音处理任务。
新型基础语音对语音模型,提供人性化对话体验。
EVI 2是Hume AI推出的新型基础语音对语音模型,能够以接近人类的自然方式与用户进行流畅对话。它具备快速响应、理解用户语调、生成不同语调、以及执行特定请求的能力。EVI 2通过特殊训练增强了情感智能,能够预测并适应用户的偏好,维持有趣且引人入胜的性格和个性。此外,EVI 2还具有多语言能力,能够适应不同应用场景和用户需求。
开源多模态大型语言模型,支持实时语音输入和流式音频输出。
Mini-Omni是一个开源的多模态大型语言模型,能够实现实时的语音输入和流式音频输出的对话能力。它具备实时语音到语音的对话功能,无需额外的ASR或TTS模型。此外,它还可以在思考的同时进行语音输出,支持文本和音频的同时生成。Mini-Omni通过'Audio-to-Text'和'Audio-to-Audio'的批量推理进一步增强性能。
与大型语言模型进行自然的语音对话
OpenVoiceChat是一个开源项目,旨在提供一个与大型语言模型(LLM)进行自然语音对话的平台。它支持多种语音识别(STT)、文本到语音(TTS)和LLM模型,允许用户通过语音与AI进行交互。项目采用Apache-2.0许可,强调开放性和易用性,目标是成为封闭商业实现的开源替代品。
开源的语音到语音转换模块
speech-to-speech 是一个开源的模块化GPT4-o项目,通过语音活动检测、语音转文本、语言模型和文本转语音等连续部分实现语音到语音的转换。它利用了Transformers库和Hugging Face hub上可用的模型,提供了高度的模块化和灵活性。
300行代码实现基于LLM的语音转录。
WeST是一个开源的语音识别转录模型,以300行代码的简洁形式,基于大型语言模型(LLM)实现语音到文本的转换。它由一个大型语言模型、一个语音编码器和一个投影器组成,其中仅投影器部分可训练。WeST的开发灵感来源于SLAM-ASR和LLaMA 3.1,旨在通过简化的代码实现高效的语音识别功能。
1T开源多语言大型语言模型
Tele-FLM-1T是一个开源的1T多语言大型语言模型,基于解码器仅Transformer架构,经过约2T tokens的训练。该模型在规模上展现出卓越的性能,有时甚至超越了更大的模型。除了分享模型权重外,还提供了核心设计、工程实践和训练细节,期待对学术和工业社区都有所裨益。
最前沿的开源AI模型,支持多语言和高级功能。
Llama 3.1是Meta AI推出的最新一代大型语言模型,具有128K的上下文长度扩展、支持八种语言,并首次开源了405B参数级别的前沿AI模型。该模型在通用知识、可控性、数学、工具使用和多语言翻译方面具有最先进的能力,能够与最好的闭源模型相媲美。Llama 3.1的发布,将为开发者提供解锁新工作流程的工具,例如合成数据生成和模型蒸馏。
© 2025 AIbase 备案号:闽ICP备08105208号-14