需求人群:
"目标受众为需要进行语音处理、语音识别、语音转录和语音模型训练的开发者和研究人员。该工具箱适合于对语音技术有需求但希望在本地环境中进行操作的用户,因为它提供了本地部署的解决方案。"
使用场景示例:
开发者使用Easy Voice Toolkit为语音识别应用训练自定义模型。
研究人员利用该工具箱进行语音转录,以分析会议录音。
教育机构使用该工具箱创建教学材料的语音数据集。
产品特色:
音频处理:提供音频文件的预处理功能。
语音识别:将语音转换为文本。
语音转录:将语音录制内容转换为文本。
数据集创建:支持SRT格式转换和WAV文件分割。
模型训练:支持自定义语音模型的训练。
语音转换:实现不同语音之间的转换。
使用教程:
下载并安装Python 3.8或更高版本。
通过git克隆Easy Voice Toolkit仓库到本地。
根据项目需求安装PyTorch和其他依赖项。
安装项目所需的其他GUI依赖。
运行Run.py文件以激活GUI界面。
通过GUI界面选择所需的功能进行操作。
浏览量:51
最新流量情况
月访问量
5.16m
平均访问时长
00:06:42
每次访问页数
5.81
跳出率
37.20%
流量来源
直接访问
52.27%
自然搜索
32.92%
邮件
0.05%
外链引荐
12.52%
社交媒体
2.15%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
11.99%
德国
3.63%
印度
9.20%
俄罗斯
5.25%
美国
19.02%
本地部署的AI语音工具箱,支持语音识别、转录和转换。
Easy Voice Toolkit是一个基于开源语音项目的AI语音工具箱,提供包括语音模型训练在内的多种自动化音频工具。该工具箱能够无缝集成,形成完整的工作流程,用户可以根据需要选择性使用这些工具,或按顺序使用,逐步将原始音频文件转换为理想的语音模型。
开源的全双工音频生成基础模型
hertz-dev是Standard Intelligence开源的全双工、仅音频的变换器基础模型,拥有85亿参数。该模型代表了可扩展的跨模态学习技术,能够将单声道16kHz语音转换为8Hz潜在表示,具有1kbps的比特率,性能优于其他音频编码器。hertz-dev的主要优点包括低延迟、高效率和易于研究人员进行微调和构建。产品背景信息显示,Standard Intelligence致力于构建对全人类有益的通用智能,而hertz-dev是这一旅程的第一步。
下一代语音AI,提供卓越的音频数据处理能力。
Universal-2是AssemblyAI推出的最新语音识别模型,它在准确度和精确度上超越了前一代Universal-1,能够更好地捕捉人类语言的复杂性,为用户提供无需二次检查的音频数据。这一技术的重要性在于它能够为产品体验提供更敏锐的洞察力、更快的工作流程和一流的产品体验。Universal-2在专有名词识别、文本格式化和字母数字识别方面都有显著提升,减少了实际应用中的词错误率。
实时翻译器,捕捉来自WINDOWS扬声器和麦克风的任何音频
Hanami Live Translator是一个实时翻译器,可以捕捉来自WINDOWS扬声器和麦克风的任何音频。它使用轻量级多进程和分块处理音频,每个块处理时间约为3-5秒。该应用程序通过低级访问创建硬件回环,即使扬声器静音,也可以监听内容。它使用soundcard库捕获音频信号,SpeechRecognition库将二进制音频转换为文本,selenium库模拟deepl服务器的网络调用进行免费翻译。该应用程序需要与互联网连接才能运行,并通过Traces.log文件记录所有操作。
联合语音转录和实体识别的先进模型
Whisper-NER是一个创新的模型,它允许同时进行语音转录和实体识别。该模型支持开放类型的命名实体识别(NER),能够识别多样化和不断演变的实体。Whisper-NER旨在作为自动语音识别(ASR)和NER下游任务的强大基础模型,并且可以在特定数据集上进行微调以提高性能。
多模态语音大型语言模型
ultravox-v0_4_1-mistral-nemo是一个基于预训练的Mistral-Nemo-Instruct-2407和whisper-large-v3-turbo的多模态语音大型语言模型(LLM)。该模型能够同时处理语音和文本输入,例如,一个文本系统提示和一个语音用户消息。Ultravox通过特殊的<|audio|>伪标记将输入音频转换为嵌入,并生成输出文本。未来版本计划扩展标记词汇以支持生成语义和声学音频标记,进而可以输入到声码器中产生语音输出。该模型由Fixie.ai开发,采用MIT许可。
多模态语音大型语言模型
fixie-ai/ultravox-v0_4_1-llama-3_1-70b是一个基于预训练的Llama3.1-70B-Instruct和whisper-large-v3-turbo的大型语言模型,能够处理语音和文本输入,生成文本输出。该模型通过特殊伪标记<|audio|>将输入音频转换为嵌入,并与文本提示合并后生成输出文本。Ultravox的开发旨在扩展语音识别和文本生成的应用场景,如语音代理、语音到语音翻译和口语音频分析等。该模型遵循MIT许可,由Fixie.ai开发。
多模态语音大型语言模型
fixie-ai/ultravox-v0_4_1-llama-3_1-8b是一个基于预训练的Llama3.1-8B-Instruct和whisper-large-v3-turbo的大型语言模型,能够处理语音和文本输入,生成文本输出。该模型通过特殊的<|audio|>伪标记将输入音频转换为嵌入,并生成输出文本。未来版本计划扩展标记词汇以支持生成语义和声学音频标记,进而可以用于声码器产生语音输出。该模型在翻译评估中表现出色,且没有偏好调整,适用于语音代理、语音到语音翻译、语音分析等场景。
下一代语音AI,打造自然沟通的AI语音代理。
Ultravox.ai是一个先进的语音语言模型(SLM),直接处理语音,无需转换为文本,实现更自然、流畅的对话。它支持多语言,易于适应新语言或口音,确保与不同受众的顺畅沟通。产品背景信息显示,Ultravox.ai是一个开源模型,用户可以根据自己的需求进行定制和部署,价格为每分钟5美分。
基于LLM的智能字幕助手,一键生成高质量视频字幕
卡卡字幕助手(VideoCaptioner)是一款功能强大的视频字幕配制软件,利用大语言模型进行字幕智能断句、校正、优化、翻译,实现字幕视频全流程一键处理。产品无需高配置,操作简单,内置基础LLM模型,保证开箱即用,且消耗模型Token少,适合视频制作者和内容创作者。
Najva:您的AI驱动的Mac语音助手,将语音快速转换为文本。
Najva是一款专为Mac设计的AI驱动的语音助手,它结合了先进的本地语音识别技术和强大的AI模型,将您的语音转换成智能文本。这款应用特别适合那些思维速度比打字速度快的用户,如作家、开发者、医疗专业人员等。Najva以其轻量级、原生Swift应用、零追踪和完全免费等特点,为用户提供了一个注重隐私和效率的工作流程解决方案。
一款通过纯语言模型实现的文本到语音合成模型
OuteTTS-0.1-350M是一款基于纯语言模型的文本到语音合成技术,它不需要外部适配器或复杂架构,通过精心设计的提示和音频标记实现高质量的语音合成。该模型基于LLaMa架构,使用350M参数,展示了直接使用语言模型进行语音合成的潜力。它通过三个步骤处理音频:使用WavTokenizer进行音频标记化、CTC强制对齐创建精确的单词到音频标记映射、以及遵循特定格式的结构化提示创建。OuteTTS的主要优点包括纯语言建模方法、声音克隆能力、与llama.cpp和GGUF格式的兼容性。
高精度环境音频信息捕捉与生成的语音转语音模型
Fish Agent V0.1 3B是一个开创性的语音转语音模型,能够以前所未有的精确度捕捉和生成环境音频信息。该模型采用了无语义标记架构,消除了传统语义编码器/解码器的需求。此外,它还是一个尖端的文本到语音(TTS)模型,训练数据涵盖了700,000小时的多语言音频内容。作为Qwen-2.5-3B-Instruct的继续预训练版本,它在200B语音和文本标记上进行了训练。该模型支持包括英语、中文在内的8种语言,每种语言的训练数据量不同,其中英语和中文各约300,000小时,其他语言各约20,000小时。
Android平台上的私有、设备端语音识别键盘和文字服务
Transcribro是一款运行在Android平台上的私有、设备端语音识别键盘和文字服务应用,它使用whisper.cpp来运行OpenAI Whisper系列模型,并结合Silero VAD进行语音活动检测。该应用提供了语音输入键盘,允许用户通过语音进行文字输入,并且可以被其他应用显式使用,或者设置为用户选择的语音转文字应用,部分应用可能会使用它来进行语音转文字。Transcribro的背景是为用户提供一种更安全、更私密的语音转文字解决方案,避免了云端处理可能带来的隐私泄露问题。该应用是开源的,用户可以自由地查看、修改和分发代码。
在浏览器中直接运行的AI工具箱
Browser AI Kit是一个集成了多种AI工具的平台,用户可以在浏览器中直接使用这些工具,无需安装或设置。它提供了音频转文本、去除背景、文本转语音等多种功能,并且完全免费。这个工具箱基于Transformers.js开发,强调数据安全和隐私保护,所有数据处理都在本地进行,不上传任何服务器。它的目标是为用户提供一个便捷、安全、多功能的AI工具平台。
端到端中英语音对话模型
GLM-4-Voice是由清华大学团队开发的端到端语音模型,能够直接理解和生成中英文语音,进行实时语音对话。它通过先进的语音识别和合成技术,实现了语音到文本再到语音的无缝转换,具备低延迟和高智商的对话能力。该模型在语音模态下的智商和合成表现力上进行了优化,适用于需要实时语音交互的场景。
AI语音转文字助手,支持99种语言
Dictate Buddy是一款利用人工智能技术将语音转换为文字的应用程序。它支持99种语言,并且能够自动检测语言。该应用使用OpenAI Whisper模型,能够准确转录并正确使用标点符号,将口语转换成清晰、结构化的文字。它特别适合需要长时间记录的场景,如会议、头脑风暴或采访。此外,Dictate Buddy还提供了自动摘要功能,帮助用户快速捕捉关键点,而无需回顾冗长的记录。产品背景信息显示,它旨在帮助用户更高效地整理和管理语音信息,特别适合需要大量记录和整理信息的用户。
AI驱动的语音听写工具
Whispo是一款利用人工智能技术的语音听写工具,它能够将用户的语音实时转换成文字。这款工具使用了OpenAI Whisper技术进行语音识别,并支持使用自定义API进行语音转写,还允许通过大型语言模型进行转录后处理。Whispo支持多种操作系统,包括macOS(Apple Silicon)和Windows x64,并且所有数据都存储在本地,保障了用户隐私。它的设计背景是为了提高那些需要大量文字输入的用户的工作效率,无论是编程、写作还是日常记录。Whispo目前是免费试用的,但具体的定价策略尚未在页面上明确。
一个用于说话人分割的工具包
DiariZen是一个基于AudioZen和Pyannote 3.1驱动的说话人分割工具包。说话人分割是音频处理中的一个关键步骤,它能够将一段音频中的不同说话人进行区分。这项技术在会议记录、电话监控、安全监听等多个领域都有广泛的应用。DiariZen的主要优点包括易于使用、高准确性和开源,使得研究人员和开发者可以自由地使用和改进它。DiariZen在GitHub上以MIT许可证发布,这意味着它是完全免费的,并且可以被商业使用。
多模态语言模型,融合文本和语音
Spirit LM是一个基础多模态语言模型,能够自由混合文本和语音。该模型基于一个7B预训练的文本语言模型,通过持续在文本和语音单元上训练来扩展到语音模式。语音和文本序列被串联为单个令牌流,并使用一个小的自动策划的语音-文本平行语料库,采用词级交错方法进行训练。Spirit LM有两个版本:基础版使用语音音素单元(HuBERT),而表达版除了音素单元外,还使用音高和风格单元来模拟表达性。对于两个版本,文本都使用子词BPE令牌进行编码。该模型不仅展现了文本模型的语义能力,还展现了语音模型的表达能力。此外,我们展示了Spirit LM能够在少量样本的情况下跨模态学习新任务(例如ASR、TTS、语音分类)。
功能强大的语音离线文件转写服务
FunASR是一款语音离线文件转写服务软件包,集成了语音端点检测、语音识别、标点等模型,能够将长音频与视频转换成带标点的文字,并支持多路请求同时转写。它支持ITN与用户自定义热词,服务端集成有ffmpeg,支持多种音视频格式输入,并提供多种编程语言客户端,适用于需要高效、准确语音转写服务的企业和开发者。
智能语音转文字工具,高效且用户友好。
AsrTools是一款基于人工智能技术的语音转文字工具,它通过调用大厂的ASR服务接口,实现了无需GPU和复杂配置的高效语音识别功能。该工具支持批量处理和多线程并发,能够快速将音频文件转换成SRT或TXT格式的字幕文件。AsrTools的用户界面基于PyQt5和qfluentwidgets,提供高颜值且易于操作的交互体验。它的主要优点包括调用大厂接口的稳定性、无需复杂配置的便捷性、以及多格式输出的灵活性。AsrTools适合需要快速将语音内容转换成文字的用户,特别是在视频制作、音频编辑和字幕生成等领域。目前,AsrTools提供免费使用大厂ASR服务的模式,对于个人和小团队来说,可以显著降低成本并提高工作效率。
AI驱动的语音笔记应用,将语音转换为有组织的摘要和清晰的行动项。
NotesGPT是一款利用人工智能技术将用户的语音笔记转换成有组织的摘要和清晰的行动项的在线服务。它通过先进的语音识别和自然语言处理技术,帮助用户更高效地记录和管理笔记,特别适合需要快速记录信息并整理成结构化内容的用户。产品背景信息显示,NotesGPT由Together.ai和Convex提供技术支持,这表明其背后有着强大的AI技术支撑。目前,该产品似乎处于推广阶段,具体价格和定位信息未在页面中明确展示。
多模态大型语言模型的优化与分析
MM1.5是一系列多模态大型语言模型(MLLMs),旨在增强文本丰富的图像理解、视觉指代表明和接地以及多图像推理的能力。该模型基于MM1架构,采用以数据为中心的模型训练方法,系统地探索了整个模型训练生命周期中不同数据混合的影响。MM1.5模型从1B到30B参数不等,包括密集型和混合专家(MoE)变体,并通过广泛的实证研究和消融研究,提供了详细的训练过程和决策见解,为未来MLLM开发研究提供了宝贵的指导。
使用AI整理和提炼你的想法的语音和文本笔记应用
Echo是一款结合了人工智能技术的语音和文本笔记应用,它通过AI技术帮助用户组织和提炼思考。Echo利用GPT-4o大型语言模型进行转录、回忆和洞察力生成,能够准确转录用户的语音输入,并根据用户过去的想法提供有意义的答案,使日记体验更具互动性和吸引力。该产品注重隐私和安全性,笔记加密,不查看用户数据,也不使用数据训练AI,遵循行业最佳实践进行数据保护。目前Echo处于免费测试阶段,未来计划引入高级功能。
开源的语音识别和说话人分割模型推理代码
Reverb 是一个开源的语音识别和说话人分割模型推理代码,使用 WeNet 框架进行语音识别 (ASR) 和 Pyannote 框架进行说话人分割。它提供了详细的模型描述,并允许用户从 Hugging Face 下载模型。Reverb 旨在为开发者和研究人员提供高质量的语音识别和说话人分割工具,以支持各种语音处理任务。
世界最精确的AI语音转录服务
Rev AI提供高精度的语音转录服务,支持58种以上语言,能够将视频和语音应用中的语音转换为文本。它通过使用世界上最多样化的声音集合进行训练,为视频和语音应用设定了准确性标准。Rev AI还提供实时流媒体转录、人类转录、语言识别、情感分析、主题提取、总结和翻译等服务。Rev AI的技术优势在于低词错误率、对性别和种族口音的最小偏见、支持更多语言以及提供最易读的转录文本。此外,它还符合世界顶级的安全标准,包括SOC II、HIPAA、GDPR和PCI合规性。
会议语音转文本并自动生成摘要的AI工具
AI-Powered Meeting Summarizer是一个基于Gradio的网站应用,能够将会议录音转换为文本,并使用whisper.cpp进行音频到文本的转换,以及Ollama服务器进行文本摘要。该工具非常适合快速提取会议中的关键点、决策和行动项目。
© 2024 AIbase 备案号:闽ICP备08105208号-14