需求人群:
"GLM-4-Voice的目标受众包括开发者、企业以及任何需要实时语音交互的个人或组织。对于开发者而言,它提供了一个强大的工具来构建语音交互应用;对于企业,它可以帮助提升客户服务的效率和质量;对于个人用户,它提供了一种新颖的语音交互体验。"
使用场景示例:
• 用轻柔的声音引导用户放松
• 用激动的声音解说足球比赛
• 用哀怨的声音讲一个鬼故事
产品特色:
• 语音识别:将连续的语音输入转化为离散的token
• 语音合成:将离散化的语音token转化为连续的语音输出
• 情感控制:根据用户的指令要求改变语音的情感、语调、语速、方言等属性
• 流式推理:支持流式交替输出文本和语音两个模态的内容,降低端到端对话延迟
• 预训练能力:在数百万小时音频和数千亿token的音频文本交错数据上进行预训练,具备强大的音频理解和建模能力
• 多语言支持:能够直接理解和生成中英文语音,进行实时语音对话
使用教程:
1. 首先下载仓库:使用git命令克隆项目到本地
2. 安装依赖:根据项目中的requirements.txt文件安装所需的Python依赖
3. 下载模型:根据项目指南下载所需的语音模型和分词器
4. 启动模型服务:运行model_server.py脚本启动模型服务
5. 启动Web Demo:运行web_demo.py脚本启动Web Demo服务
6. 访问Web Demo:在浏览器中访问http://127.0.0.1:8888来使用Web Demo
浏览量:15
最新流量情况
月访问量
4.89m
平均访问时长
00:06:37
每次访问页数
5.70
跳出率
37.28%
流量来源
直接访问
52.59%
自然搜索
32.74%
邮件
0.05%
外链引荐
12.33%
社交媒体
2.17%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.61%
德国
3.57%
印度
9.68%
俄罗斯
4.81%
美国
18.94%
端到端中英语音对话模型
GLM-4-Voice是由清华大学团队开发的端到端语音模型,能够直接理解和生成中英文语音,进行实时语音对话。它通过先进的语音识别和合成技术,实现了语音到文本再到语音的无缝转换,具备低延迟和高智商的对话能力。该模型在语音模态下的智商和合成表现力上进行了优化,适用于需要实时语音交互的场景。
实时对话式人工智能,一键式API接入。
Deepgram Voice Agent API 是一个统一的语音到语音API,它允许人类和机器之间进行自然听起来的对话。该API由行业领先的语音识别和语音合成模型提供支持,能够自然且实时地听、思考和说话。Deepgram致力于通过其语音代理API推动语音优先AI的未来,通过集成先进的生成AI技术,打造能够进行流畅、类似人类语音代理的业务世界。
全栈式虚拟人多场景应用服务
讯飞虚拟人利用最新的AI虚拟形象技术,结合语音识别、语义理解、语音合成、NLP、星火大模型等AI核心技术,提供虚拟人形象资产构建、AI驱动、多模态交互的多场景虚拟人产品服务。一站式虚拟人音视频内容生产,AIGC助力创作灵活高效;在虚拟'AI演播室'中输入文本或录音,一键完成音、视频作品的输出,3分钟内渲染出稿。
轻量级端到端文本到语音模型
OptiSpeech是一个高效、轻量级且快速的文本到语音模型,专为设备端文本到语音转换设计。它利用了先进的深度学习技术,能够将文本转换为自然听起来的语音,适合需要在移动设备或嵌入式系统中实现语音合成的应用。OptiSpeech的开发得到了Pneuma Solutions提供的GPU资源支持,显著加速了开发进程。
开源多模态大型语言模型,支持实时语音输入和流式音频输出。
Mini-Omni是一个开源的多模态大型语言模型,能够实现实时的语音输入和流式音频输出的对话能力。它具备实时语音到语音的对话功能,无需额外的ASR或TTS模型。此外,它还可以在思考的同时进行语音输出,支持文本和音频的同时生成。Mini-Omni通过'Audio-to-Text'和'Audio-to-Audio'的批量推理进一步增强性能。
开源的语音到语音转换模块
speech-to-speech 是一个开源的模块化GPT4-o项目,通过语音活动检测、语音转文本、语言模型和文本转语音等连续部分实现语音到语音的转换。它利用了Transformers库和Hugging Face hub上可用的模型,提供了高度的模块化和灵活性。
自然交互的语音理解和生成基础模型
FunAudioLLM是一个旨在增强人类与大型语言模型(Large Language Models, LLMs)之间自然语音交互的框架。它包含两个创新模型:SenseVoice负责高精度多语种语音识别、情绪识别和音频事件检测;CosyVoice负责自然语音生成,支持多语种、音色和情绪控制。SenseVoice支持超过50种语言,具有极低的延迟;CosyVoice擅长多语种语音生成、零样本上下文生成、跨语言语音克隆和指令跟随能力。相关模型已在Modelscope和Huggingface上开源,并在GitHub上发布了相应的训练、推理和微调代码。
让应用通过语音与文本的转换实现智能交互。
Azure 认知服务语音是微软推出的一款语音识别与合成服务,支持超过100种语言和方言的语音转文本和文本转语音功能。它通过创建可处理特定术语、背景噪音和重音的自定义语音模型,提高听录的准确度。此外,该服务还支持实时语音转文本、语音翻译、文本转语音等功能,适用于多种商业场景,如字幕生成、通话后听录分析、视频翻译等。
支持多种语音识别和语音合成功能的开源项目
sherpa-onnx 是一个基于下一代 Kaldi 的语音识别和语音合成项目,使用onnxruntime进行推理,支持多种语音相关功能,包括语音转文字(ASR)、文字转语音(TTS)、说话人识别、说话人验证、语言识别、关键词检测等。它支持多种平台和操作系统,包括嵌入式系统、Android、iOS、Raspberry Pi、RISC-V、服务器等。
实时语音翻译,跨语言沟通的桥梁。
StreamSpeech是一款基于多任务学习的实时语音到语音翻译模型。它通过统一框架同时学习翻译和同步策略,有效识别流式语音输入中的翻译时机,实现高质量的实时通信体验。该模型在CVSS基准测试中取得了领先的性能,并能提供低延迟的中间结果,如ASR或翻译结果。
基于科大讯飞语音技术,实现智能客服的多渠道解决方案。
A.I.智能客服解决方案是科大讯飞基于其先进的语音技术,为企业提供的一套完整的客户服务系统。该系统通过电话、Web、APP、小程序、自助终端等多种渠道,实现智能外呼、智能接听、语音导航、在线文字客服、质检分析、坐席辅助等功能。它通过高识别率的语音识别引擎、自然流畅的语音合成技术、智能打断能力、IVR导航以及客服平台中间件等技术,帮助企业提高客服效率,降低人力成本,同时提升客户服务体验。
多模态大型语言模型
AnyGPT是一个统一的多模态大型语言模型,利用离散表示进行各种模态的统一处理,包括语音、文本、图像和音乐。AnyGPT可以在不改变当前大型语言模型架构或训练范式的情况下稳定训练。它完全依赖于数据级预处理,促进了新模态无缝集成到语言模型中,类似于新的语言的加入。我们构建了一个用于多模态对齐预训练的以文本为中心的多模态数据集。利用生成模型,我们合成了第一个大规模的任意到任意的多模态指令数据集。它由10.8万个多轮对话样例组成,多种模态交织在一起,因此使模型能够处理任意组合的多模态输入和输出。实验结果表明,AnyGPT能够促进任意到任意的多模态对话,同时在所有模态上达到与专用模型相当的性能,证明了离散表示可以有效且方便地在语言模型中统一多个模态。
AI实时对话,超低延迟
WhisperFusion是一款基于WhisperLive和WhisperSpeech功能的产品,通过在实时语音转文字流程中集成Mistral大型语言模型(LLM)来实现与AI的无缝对话。Whisper和LLM均经过TensorRT引擎优化,以最大程度提升性能和实时处理能力。WhisperSpeech则使用torch.compile来优化。产品定位于提供超低延迟的AI实时对话体验。
基于语音交互的人工智能开放平台
科大讯飞推出的移动互联网智能交互平台,为开发者免费提供:涵盖语音能力增强型SDK,一站式人机智能语音交互解决方案,专业全面的移动应用分析。通过平台能够打造语音助手、智能外呼、智能车载等场景应用。
智能语言助手,让沟通更简单
语言助手是一款智能语言处理应用,提供多种语言翻译、语音识别、语音合成等功能。优势包括高准确率、快速响应、支持多种语言等。该产品提供免费和付费版本,付费版本提供更多高级功能和无广告体验。定位于为用户提供便捷、高效的语言处理服务。
智能语音助手,简化生活
智能语音助手是一款基于人工智能技术开发的插件,可以帮助用户简化生活。它具有语音识别、语音合成、智能对话等功能,用户可以通过语音指令完成各种操作,如查看天气、设置提醒、播放音乐等。智能语音助手还支持个性化定制,用户可以根据自己的需求设置喜欢的声音、语速等。定价方面,智能语音助手提供免费版和付费版两种选择,付费版提供更多高级功能和个性化定制选项。该产品主要适用于办公场景、个人生活场景等。
实时AI语音转文字/文字转语音解决方案
Speech Intellect是第一个实时工作的语音转文字/文字转语音解决方案,完全使用了全新的AI专注的数学理论——Sense Theory。它考虑了客户发音的每个单词的意义。我们的解决方案基于自主研发的Sense-to-Sense算法,可以实现文本以带有语调和特定调性的声音重新产生。该解决方案可以轻松集成到各种业务场景中,如视频游戏中以人形声音复制脚本文本、呼叫中心与客户的交流、网站上的虚拟对话、智能家居中的舒适对话等等。我们的算法使用的是Sense,与市场上其他解决方案的算法不同。
让你的声音变成语音助手
智能语音助手是一款能够将用户的声音转化为语音助手的插件。它可以帮助用户实现语音合成、语音识别等功能,让用户的声音变成实用的工具。优势:高度定制化,支持多种语言和声音风格;简单易用,只需几步操作即可完成配置;多场景应用,可用于个人助手、语音广播等领域。定价:免费试用,付费版本提供更多功能和支持。定位:为用户提供一个快速、便捷、高效的语音助手工具。
在线语音合成与语音识别服务
TTSLabs是一款在线语音合成与语音识别服务,提供高质量、自然流畅的语音合成和准确可靠的语音识别功能。通过简单的API调用,用户可以将文字转化为真实的语音,并且可以将语音转化为文本。TTSLabs提供多种语音风格和多国语言的支持,具有快速响应、高效稳定的特点。价格灵活透明,适用于个人开发者和企业用户。
易用的对话式人工智能,满足企业和家庭需求
Neon AI是一个革命性的对话式人工智能平台,提供全方位的AI语音互动。具备语音转文字、文字转语音、控制环境、实时翻译等功能。可应用于企业和家庭场景,提供个性化定制服务。
无需对齐信息的零样本文本到语音转换模型
MaskGCT是一个创新的零样本文本到语音转换(TTS)模型,它通过消除显式对齐信息和音素级持续时间预测的需求,解决了自回归和非自回归系统中存在的问题。MaskGCT采用两阶段模型:第一阶段使用文本预测从语音自监督学习(SSL)模型中提取的语义标记;第二阶段,模型根据这些语义标记预测声学标记。MaskGCT遵循掩码和预测的学习范式,在训练期间学习预测基于给定条件和提示的掩码语义或声学标记。在推理期间,模型以并行方式生成指定长度的标记。实验表明,MaskGCT在质量、相似性和可理解性方面超越了当前最先进的零样本TTS系统。
AI驱动的语音听写工具
Whispo是一款利用人工智能技术的语音听写工具,它能够将用户的语音实时转换成文字。这款工具使用了OpenAI Whisper技术进行语音识别,并支持使用自定义API进行语音转写,还允许通过大型语言模型进行转录后处理。Whispo支持多种操作系统,包括macOS(Apple Silicon)和Windows x64,并且所有数据都存储在本地,保障了用户隐私。它的设计背景是为了提高那些需要大量文字输入的用户的工作效率,无论是编程、写作还是日常记录。Whispo目前是免费试用的,但具体的定价策略尚未在页面上明确。
多模态语言模型,融合文本和语音
Spirit LM是一个基础多模态语言模型,能够自由混合文本和语音。该模型基于一个7B预训练的文本语言模型,通过持续在文本和语音单元上训练来扩展到语音模式。语音和文本序列被串联为单个令牌流,并使用一个小的自动策划的语音-文本平行语料库,采用词级交错方法进行训练。Spirit LM有两个版本:基础版使用语音音素单元(HuBERT),而表达版除了音素单元外,还使用音高和风格单元来模拟表达性。对于两个版本,文本都使用子词BPE令牌进行编码。该模型不仅展现了文本模型的语义能力,还展现了语音模型的表达能力。此外,我们展示了Spirit LM能够在少量样本的情况下跨模态学习新任务(例如ASR、TTS、语音分类)。
功能强大的语音离线文件转写服务
FunASR是一款语音离线文件转写服务软件包,集成了语音端点检测、语音识别、标点等模型,能够将长音频与视频转换成带标点的文字,并支持多路请求同时转写。它支持ITN与用户自定义热词,服务端集成有ffmpeg,支持多种音视频格式输入,并提供多种编程语言客户端,适用于需要高效、准确语音转写服务的企业和开发者。
智能语音转文字工具,高效且用户友好。
AsrTools是一款基于人工智能技术的语音转文字工具,它通过调用大厂的ASR服务接口,实现了无需GPU和复杂配置的高效语音识别功能。该工具支持批量处理和多线程并发,能够快速将音频文件转换成SRT或TXT格式的字幕文件。AsrTools的用户界面基于PyQt5和qfluentwidgets,提供高颜值且易于操作的交互体验。它的主要优点包括调用大厂接口的稳定性、无需复杂配置的便捷性、以及多格式输出的灵活性。AsrTools适合需要快速将语音内容转换成文字的用户,特别是在视频制作、音频编辑和字幕生成等领域。目前,AsrTools提供免费使用大厂ASR服务的模式,对于个人和小团队来说,可以显著降低成本并提高工作效率。
AI驱动的语音笔记应用,将语音转换为有组织的摘要和清晰的行动项。
NotesGPT是一款利用人工智能技术将用户的语音笔记转换成有组织的摘要和清晰的行动项的在线服务。它通过先进的语音识别和自然语言处理技术,帮助用户更高效地记录和管理笔记,特别适合需要快速记录信息并整理成结构化内容的用户。产品背景信息显示,NotesGPT由Together.ai和Convex提供技术支持,这表明其背后有着强大的AI技术支撑。目前,该产品似乎处于推广阶段,具体价格和定位信息未在页面中明确展示。
基于深度学习的高质量文本到语音合成模型
F5-TTS是由SWivid团队开发的一个文本到语音合成(TTS)模型,它利用深度学习技术将文本转换为自然流畅、忠实于原文的语音输出。该模型在生成语音时,不仅追求高自然度,还注重语音的清晰度和准确性,适用于需要高质量语音合成的各种应用场景,如语音助手、有声读物制作、自动新闻播报等。F5-TTS模型在Hugging Face平台上发布,用户可以方便地下载和部署,支持多种语言和声音类型,具有很高的灵活性和可扩展性。
开源的语音识别和说话人分割模型推理代码
Reverb 是一个开源的语音识别和说话人分割模型推理代码,使用 WeNet 框架进行语音识别 (ASR) 和 Pyannote 框架进行说话人分割。它提供了详细的模型描述,并允许用户从 Hugging Face 下载模型。Reverb 旨在为开发者和研究人员提供高质量的语音识别和说话人分割工具,以支持各种语音处理任务。
© 2024 AIbase 备案号:闽ICP备08105208号-14