需求人群:
"目标受众包括游戏开发者、动画制作者、VR/AR内容创作者以及任何需要快速实现数字人动画的个人或团队。MiniMates的极速体验和个性化定制能力使其成为这些用户的理想选择,尤其是在资源有限的情况下。"
使用场景示例:
游戏开发者使用MiniMates为游戏角色快速生成逼真的面部表情和语音。
动画师利用MiniMates创建虚拟主播,进行实时的直播和互动。
教育工作者使用MiniMates制作教学辅助材料,通过AI伙伴提高学生的学习兴趣。
产品特色:
极速体验:无需独立显卡,CPU即可实现实时数字人表情和语音驱动。
个性化定制:支持one-shot单图驱动,最低只需一张图片即可驱动数字人。
嵌入终端:无需依赖Python和CUDA,可在多种设备上运行。
支持语音驱动和表情驱动:可以根据语音和面部表情实时驱动数字人。
实时相机表情驱动:使用mediapipe完成ARkit表情捕捉,实现实时表情驱动。
多种驱动模式:支持旋转驱动、音频驱动和混合驱动。
跨平台支持:支持在Windows、Mac和Linux等多种操作系统上运行。
使用教程:
1. 获取预训练模型并放置于项目目录下的checkpoint文件夹中。
2. 创建Python环境并安装所需依赖,如torch和requirements.txt中列出的库。
3. 若需要人像抠图,使用提供的matting.py脚本处理图片。
4. 使用interface_face.py脚本和摄像头进行快速尝试,观察图片人物随头部运动。
5. 利用generate_move_template.py根据视频生成表情模版。
6. 通过interface_audio.py脚本,让图片人物按照语音文件和表情模版生成视频。
7. 根据需要调整算法参数,优化数字人的表现。
浏览量:19
最新流量情况
月访问量
5.16m
平均访问时长
00:06:42
每次访问页数
5.81
跳出率
37.20%
流量来源
直接访问
52.27%
自然搜索
32.92%
邮件
0.05%
外链引荐
12.52%
社交媒体
2.15%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
11.99%
德国
3.63%
印度
9.20%
俄罗斯
5.25%
美国
19.02%
轻量级图片数字人驱动算法,快速定制AI伙伴
MiniMates是一款轻量级的图片数字人驱动算法,能够在普通电脑上实时运行,支持语音驱动和表情驱动两种模式。它比市面上的liveportrait、EchoMimic、MuseTalk等算法快10-100倍,让用户能够通过极少的资源消耗定制自己的AI伙伴。该技术的主要优点包括极速体验、个性化定制以及嵌入终端的能力,摆脱了对Python和CUDA的依赖。MiniMates遵循MIT协议,适用于需要快速、高效的人脸动画和语音合成的应用场景。
AI驱动的视频生成工具,一键生成高质量营销视频
小视频宝(ClipTurbo)是一个AI驱动的视频生成工具,旨在帮助用户轻松创建高质量的营销视频。该工具利用AI技术处理文案、翻译、图标匹配和TTS语音合成,最终使用manim渲染视频,避免了纯生成式AI被平台限流的问题。小视频宝支持多种模板,用户可以根据需要选择分辨率、帧率、宽高比或屏幕方向,模板将自动适配。此外,它还支持多种语音服务,包括内置的EdgeTTS语音。目前,小视频宝仍处于早期开发阶段,仅提供给三花AI的注册用户。
实时语音交互数字人,支持端到端语音方案
VideoChat是一个实时语音交互数字人项目,支持端到端语音方案(GLM-4-Voice - THG)和级联方案(ASR-LLM-TTS-THG)。用户可以自定义数字人的形象和音色,支持音色克隆,无需训练,首包延迟低至3秒。该项目利用了最新的人工智能技术,包括自动语音识别(ASR)、大型语言模型(LLM)、端到端多模态大型语言模型(MLLM)、文本到语音(TTS)和说话头生成(THG),为用户提供了一个高度定制化和低延迟的交互体验。
云原生企业虚拟化平台,低成本、自主完成元宇宙内容定义与发布。
MetaMaker是一个云原生企业虚拟化平台,它通过提供通用智能数字人、全栈虚拟化技术和云原生创作工具,帮助用户低成本、自主地完成元宇宙内容的定义与发布。该平台的主要优点包括千人千面的个性化数字人、AI驱动的三维重建技术、情感化播报以及在线创作等。MetaMaker的背景信息显示,它是由厦门黑镜科技有限公司开发的,旨在推动数字经济和文化发展,同时提供企业虚拟化转型的全方位解决方案。产品定位于帮助企业提升效率和创新能力,目前尚未提供具体价格信息。
一个实验性的文本到语音模型
OuteTTS是一个使用纯语言建模方法生成语音的实验性文本到语音模型。它的重要性在于能够通过先进的语言模型技术,将文本转换为自然听起来的语音,这对于语音合成、语音助手和自动配音等领域具有重要意义。该模型由OuteAI开发,提供了Hugging Face模型和GGUF模型的支持,并且可以通过接口进行语音克隆等高级功能。
一款通过纯语言模型实现的文本到语音合成模型
OuteTTS-0.1-350M是一款基于纯语言模型的文本到语音合成技术,它不需要外部适配器或复杂架构,通过精心设计的提示和音频标记实现高质量的语音合成。该模型基于LLaMa架构,使用350M参数,展示了直接使用语言模型进行语音合成的潜力。它通过三个步骤处理音频:使用WavTokenizer进行音频标记化、CTC强制对齐创建精确的单词到音频标记映射、以及遵循特定格式的结构化提示创建。OuteTTS的主要优点包括纯语言建模方法、声音克隆能力、与llama.cpp和GGUF格式的兼容性。
语音合成工具,提供高质量的语音生成服务
Fish Speech是一款专注于语音合成的产品,它通过使用先进的深度学习技术,能够将文本转换为自然流畅的语音。该产品支持多种语言,包括中文、英文等,适用于需要文本到语音转换的场景,如语音助手、有声读物制作等。Fish Speech以其高质量的语音输出、易用性和灵活性为主要优点,背景信息显示,该产品不断更新,增加了数据集大小,并改进了量化器的参数,以提供更好的服务。
高效并行音频生成技术
SoundStorm是由Google Research开发的一种音频生成技术,它通过并行生成音频令牌来大幅减少音频合成的时间。这项技术能够生成高质量、与语音和声学条件一致性高的音频,并且可以与文本到语义模型结合,控制说话内容、说话者声音和说话轮次,实现长文本的语音合成和自然对话的生成。SoundStorm的重要性在于它解决了传统自回归音频生成模型在处理长序列时推理速度慢的问题,提高了音频生成的效率和质量。
超轻量级数字人模型,移动端实时运行
Ultralight-Digital-Human是一个超轻量级的数字人模型,可以在移动端实时运行。这个模型是开源的,据开发者所知,它是第一个如此轻量级的开源数字人模型。该模型的主要优点包括轻量级设计,适合移动端部署,以及实时运行的能力。它的背后是深度学习技术,特别是在人脸合成和声音模拟方面的应用,这使得数字人模型能够以较低的资源消耗实现高质量的表现。产品目前是免费的,主要面向技术爱好者和开发者。
与AI伙伴共存,个性化的关怀与乐趣。
GiddyGiddy是一款以人工智能为基础的社交应用,旨在通过超真实的AI伙伴来消除用户的孤独感、焦虑和无聊。这些AI伙伴能够全天候理解和响应用户,提供深度交流和娱乐。产品通过个性化的AI伙伴,打破了传统社交模式,提供了一个充满关怀和吸引力的社交平台。GiddyGiddy的主要优点包括高度个性化的AI伙伴、丰富的互动方式和故事性的内容。产品背景强调了AI伙伴作为日常生活的一部分,提供真正的理解和连接。GiddyGiddy目前提供免费下载,并通过内购提供额外服务。
基于MaskGCT模型的文本到语音演示
MaskGCT TTS Demo 是一个基于MaskGCT模型的文本到语音(TTS)演示,由Hugging Face平台上的amphion提供。该模型利用深度学习技术,将文本转换为自然流畅的语音,适用于多种语言和场景。MaskGCT模型因其高效的语音合成能力和对多种语言的支持而受到关注。它不仅可以提高语音识别和合成的准确性,还能在不同的应用场景中提供个性化的语音服务。目前,该产品在Hugging Face平台上提供免费试用,具体价格和定位信息需进一步了解。
端到端中英语音对话模型
GLM-4-Voice是由清华大学团队开发的端到端语音模型,能够直接理解和生成中英文语音,进行实时语音对话。它通过先进的语音识别和合成技术,实现了语音到文本再到语音的无缝转换,具备低延迟和高智商的对话能力。该模型在语音模态下的智商和合成表现力上进行了优化,适用于需要实时语音交互的场景。
无需对齐信息的零样本文本到语音转换模型
MaskGCT是一个创新的零样本文本到语音转换(TTS)模型,它通过消除显式对齐信息和音素级持续时间预测的需求,解决了自回归和非自回归系统中存在的问题。MaskGCT采用两阶段模型:第一阶段使用文本预测从语音自监督学习(SSL)模型中提取的语义标记;第二阶段,模型根据这些语义标记预测声学标记。MaskGCT遵循掩码和预测的学习范式,在训练期间学习预测基于给定条件和提示的掩码语义或声学标记。在推理期间,模型以并行方式生成指定长度的标记。实验表明,MaskGCT在质量、相似性和可理解性方面超越了当前最先进的零样本TTS系统。
3D头像重建与实时动画生成技术
GAGAvatar是一种基于高斯模型的3D头像重建与动画生成技术,它能够在单张图片的基础上快速生成3D头像,并实现实时的面部表情动画。这项技术的主要优点包括高保真度的3D模型生成、快速的渲染速度以及对未见身份的泛化能力。GAGAvatar通过创新的双提升方法捕捉身份和面部细节,利用全局图像特征和3D可变形模型来控制表情,为数字头像的研究和应用提供了新的基准。
开源数字人课程制作平台
easegen-admin是一个开源的数字人课程制作平台,旨在通过开源为AI发展做出贡献。该平台前端基于Vue3 + element-plus实现,后端基于ruoyi-vue-pro实现,智能课件基于文多多实现。它提供了课程制作页面、我的视频页面、智能课件页面以及智能出题页面,支持视频展示和智能出题,是一个综合性的教育技术产品。
基于深度学习的高质量文本到语音合成模型
F5-TTS是由SWivid团队开发的一个文本到语音合成(TTS)模型,它利用深度学习技术将文本转换为自然流畅、忠实于原文的语音输出。该模型在生成语音时,不仅追求高自然度,还注重语音的清晰度和准确性,适用于需要高质量语音合成的各种应用场景,如语音助手、有声读物制作、自动新闻播报等。F5-TTS模型在Hugging Face平台上发布,用户可以方便地下载和部署,支持多种语言和声音类型,具有很高的灵活性和可扩展性。
将音频流转换为面部表情,实现实时唇形同步和面部表演。
Audio-to-Face 是 NVIDIA NIM 提供的一项技术,能够将音频流实时转换为面部表情,用于唇形同步和面部表演。这项技术主要应用于数字人领域,通过先进的机器学习算法,实现高度逼真的面部动作生成。它不仅能够提升数字人物的自然度和真实感,还能够在游戏、电影制作、虚拟现实等领域提供强大的支持。
数字人模型,支持生成普通话视频
JoyHallo是一个数字人模型,专为普通话视频生成而设计。它通过收集来自京东健康国际有限公司员工的29小时普通话视频,创建了jdh-Hallo数据集。该数据集覆盖了不同年龄和说话风格,包括对话和专业医疗话题。JoyHallo模型采用中国wav2vec2模型进行音频特征嵌入,并提出了一种半解耦结构来捕捉唇部、表情和姿态特征之间的相互关系,提高了信息利用效率,并加快了推理速度14.3%。此外,JoyHallo在生成英语视频方面也表现出色,展现了卓越的跨语言生成能力。
使用Llama模型的语音合成工具
Llama 3.2 3b Voice 是基于Hugging Face平台的一款语音合成模型,能够将文本转换为自然流畅的语音。该模型采用了先进的深度学习技术,能够模仿人类说话的语调、节奏和情感,适用于多种场景,如语音助手、有声读物、自动播报等。
微软亚洲研究院开发的语音合成技术
VALL-E 2 是微软亚洲研究院推出的一款语音合成模型,它通过重复感知采样和分组编码建模技术,大幅提升了语音合成的稳健性与自然度。该模型能够将书面文字转化为自然语音,适用于教育、娱乐、多语言交流等多个领域,为提高无障碍性、增强跨语言交流等方面发挥重要作用。
实时对话式人工智能,一键式API接入。
Deepgram Voice Agent API 是一个统一的语音到语音API,它允许人类和机器之间进行自然听起来的对话。该API由行业领先的语音识别和语音合成模型提供支持,能够自然且实时地听、思考和说话。Deepgram致力于通过其语音代理API推动语音优先AI的未来,通过集成先进的生成AI技术,打造能够进行流畅、类似人类语音代理的业务世界。
引领AI视频、音乐、文本创作新潮流
MiniMax模型矩阵是一套集成了多种AI大模型的产品,包括视频生成、音乐生成、文本生成和语音合成等,旨在通过先进的人工智能技术推动内容创作的革新。这些模型不仅能够提供高分辨率和高帧率的视频生成,还能创作各种风格的音乐,生成高质量的文本内容,以及提供超拟人音色的语音合成。MiniMax模型矩阵代表了AI在内容创作领域的前沿技术,具有高效、创新和多样化的特点,能够满足不同用户在创作上的需求。
全栈式虚拟人多场景应用服务
讯飞虚拟人利用最新的AI虚拟形象技术,结合语音识别、语义理解、语音合成、NLP、星火大模型等AI核心技术,提供虚拟人形象资产构建、AI驱动、多模态交互的多场景虚拟人产品服务。一站式虚拟人音视频内容生产,AIGC助力创作灵活高效;在虚拟'AI演播室'中输入文本或录音,一键完成音、视频作品的输出,3分钟内渲染出稿。
利用AI生成视频脚本、语音和会说话的头像
AI-Faceless-Video-Generator是一个利用人工智能技术,根据话题生成视频脚本、语音和会说话头像的项目。它结合了sadtalker进行面部动画,gTTS生成AI语音和OpenAI语言模型生成脚本,提供了一个端到端的解决方案,用于生成个性化视频。该项目的主要优点包括脚本生成、AI语音生成、面部动画创建以及易于使用的界面。
轻量级端到端文本到语音模型
OptiSpeech是一个高效、轻量级且快速的文本到语音模型,专为设备端文本到语音转换设计。它利用了先进的深度学习技术,能够将文本转换为自然听起来的语音,适合需要在移动设备或嵌入式系统中实现语音合成的应用。OptiSpeech的开发得到了Pneuma Solutions提供的GPU资源支持,显著加速了开发进程。
与AI伙伴一起提升学习与工作效率
Tomo Cafe是一个结合了角色扮演游戏元素的在线学习平台,通过虚拟角色与用户的互动,提供学习动力和责任感。用户可以设定学习目标和专注时间,通过Pomodoro计时器来提高生产力。平台还融入了游戏化元素,完成任务可以获得虚拟货币和物品,增加学习的趣味性。此外,用户可以解锁角色背后的故事,与角色一起成长,让学习过程更加沉浸和有趣。
开源多模态大型语言模型,支持实时语音输入和流式音频输出。
Mini-Omni是一个开源的多模态大型语言模型,能够实现实时的语音输入和流式音频输出的对话能力。它具备实时语音到语音的对话功能,无需额外的ASR或TTS模型。此外,它还可以在思考的同时进行语音输出,支持文本和音频的同时生成。Mini-Omni通过'Audio-to-Text'和'Audio-to-Audio'的批量推理进一步增强性能。
打造有温度的数字人,注入灵魂。
awesome-digital-human-live2d 是一个开源项目,旨在创建具有交互性的数字人物模型。它支持Docker快速部署,集成了Dify服务,支持ASR、LLM、TTS、Agent等模块化扩展,并且可以控制Live2d人物模型。该项目通过模块化设计,简化了数字人的创建过程,使得开发者能够更专注于个性化和创新。
© 2024 AIbase 备案号:闽ICP备08105208号-14