ultravox-v0_4_1-llama-3_1-8b

ultravox-v0_4_1-llama-3_1-8b

fixie-ai/ultravox-v0_4_1-llama-3_1-8b是一个基于预训练的Llama3.1-8B-Instruct和whisper-large-v3-turbo的大型语言模型,能够处理语音和文本输入,生成文本输出。该模型通过特殊的<|audio|>伪标记将输入音频转换为嵌入,并生成输出文本。未来版本计划扩展标记词汇以支持生成语义和声学音频标记,进而可以用于声码器产生语音输出。该模型在翻译评估中表现出色,且没有偏好调整,适用于语音代理、语音到语音翻译、语音分析等场景。

需求人群:

"目标受众为需要处理语音和文本数据的开发者和企业,如语音识别、语音翻译、语音分析等领域的专业人士。Ultravox的多模态处理能力和高性能使其成为这些领域的理想选择。"

使用场景示例:

- 作为语音代理,回答用户问题。

- 进行语音到语音的翻译,帮助跨语言沟通。

- 分析语音指令,执行特定任务。

产品特色:

- 多模态输入处理:同时处理语音和文本输入。

- 特殊标记处理:使用<|audio|>标记处理音频输入。

- 文本生成:基于合并的嵌入生成输出文本。

- 语音到语音翻译:适用于不同语言间的语音翻译。

- 语音分析:分析语音内容并生成相关文本。

- 未来支持声学音频标记生成:计划扩展功能以支持声学音频标记生成。

- 知识蒸馏损失训练:通过知识蒸馏损失训练模型以匹配基于文本的Llama骨干网络的logits。

使用教程:

1. 安装必要的库:pip install transformers peft librosa。

2. 导入库:import transformers, numpy as np, librosa。

3. 加载模型:pipe = transformers.pipeline(model='fixie-ai/ultravox-v0_4_1-llama-3_1-8b', trust_remote_code=True)。

4. 加载音频文件:audio, sr = librosa.load(path, sr=16000)。

5. 准备输入:定义系统角色和内容,构建turns列表。

6. 调用模型:pipe({'audio': audio, 'turns': turns, 'sampling_rate': sr}, max_new_tokens=30)。

浏览量:4

s1785318098921236

打开站点

构建AI去赚钱
s1785341518918206
类似产品

© 2024     AIbase    备案号:闽ICP备08105208号-14

隐私政策

用户协议

意见反馈 网站地图