需求人群:
"目标受众为需要进行角色扮演对话的开发者和爱好者,例如游戏开发者、剧本创作者、语言模型研究者等。该产品可以提供丰富的对话生成,帮助他们快速构建对话场景,提高创作效率。"
使用场景示例:
游戏开发者使用该模型快速生成角色对话,丰富游戏剧情。
剧本创作者利用该模型进行角色对话的初步构思。
语言模型研究者使用该模型进行对话生成效果的测试和研究。
产品特色:
文本生成:能够生成符合角色设定的对话文本。
角色扮演:支持用户与AI进行角色扮演对话。
多语言支持:支持中文和英文对话。
模型微调:基于大量对话数据进行微调,优化对话质量。
参数优化:提供温度和top_p参数调整,以控制生成文本的多样性和连贯性。
长对话支持:训练数据支持最长8k的对话长度。
使用教程:
1. 导入必要的库和模块,如torch和transformers。
2. 使用AutoTokenizer和AutoModelForCausalLM加载模型和分词器。
3. 准备对话消息,包括角色和内容,并使用tokenizer进行token化。
4. 设置生成参数,如温度、top_p等,以控制文本生成的特性。
5. 使用model.generate方法生成对话文本。
6. 使用tokenizer.decode方法将生成的文本转换回可读的格式。
浏览量:256
最新流量情况
月访问量
19075.32k
平均访问时长
00:05:32
每次访问页数
5.52
跳出率
45.07%
流量来源
直接访问
48.31%
自然搜索
36.36%
邮件
0.03%
外链引荐
12.17%
社交媒体
3.11%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.13%
印度
7.59%
日本
3.67%
俄罗斯
6.13%
美国
18.18%
通过角色扮演进行对话的大型语言模型
Peach-9B-8k-Roleplay是一个经过微调的大型语言模型,专门用于角色扮演对话。它基于01-ai/Yi-1.5-9B模型,通过数据合成方法在超过100K的对话上进行训练。尽管模型参数较小,但可能在34B以下参数的语言模型中表现最佳。
多功能中文英文对话模型
Gemma-2-9B-Chinese-Chat是一款基于google/gemma-2-9b-it的指令调整型语言模型,专为中英文用户设计,具备角色扮演和工具使用等多种能力。该模型通过ORPO算法进行微调,显著提升了对中文问题的响应准确性,减少了中英文混合使用的问题,并在角色扮演、工具使用和数学计算方面表现出色。
19亿参数规模的角色扮演模型,支持few shots角色定制。
Index-1.9B-Character是由Index团队自主研发的大型语言模型,专注于角色扮演领域,拥有19亿参数规模。该模型支持用户通过上传角色对话语料实现快速的角色定制,具备较高的角色一致性、对话能力和角色扮演吸引力。在CharacterEval权威benchmark评估中,整体均分排名第九,表现优于同量级模型。
一款专为中英文用户定制的指令式语言模型。
Llama3.1-8B-Chinese-Chat是一个基于Meta-Llama-3.1-8B-Instruct模型的指令式调优语言模型,专为中文和英文用户设计,具有角色扮演和工具使用等多种能力。该模型通过ORPO算法进行微调,显著减少了中文问题用英文回答和回答中中英文混合的问题,特别是在角色扮演、功能调用和数学能力方面有显著提升。
70亿参数的中英双语对话模型
Llama3.1-70B-Chinese-Chat 是基于 Meta-Llama-3.1-70B-Instruct 模型的指令调优语言模型,专为中英双语用户设计,具备角色扮演和工具使用等多样化能力。该模型通过 ORPO 算法进行微调,显著减少了中文问题用英文回答以及回答中中英文混合的问题,特别是在角色扮演、功能调用和数学能力方面有显著提升。
多语言对话生成模型
Meta Llama 3.1是一系列预训练和指令调整的多语言大型语言模型(LLMs),支持8种语言,专为对话使用案例优化,并通过监督式微调(SFT)和人类反馈的强化学习(RLHF)来提高安全性和有用性。
首个面向中英文用户的指令调优语言模型
Gemma-2-27B-Chinese-Chat是基于google/gemma-2-27b-it的首个指令调优语言模型,专为中英文用户设计,拥有角色扮演和工具使用等多种能力。该模型通过ORPO算法进行微调,显著提升了在中英文对话、角色扮演和数学计算等方面的性能。
基于19亿参数的对话生成模型
Index-1.9B-Chat是一个基于19亿参数的对话生成模型,它通过SFT和DPO对齐技术,结合RAG实现fewshots角色扮演定制,具有较高的对话趣味性和定制性。该模型在2.8T中英文为主的语料上预训练,并且在多个评测基准上表现领先。
专为角色扮演优化的大型语言模型
Higgs-Llama-3-70B是一个基于Meta-Llama-3-70B的后训练模型,特别针对角色扮演进行了优化,同时在通用领域指令执行和推理方面保持竞争力。该模型通过监督式微调,结合人工标注者和私有大型语言模型构建偏好对,进行迭代偏好优化以对齐模型行为,使其更贴近系统消息。与其它指令型模型相比,Higgs模型更紧密地遵循其角色。
语言智能角色扮演开放世界游戏
LARP是一个语言智能代理框架,用于开放世界游戏中的角色扮演。它包含认知架构、环境交互和角色塑造模块,可以创造独特背景和个性的游戏角色,增强用户与智能体的交互体验。LARP通过精炼交互和连贯的长期记忆,帮助语言模型适应开放世界的复杂性,实现灵活的问题解决。
AI驱动的地下城RPG文字冒险游戏
AI Game Master是一款由AI驱动的地下城RPG文字冒险游戏,玩家可以在游戏中扮演英雄角色,选择剧情,通过文本指令进行战斗,并引导故事发展。这款游戏结合了AI技术,提供了一个无限制的想象空间,让玩家的每个文字输入都能塑造叙事。产品背景信息显示,AI Game Master旨在提供一种新颖的游戏体验,通过AI技术增强游戏的互动性和沉浸感。目前产品提供免费下载,玩家可以通过消耗币与AI互动,币可以通过游戏内机制获得。
专为软件改进设计的开源大型语言模型。
Lingma SWE-GPT是一个开源的大型语言模型,专注于软件工程领域的任务,旨在提供智能化的开发支持。该模型基于Qwen系列基础模型,经过额外训练以增强其在复杂软件工程任务中的能力。它在软件工程智能代理的权威排行榜上表现出色,适合需要自动化软件改进的开发团队和研究人员。
Hermes系列的最新版大型语言模型
Hermes 3是Nous Research公司推出的Hermes系列最新版大型语言模型(LLM),相较于Hermes 2,它在代理能力、角色扮演、推理、多轮对话、长文本连贯性等方面都有显著提升。Hermes系列模型的核心理念是将LLM与用户对齐,赋予终端用户强大的引导能力和控制权。Hermes 3在Hermes 2的基础上,进一步增强了功能调用和结构化输出能力,提升了通用助手能力和代码生成技能。
人类中心语言模型和模拟器的领导者
Nous Research专注于开发以人为中心的语言模型和模拟器,致力于将AI系统与现实世界用户体验对齐。我们的主要研究领域包括模型架构、数据合成、微调和推理。我们优先开发开源、人类兼容的模型,挑战传统的封闭模型方法。
开源的网页自动化库,支持任何大型语言模型(LLM)
browser-use是一个开源的网页自动化库,允许大型语言模型(LLM)与网站进行交互,通过简单的接口实现复杂的网页操作。该技术的主要优点包括对多种语言模型的通用支持、交互元素自动检测、多标签页管理、XPath提取、视觉模型支持等。它解决了传统网页自动化中的一些痛点,如动态内容处理、长任务解决等。browser-use以其灵活性和易用性,为开发者提供了一个强大的工具,以构建更加智能和自动化的网页交互体验。
一款通过纯语言模型实现的文本到语音合成模型
OuteTTS-0.1-350M是一款基于纯语言模型的文本到语音合成技术,它不需要外部适配器或复杂架构,通过精心设计的提示和音频标记实现高质量的语音合成。该模型基于LLaMa架构,使用350M参数,展示了直接使用语言模型进行语音合成的潜力。它通过三个步骤处理音频:使用WavTokenizer进行音频标记化、CTC强制对齐创建精确的单词到音频标记映射、以及遵循特定格式的结构化提示创建。OuteTTS的主要优点包括纯语言建模方法、声音克隆能力、与llama.cpp和GGUF格式的兼容性。
交互式对话AI模型,提供问答和文本生成服务
ChatGPT是由OpenAI训练的对话生成模型,能够以对话形式与人互动,回答后续问题,承认错误,挑战错误的前提,并拒绝不适当的请求。OpenAI日前买下了http://chat.com域名,该域名已经指向了ChatGPT。ChatGPT它是InstructGPT的姊妹模型,后者被训练以遵循提示中的指令并提供详细的回答。ChatGPT代表了自然语言处理技术的最新进展,其重要性在于能够提供更加自然和人性化的交互体验。产品背景信息包括其在2022年11月30日的发布,以及在研究预览期间免费提供给用户使用。
Meta 开发的子十亿参数语言模型,适用于设备端应用。
Meta 开发的自回归语言模型,采用优化架构,适合资源受限设备。优点多,如集成多种技术,支持零样本推理等,价格免费,面向自然语言处理研究人员和开发者。
高效优化的600M参数语言模型,专为设备端应用设计。
MobileLLM-600M是由Meta开发的自回归语言模型,采用了优化的Transformer架构,专为资源受限的设备端应用而设计。该模型集成了SwiGLU激活函数、深度薄架构、嵌入共享和分组查询注意力等关键技术。MobileLLM-600M在零样本常识推理任务上取得了显著的性能提升,与之前的125M/350M SoTA模型相比,分别提高了2.7%/4.3%的准确率。该模型的设计理念可扩展至更大模型,如MobileLLM-1B/1.5B,均取得了SoTA结果。
高效优化的子十亿参数语言模型,专为设备端应用设计
MobileLLM-350M是由Meta开发的自回归语言模型,采用优化的Transformer架构,专为设备端应用设计,以满足资源受限的环境。该模型整合了SwiGLU激活函数、深层薄架构、嵌入共享和分组查询注意力等关键技术,实现了在零样本常识推理任务上的显著准确率提升。MobileLLM-350M在保持较小模型尺寸的同时,提供了与更大模型相媲美的性能,是设备端自然语言处理应用的理想选择。
高效优化的小型语言模型,专为设备端应用设计。
MobileLLM-125M是由Meta开发的自动回归语言模型,它利用优化的变换器架构,专为资源受限的设备端应用而设计。该模型集成了包括SwiGLU激活函数、深度薄架构、嵌入共享和分组查询注意力等多项关键技术。MobileLLM-125M/350M在零样本常识推理任务上相较于前代125M/350M SoTA模型分别取得了2.7%和4.3%的准确率提升。该模型的设计理念可有效扩展到更大模型,MobileLLM-600M/1B/1.5B均取得了SoTA结果。
优化的小型语言模型,适用于移动设备
MobileLLM是一种针对移动设备优化的小型语言模型,专注于设计少于十亿参数的高质量LLMs,以适应移动部署的实用性。与传统观念不同,该研究强调了模型架构在小型LLMs中的重要性。通过深度和薄型架构,结合嵌入共享和分组查询注意力机制,MobileLLM在准确性上取得了显著提升,并提出了一种不增加模型大小且延迟开销小的块级权重共享方法。此外,MobileLLM模型家族在聊天基准测试中显示出与之前小型模型相比的显著改进,并在API调用任务中接近LLaMA-v2 7B的正确性,突出了小型模型在普通设备用例中的能力。
衡量语言模型回答事实性问题能力的基准测试
SimpleQA是OpenAI发布的一个事实性基准测试,旨在衡量语言模型回答简短、寻求事实的问题的能力。它通过提供高正确性、多样性、挑战性和良好的研究者体验的数据集,帮助评估和提升语言模型的准确性和可靠性。这个基准测试对于训练能够产生事实正确响应的模型是一个重要的进步,有助于提高模型的可信度,并拓宽其应用范围。
高质量音频生成框架
AudioLM是由Google Research开发的一个框架,用于高质量音频生成,具有长期一致性。它将输入音频映射到离散标记序列,并将音频生成视为这一表示空间中的语言建模任务。AudioLM通过在大量原始音频波形上训练,学习生成自然且连贯的音频续篇,即使在没有文本或注释的情况下,也能生成语法和语义上合理的语音续篇,同时保持说话者的身份和韵律。此外,AudioLM还能生成连贯的钢琴音乐续篇,尽管它在训练时没有使用任何音乐的符号表示。
AI驱动的桌面角色扮演游戏和世界构建工具
Friends & Fables是一个基于AI的游戏大师Franz的桌面角色扮演游戏(TTRPG)和世界构建游戏平台。它允许玩家体验类似Dungeons & Dragons(D&D)的战役,同时提供世界构建工具,让玩家能够创建和分享他们自己的游戏世界。平台的主要优点包括无需实体游戏材料、自动跟踪游戏进度、支持多人游戏,并且可以随时随地进行游戏。此外,它还提供了丰富的预设世界和战役,降低了新玩家入门的门槛。
利用大型语言模型(LLM)进行创新研究的智能代理
CoI-Agent是一个基于大型语言模型(LLM)的智能代理,旨在通过链式思维(Chain of Ideas)的方式革新研究领域的新想法开发。该模型通过整合和分析大量数据,为研究人员提供创新的思路和研究方向。它的重要性在于能够加速科研进程,提高研究效率,帮助研究人员在复杂的数据中发现新的模式和联系。CoI-Agent由DAMO-NLP-SG团队开发,是一个开源项目,可以免费使用。
多模态语言模型,融合文本和语音
Spirit LM是一个基础多模态语言模型,能够自由混合文本和语音。该模型基于一个7B预训练的文本语言模型,通过持续在文本和语音单元上训练来扩展到语音模式。语音和文本序列被串联为单个令牌流,并使用一个小的自动策划的语音-文本平行语料库,采用词级交错方法进行训练。Spirit LM有两个版本:基础版使用语音音素单元(HuBERT),而表达版除了音素单元外,还使用音高和风格单元来模拟表达性。对于两个版本,文本都使用子词BPE令牌进行编码。该模型不仅展现了文本模型的语义能力,还展现了语音模型的表达能力。此外,我们展示了Spirit LM能够在少量样本的情况下跨模态学习新任务(例如ASR、TTS、语音分类)。
高效能小型语言模型
Zamba2-7B是由Zyphra团队开发的一款小型语言模型,它在7B规模上超越了当前领先的模型,如Mistral、Google的Gemma和Meta的Llama3系列,无论是在质量还是性能上。该模型专为在设备上和消费级GPU上运行以及需要强大但紧凑高效模型的众多企业应用而设计。Zamba2-7B的发布,展示了即使在7B规模上,前沿技术仍然可以被小团队和适度预算所触及和超越。
为复杂企业打造的AI工具
LLMWare.ai是一个为金融、法律、合规和监管密集型行业设计的AI工具,专注于私有云中的小型专业化语言模型和专为SLMs设计的AI框架。它提供了一个集成的、高质量的、组织良好的框架,用于开发AI代理工作流、检索增强生成(RAG)和其他用例的LLM应用程序,包括许多核心对象,以便开发者可以立即开始。
AI在医学领域的初步研究
o1 in Medicine是一个专注于医学领域的人工智能模型,旨在通过先进的语言模型技术,提升医学数据的处理能力和诊断准确性。该模型由UC Santa Cruz、University of Edinburgh和National Institutes of Health的研究人员共同开发,通过在多个医学数据集上的测试,展示了其在医学领域的应用潜力。o1模型的主要优点包括高准确率、多语言支持以及对复杂医学问题的深入理解能力。该模型的开发背景是基于当前医疗领域对于高效、准确的数据处理和分析的需求,尤其是在诊断和治疗建议方面。目前,该模型的研究和应用还处于初步阶段,但其在医学教育和临床实践中的应用前景广阔。
© 2024 AIbase 备案号:闽ICP备08105208号-14