需求人群:
"Index-1.9B-Chat模型适合需要生成高质量对话内容的开发者和企业,如聊天机器人开发者、内容创作者等。它可以帮助用户快速生成有趣、自然的对话,提高产品交互性和用户体验。"
使用场景示例:
聊天机器人使用Index-1.9B-Chat生成自然对话,提升用户满意度
内容创作者利用该模型生成对话剧本,丰富作品内容
企业客服系统集成该模型,自动生成回答,提高服务效率
产品特色:
支持多种对话场景的生成,具有高趣味性
基于大量中英文语料进行预训练,具有广泛的语言理解能力
通过SFT和DPO技术进行模型对齐,优化对话生成效果
引入RAG技术实现角色扮演定制,提供个性化对话体验
适配llamacpp和Ollama,具有较好的硬件兼容性
提供详细的技术报告和GitHub资源,方便用户学习和使用
使用教程:
1. 安装必要的Python库,如transformers和PyTorch。
2. 导入AutoTokenizer和pipeline模块。
3. 设置模型路径和设备类型。
4. 使用AutoTokenizer.from_pretrained加载模型的tokenizer。
5. 通过pipeline创建text-generation的pipeline。
6. 准备系统消息和用户查询,构建model_input数组。
7. 使用generator生成对话,设置参数如max_new_tokens、top_k等。
8. 打印生成的对话结果。
浏览量:29
最新流量情况
月访问量
19075.32k
平均访问时长
00:05:32
每次访问页数
5.52
跳出率
45.07%
流量来源
直接访问
48.31%
自然搜索
36.36%
邮件
0.03%
外链引荐
12.17%
社交媒体
3.11%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.13%
印度
7.59%
日本
3.67%
俄罗斯
6.13%
美国
18.18%
基于19亿参数的对话生成模型
Index-1.9B-Chat是一个基于19亿参数的对话生成模型,它通过SFT和DPO对齐技术,结合RAG实现fewshots角色扮演定制,具有较高的对话趣味性和定制性。该模型在2.8T中英文为主的语料上预训练,并且在多个评测基准上表现领先。
通过角色扮演进行对话的大型语言模型
Peach-9B-8k-Roleplay是一个经过微调的大型语言模型,专门用于角色扮演对话。它基于01-ai/Yi-1.5-9B模型,通过数据合成方法在超过100K的对话上进行训练。尽管模型参数较小,但可能在34B以下参数的语言模型中表现最佳。
70亿参数的中英双语对话模型
Llama3.1-70B-Chinese-Chat 是基于 Meta-Llama-3.1-70B-Instruct 模型的指令调优语言模型,专为中英双语用户设计,具备角色扮演和工具使用等多样化能力。该模型通过 ORPO 算法进行微调,显著减少了中文问题用英文回答以及回答中中英文混合的问题,特别是在角色扮演、功能调用和数学能力方面有显著提升。
多功能中文英文对话模型
Gemma-2-9B-Chinese-Chat是一款基于google/gemma-2-9b-it的指令调整型语言模型,专为中英文用户设计,具备角色扮演和工具使用等多种能力。该模型通过ORPO算法进行微调,显著提升了对中文问题的响应准确性,减少了中英文混合使用的问题,并在角色扮演、工具使用和数学计算方面表现出色。
19亿参数规模的角色扮演模型,支持few shots角色定制。
Index-1.9B-Character是由Index团队自主研发的大型语言模型,专注于角色扮演领域,拥有19亿参数规模。该模型支持用户通过上传角色对话语料实现快速的角色定制,具备较高的角色一致性、对话能力和角色扮演吸引力。在CharacterEval权威benchmark评估中,整体均分排名第九,表现优于同量级模型。
专为角色扮演优化的大型语言模型
Higgs-Llama-3-70B是一个基于Meta-Llama-3-70B的后训练模型,特别针对角色扮演进行了优化,同时在通用领域指令执行和推理方面保持竞争力。该模型通过监督式微调,结合人工标注者和私有大型语言模型构建偏好对,进行迭代偏好优化以对齐模型行为,使其更贴近系统消息。与其它指令型模型相比,Higgs模型更紧密地遵循其角色。
开源多模态预训练模型,具备中英双语对话能力。
GLM-4V-9B是智谱AI推出的新一代预训练模型,支持1120*1120高分辨率下的中英双语多轮对话,以及视觉理解能力。在多模态评测中,GLM-4V-9B展现出超越GPT-4-turbo-2024-04-09、Gemini 1.0 Pro、Qwen-VL-Max和Claude 3 Opus的卓越性能。
AI驱动的地下城RPG文字冒险游戏
AI Game Master是一款由AI驱动的地下城RPG文字冒险游戏,玩家可以在游戏中扮演英雄角色,选择剧情,通过文本指令进行战斗,并引导故事发展。这款游戏结合了AI技术,提供了一个无限制的想象空间,让玩家的每个文字输入都能塑造叙事。产品背景信息显示,AI Game Master旨在提供一种新颖的游戏体验,通过AI技术增强游戏的互动性和沉浸感。目前产品提供免费下载,玩家可以通过消耗币与AI互动,币可以通过游戏内机制获得。
开源的32亿参数代码生成语言模型
Qwen2.5-Coder-32B-Instruct-GPTQ-Int4是基于Qwen2.5的代码生成大型语言模型,具有32.5亿参数量,支持长文本处理,最大支持128K tokens。该模型在代码生成、代码推理和代码修复方面有显著提升,是当前开源代码语言模型中的佼佼者。它不仅增强了编码能力,还保持了在数学和通用能力方面的优势。
Qwen2.5-Coder系列中的指令调优0.5B参数代码生成模型
Qwen2.5-Coder是Qwen大型语言模型的最新系列,专注于代码生成、代码推理和代码修复。基于强大的Qwen2.5,通过扩展训练令牌到5.5万亿,包括源代码、文本代码基础、合成数据等,Qwen2.5-Coder-32B已成为当前最先进的开源代码LLM,其编码能力与GPT-4o相匹配。该模型不仅增强了编码能力,还保持了在数学和通用能力方面的优势,为实际应用如代码代理提供了更全面的基础。
Qwen2.5-Coder系列中的3B参数模型,专注于代码生成与理解。
Qwen2.5-Coder-3B是Qwen2.5-Coder系列中的一个大型语言模型,专注于代码生成、推理和修复。基于强大的Qwen2.5,该模型通过增加训练令牌至5.5万亿,包括源代码、文本代码基础、合成数据等,实现了在代码生成、推理和修复方面的显著改进。Qwen2.5-Coder-32B已成为当前最先进的开源代码大型语言模型,其编码能力与GPT-4o相匹配。此外,Qwen2.5-Coder-3B还为现实世界的应用提供了更全面的基础,如代码代理,不仅增强了编码能力,还保持了在数学和通用能力方面的优势。
Qwen2.5-Coder系列技术报告
Qwen2.5-Coder系列是基于Qwen2.5架构的代码特定模型,包括Qwen2.5-Coder-1.5B和Qwen2.5-Coder-7B两个模型。这些模型在超过5.5万亿个token的大规模语料库上继续预训练,并通过精细的数据清洗、可扩展的合成数据生成和平衡的数据混合,展现出令人印象深刻的代码生成能力,同时保持了通用性。Qwen2.5-Coder在包括代码生成、补全、推理和修复在内的多种代码相关任务上取得了超过10个基准测试的最新性能,并且一致性地超越了同等大小的更大模型。该系列的发布不仅推动了代码智能研究的边界,而且通过其许可授权,鼓励开发者在现实世界的应用中更广泛地采用。
Hermes系列的最新版大型语言模型
Hermes 3是Nous Research公司推出的Hermes系列最新版大型语言模型(LLM),相较于Hermes 2,它在代理能力、角色扮演、推理、多轮对话、长文本连贯性等方面都有显著提升。Hermes系列模型的核心理念是将LLM与用户对齐,赋予终端用户强大的引导能力和控制权。Hermes 3在Hermes 2的基础上,进一步增强了功能调用和结构化输出能力,提升了通用助手能力和代码生成技能。
交互式对话AI模型,提供问答和文本生成服务
ChatGPT是由OpenAI训练的对话生成模型,能够以对话形式与人互动,回答后续问题,承认错误,挑战错误的前提,并拒绝不适当的请求。OpenAI日前买下了http://chat.com域名,该域名已经指向了ChatGPT。ChatGPT它是InstructGPT的姊妹模型,后者被训练以遵循提示中的指令并提供详细的回答。ChatGPT代表了自然语言处理技术的最新进展,其重要性在于能够提供更加自然和人性化的交互体验。产品背景信息包括其在2022年11月30日的发布,以及在研究预览期间免费提供给用户使用。
AI驱动的桌面角色扮演游戏和世界构建工具
Friends & Fables是一个基于AI的游戏大师Franz的桌面角色扮演游戏(TTRPG)和世界构建游戏平台。它允许玩家体验类似Dungeons & Dragons(D&D)的战役,同时提供世界构建工具,让玩家能够创建和分享他们自己的游戏世界。平台的主要优点包括无需实体游戏材料、自动跟踪游戏进度、支持多人游戏,并且可以随时随地进行游戏。此外,它还提供了丰富的预设世界和战役,降低了新玩家入门的门槛。
多语言大型语言模型,支持23种语言
Aya Expanse是一个具有高级多语言能力的开放权重研究模型。它专注于将高性能的预训练模型与Cohere For AI一年的研究成果相结合,包括数据套利、多语言偏好训练、安全调整和模型合并。该模型是一个强大的多语言大型语言模型,服务于23种语言,包括阿拉伯语、中文(简体和繁体)、捷克语、荷兰语、英语、法语、德语、希腊语、希伯来语、印地语、印尼语、意大利语、日语、韩语、波斯语、波兰语、葡萄牙语、罗马尼亚语、俄语、西班牙语、土耳其语、乌克兰语和越南语。
端到端中英语音对话模型
GLM-4-Voice是由清华大学团队开发的端到端语音模型,能够直接理解和生成中英文语音,进行实时语音对话。它通过先进的语音识别和合成技术,实现了语音到文本再到语音的无缝转换,具备低延迟和高智商的对话能力。该模型在语音模态下的智商和合成表现力上进行了优化,适用于需要实时语音交互的场景。
一键开启AI,免费解析PPT,与PPT畅所欲言。
ChatPPT是一个利用人工智能技术,帮助用户一键分析PPT并生成对话总结的工具。它通过AI技术简化了PPT内容的理解和交流,使得用户能够更高效地处理演示文稿。该产品的主要优点是能够快速提取PPT中的关键信息,并通过对话形式呈现,使得内容更加通俗易懂。ChatPPT适合需要频繁处理PPT文件的商务人士和教育工作者,它能够显著提高工作效率和学习效率。
探索无限的AI角色扮演游戏。
Saylo AI是一个AI角色扮演游戏,让你与AI角色互动,探索多样化的戏剧性故事。它利用人工智能技术,提供沉浸式的互动体验,让玩家在虚拟世界中与AI朋友交流,体验不同的故事情节。Saylo AI的背景信息展示了其创新性和娱乐性,旨在为玩家提供一种全新的娱乐方式。目前产品处于推广阶段,价格未明确标注。
手写文本识别和字符检测模型
DTLR是一个基于检测的手写文本行识别模型,基于DINO-DETR进行改进,用于文本识别和字符检测。该模型在合成数据上预训练,然后在真实数据集上进行微调。它对于OCR(光学字符识别)领域具有重要意义,特别是在处理手写文本时,能够提高识别的准确性和效率。
与您的粉丝通过角色直接互动,创造沉浸式故事体验。
DreamRP是一个创新的在线平台,专注于通过角色扮演技术,让创作者与粉丝之间的互动更加直接和沉浸。它支持创作者创建并管理自己的角色,让粉丝能够直接与这些角色进行对话和互动,从而增强粉丝的参与感和忠诚度。DreamRP致力于保护创作者的权益,反对技术剥削,并寻求通过新的商业模式帮助创作者变现其作品。此外,DreamRP还注重环保,使用高效的AI模型,减少能源消耗。
用于角色扮演、检索增强生成和功能调用的小型语言模型
Nemotron-Mini-4B-Instruct 是 NVIDIA 开发的一款小型语言模型,通过蒸馏、剪枝和量化优化,以提高速度和便于在设备上部署。它是从 Nemotron-4 15B 通过 NVIDIA 的大型语言模型压缩技术剪枝和蒸馏得到的 nvidia/Minitron-4B-Base 的微调版本。此指令模型针对角色扮演、检索增强问答(RAG QA)和功能调用进行了优化,支持 4096 个令牌的上下文长度,已准备好用于商业用途。
一个提供多种角色体验的互动平台。
Altera PlayLabs是一个在线互动平台,用户可以通过选择不同的角色进行模拟生存体验。该平台通过模拟生存游戏,让用户在虚拟环境中体验生存挑战,增强用户的决策能力和应变能力。产品背景信息显示,该平台拥有多种角色供用户选择,每种角色都有其独特的生存技能和挑战。价格方面,目前平台提供免费体验,但可能包含内购项目。
开源的专家混合语言模型,具有1.3亿活跃参数。
OLMoE是一个完全开放的、最先进的专家混合模型,具有1.3亿活跃参数和6.9亿总参数。该模型的所有数据、代码和日志都已发布。它提供了论文'OLMoE: Open Mixture-of-Experts Language Models'的所有资源概览。该模型在预训练、微调、适应和评估方面都具有重要应用,是自然语言处理领域的一个里程碑。
与文学巨著中的角色对话,让阅读体验生动起来。
Hello Literature 是一款应用程序,它允许用户与文学名著中的角色进行对话。这款应用通过创新的方式,将书籍的世界带入生活,无论是教育工作者、家长、学生还是终身学习者,都能通过这款应用获得前所未有的阅读体验。该应用支持基于项目的沉浸式学习,帮助学生与他们学习的书籍中的角色互动,加深理解和参与度。它使用真实的语音生成技术,使应用更加易于访问和沉浸。
开源时空基础模型,用于交通预测
OpenCity是一个开源的时空基础模型,专注于交通预测领域。该模型通过整合Transformer架构和图神经网络,有效捕捉和标准化交通数据中的复杂时空依赖关系,实现对不同城市环境的零样本泛化。它在大规模、异构的交通数据集上进行预训练,学习到丰富、可泛化的表示,能够无缝应用于多种交通预测场景。
7.8亿参数的双语生成模型
EXAONE-3.0-7.8B-Instruct是LG AI Research开发的一款具有7.8亿参数的双语(英语和韩语)预训练生成模型。模型通过8T的精选token进行预训练,并经过监督式微调和直接偏好优化进行后训练,展现出与同类大小的开放模型相比极具竞争力的基准性能。
一款专为中英文用户定制的指令式语言模型。
Llama3.1-8B-Chinese-Chat是一个基于Meta-Llama-3.1-8B-Instruct模型的指令式调优语言模型,专为中文和英文用户设计,具有角色扮演和工具使用等多种能力。该模型通过ORPO算法进行微调,显著减少了中文问题用英文回答和回答中中英文混合的问题,特别是在角色扮演、功能调用和数学能力方面有显著提升。
© 2024 AIbase 备案号:闽ICP备08105208号-14