需求人群:
"目标受众为需要在设备上快速部署和运行语言模型的开发者和企业,特别是在需要角色扮演、检索增强问答和功能调用的应用场景中。"
使用场景示例:
在视频游戏中集成模型,以提供角色扮演对话
用于商业用途,如客户服务聊天机器人
在需要快速响应和设备部署的场景中使用
产品特色:
角色扮演响应生成
检索增强生成
功能调用
优化以提高速度和设备部署
支持 4096 个令牌的上下文长度
通过蒸馏、剪枝和量化技术优化
使用教程:
1. 从 Hugging Face 导入 AutoTokenizer 和 AutoModelForCausalLM。
2. 使用 'nvidia/Nemotron-Mini-4B-Instruct' 预训练模型加载 tokenizer 和 model。
3. 使用推荐的 prompt 模板进行消息格式化。
4. 调用 model.generate 函数生成响应。
5. 使用 tokenizer.decode 函数将生成的令牌转换为文本。
6. (可选)使用 pipeline 进行文本生成,但需要手动分配 tokenizer 对象。
浏览量:36
最新流量情况
月访问量
19075.32k
平均访问时长
00:05:32
每次访问页数
5.52
跳出率
45.07%
流量来源
直接访问
48.31%
自然搜索
36.36%
邮件
0.03%
外链引荐
12.17%
社交媒体
3.11%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.13%
印度
7.59%
日本
3.67%
俄罗斯
6.13%
美国
18.18%
用于角色扮演、检索增强生成和功能调用的小型语言模型
Nemotron-Mini-4B-Instruct 是 NVIDIA 开发的一款小型语言模型,通过蒸馏、剪枝和量化优化,以提高速度和便于在设备上部署。它是从 Nemotron-4 15B 通过 NVIDIA 的大型语言模型压缩技术剪枝和蒸馏得到的 nvidia/Minitron-4B-Base 的微调版本。此指令模型针对角色扮演、检索增强问答(RAG QA)和功能调用进行了优化,支持 4096 个令牌的上下文长度,已准备好用于商业用途。
Hermes系列的最新版大型语言模型
Hermes 3是Nous Research公司推出的Hermes系列最新版大型语言模型(LLM),相较于Hermes 2,它在代理能力、角色扮演、推理、多轮对话、长文本连贯性等方面都有显著提升。Hermes系列模型的核心理念是将LLM与用户对齐,赋予终端用户强大的引导能力和控制权。Hermes 3在Hermes 2的基础上,进一步增强了功能调用和结构化输出能力,提升了通用助手能力和代码生成技能。
AI驱动的地下城RPG文字冒险游戏
AI Game Master是一款由AI驱动的地下城RPG文字冒险游戏,玩家可以在游戏中扮演英雄角色,选择剧情,通过文本指令进行战斗,并引导故事发展。这款游戏结合了AI技术,提供了一个无限制的想象空间,让玩家的每个文字输入都能塑造叙事。产品背景信息显示,AI Game Master旨在提供一种新颖的游戏体验,通过AI技术增强游戏的互动性和沉浸感。目前产品提供免费下载,玩家可以通过消耗币与AI互动,币可以通过游戏内机制获得。
AI驱动的桌面角色扮演游戏和世界构建工具
Friends & Fables是一个基于AI的游戏大师Franz的桌面角色扮演游戏(TTRPG)和世界构建游戏平台。它允许玩家体验类似Dungeons & Dragons(D&D)的战役,同时提供世界构建工具,让玩家能够创建和分享他们自己的游戏世界。平台的主要优点包括无需实体游戏材料、自动跟踪游戏进度、支持多人游戏,并且可以随时随地进行游戏。此外,它还提供了丰富的预设世界和战役,降低了新玩家入门的门槛。
高效、轻量级的量化Llama模型,提升移动设备上的运行速度并减少内存占用。
Llama模型是Meta公司推出的大型语言模型,通过量化技术,使得模型体积更小、运行速度更快,同时保持了模型的质量和安全性。这些模型特别适用于移动设备和边缘部署,能够在资源受限的设备上提供快速的设备内推理,同时减少内存占用。量化Llama模型的开发,标志着在移动AI领域的一个重要进步,使得更多的开发者能够在不需要大量计算资源的情况下,构建和部署高质量的AI应用。
小型语言模型调研、测量与洞察
SLM_Survey是一个专注于小型语言模型(SLMs)的研究项目,旨在通过调研和测量,提供对这些模型的深入了解和技术评估。该项目涵盖了基于Transformer的、仅解码器的语言模型,参数范围在100M至5B之间。通过对59个最先进的开源SLMs进行调研,分析了它们的技术创新,并在多个领域评估了它们的能力,包括常识推理、上下文学习、数学和编程。此外,还对它们的运行时成本进行了基准测试,包括推理延迟和内存占用。这些研究对于推动SLMs领域的研究具有重要价值。
构建LLM应用的框架
LlamaIndex.TS是一个为构建基于大型语言模型(LLM)的应用而设计的框架。它专注于帮助用户摄取、结构化和访问私有或特定领域的数据。这个框架提供了一个自然语言界面,用于连接人类和推断出的数据,使得开发者无需成为机器学习或自然语言处理的专家,也能通过LLM增强其软件功能。LlamaIndex.TS支持Node.js、Vercel Edge Functions和Deno等流行运行时环境。
PyTorch原生量化和稀疏性训练与推理库
torchao是PyTorch的一个库,专注于自定义数据类型和优化,支持量化和稀疏化权重、梯度、优化器和激活函数,用于推理和训练。它与torch.compile()和FSDP2兼容,能够为大多数PyTorch模型提供加速。torchao旨在通过量化感知训练(QAT)和后训练量化(PTQ)等技术,提高模型的推理速度和内存效率,同时尽量减小精度损失。
探索无限的AI角色扮演游戏。
Saylo AI是一个AI角色扮演游戏,让你与AI角色互动,探索多样化的戏剧性故事。它利用人工智能技术,提供沉浸式的互动体验,让玩家在虚拟世界中与AI朋友交流,体验不同的故事情节。Saylo AI的背景信息展示了其创新性和娱乐性,旨在为玩家提供一种全新的娱乐方式。目前产品处于推广阶段,价格未明确标注。
FLUX模型的Cog推理引擎
Cog inference for flux models 是一个用于FLUX.1 [schnell] 和 FLUX.1 [dev] 模型的推理引擎,由Black Forest Labs开发。它支持编译与量化,敏感内容检查,以及img2img支持,旨在提高图像生成模型的性能和安全性。
与您的粉丝通过角色直接互动,创造沉浸式故事体验。
DreamRP是一个创新的在线平台,专注于通过角色扮演技术,让创作者与粉丝之间的互动更加直接和沉浸。它支持创作者创建并管理自己的角色,让粉丝能够直接与这些角色进行对话和互动,从而增强粉丝的参与感和忠诚度。DreamRP致力于保护创作者的权益,反对技术剥削,并寻求通过新的商业模式帮助创作者变现其作品。此外,DreamRP还注重环保,使用高效的AI模型,减少能源消耗。
一个提供多种角色体验的互动平台。
Altera PlayLabs是一个在线互动平台,用户可以通过选择不同的角色进行模拟生存体验。该平台通过模拟生存游戏,让用户在虚拟环境中体验生存挑战,增强用户的决策能力和应变能力。产品背景信息显示,该平台拥有多种角色供用户选择,每种角色都有其独特的生存技能和挑战。价格方面,目前平台提供免费体验,但可能包含内购项目。
与文学巨著中的角色对话,让阅读体验生动起来。
Hello Literature 是一款应用程序,它允许用户与文学名著中的角色进行对话。这款应用通过创新的方式,将书籍的世界带入生活,无论是教育工作者、家长、学生还是终身学习者,都能通过这款应用获得前所未有的阅读体验。该应用支持基于项目的沉浸式学习,帮助学生与他们学习的书籍中的角色互动,加深理解和参与度。它使用真实的语音生成技术,使应用更加易于访问和沉浸。
35亿参数的高性能生成模型
C4AI Command R 08-2024是由Cohere和Cohere For AI开发的35亿参数大型语言模型,专为推理、总结和问答等多种用例优化。该模型支持23种语言的训练,并在10种语言中进行了评估,具有高性能的RAG(检索增强生成)能力。它通过监督式微调和偏好训练,以符合人类对有用性和安全性的偏好。此外,该模型还具备对话工具使用能力,能够通过特定的提示模板生成基于工具的响应。
104B参数的多语种高级对话生成模型
C4AI Command R+ 08-2024是一个拥有104B参数的大规模研究发布模型,具备高度先进的能力,包括检索增强生成(RAG)和工具使用,以自动化复杂任务。该模型支持23种语言的训练,并在10种语言中进行评估。它优化了多种用例,包括推理、总结和问答。
一个适合学习、使用、自主扩展的RAG系统。
Easy-RAG是一个检索增强生成(RAG)系统,它不仅适合学习者了解和掌握RAG技术,同时也便于开发者使用和进行自主扩展。该系统通过集成知识图谱提取解析工具、rerank重新排序机制以及faiss向量数据库等技术,提高了检索效率和生成质量。
GGUF量化支持,优化ComfyUI原生模型性能
ComfyUI-GGUF是一个为ComfyUI原生模型提供GGUF量化支持的项目。它允许模型文件以GGUF格式存储,这种格式由llama.cpp推广。尽管常规的UNET模型(conv2d)不适用于量化,但像flux这样的transformer/DiT模型似乎受量化影响较小。这使得它们可以在低端GPU上以更低的每权重变量比特率进行运行。
通过角色扮演进行对话的大型语言模型
Peach-9B-8k-Roleplay是一个经过微调的大型语言模型,专门用于角色扮演对话。它基于01-ai/Yi-1.5-9B模型,通过数据合成方法在超过100K的对话上进行训练。尽管模型参数较小,但可能在34B以下参数的语言模型中表现最佳。
一款专为中英文用户定制的指令式语言模型。
Llama3.1-8B-Chinese-Chat是一个基于Meta-Llama-3.1-8B-Instruct模型的指令式调优语言模型,专为中文和英文用户设计,具有角色扮演和工具使用等多种能力。该模型通过ORPO算法进行微调,显著减少了中文问题用英文回答和回答中中英文混合的问题,特别是在角色扮演、功能调用和数学能力方面有显著提升。
70亿参数的中英双语对话模型
Llama3.1-70B-Chinese-Chat 是基于 Meta-Llama-3.1-70B-Instruct 模型的指令调优语言模型,专为中英双语用户设计,具备角色扮演和工具使用等多样化能力。该模型通过 ORPO 算法进行微调,显著减少了中文问题用英文回答以及回答中中英文混合的问题,特别是在角色扮演、功能调用和数学能力方面有显著提升。
70B参数量的大型语言模型,专为工具使用优化
Llama-3-70B-Tool-Use是一种70B参数量的大型语言模型,专为高级工具使用和功能调用任务设计。该模型在Berkeley功能调用排行榜(BFCL)上的总体准确率达到90.76%,表现优于所有开源的70B语言模型。该模型优化了变换器架构,并通过完整的微调和直接偏好优化(DPO)在Llama 3 70B基础模型上进行了训练。输入为文本,输出为文本,增强了工具使用和功能调用的能力。尽管其主要用途是工具使用和功能调用,但在一般知识或开放式任务中,可能更适用通用语言模型。该模型可能在某些情况下产生不准确或有偏见的内容,用户应注意实现适合其特定用例的适当安全措施。该模型对温度和top_p采样配置非常敏感。
增强型语言工具包
SaltAI Language Toolkit 是一个集成了检索增强生成(RAG)工具 Llama-Index、微软的 AutoGen 和 LlaVA-Next 的项目,通过 ComfyUI 的可适应节点接口,增强了平台的功能和用户体验。该项目于2024年5月9日增加了代理功能。
高效小型语言模型
SmolLM是一系列最新的小型语言模型,包含135M、360M和1.7B参数的版本。这些模型在精心策划的高质量训练语料库上进行训练,能够实现在本地设备上运行,显著降低推理成本并提高用户隐私。SmolLM模型在多种基准测试中表现优异,测试了常识推理和世界知识。
创新AI技术,轻松改变声音。
免费AI在线变声器是一种利用人工智能技术,允许用户上传语音或输入文本,并将其转换成不同声音的工具。它与传统变声器不同,提供更逼真和准确的效果,支持性别声音转换,适用于角色扮演、游戏、内容创作等多种场景。
首个面向中英文用户的指令调优语言模型
Gemma-2-27B-Chinese-Chat是基于google/gemma-2-27b-it的首个指令调优语言模型,专为中英文用户设计,拥有角色扮演和工具使用等多种能力。该模型通过ORPO算法进行微调,显著提升了在中英文对话、角色扮演和数学计算等方面的性能。
实验性的对话AI,与Moshi畅聊吧!
Moshi是一款实验性的对话AI,旨在提供流畅的对话体验。它能够同时进行思考和对话,支持全时听和说,最大可能地提升与用户的交流效率。Moshi支持多种浏览器,但以Chrome浏览器体验最佳。产品由Kyutai团队开发,目前提供欧盟区域的演示服务,根据用户位置,美国区域的演示服务可能提供更低的延迟。
快速易用的LLM推理和服务平台
vLLM是一个为大型语言模型(LLM)推理和提供服务的快速、易用且高效的库。它通过使用最新的服务吞吐量技术、高效的内存管理、连续批处理请求、CUDA/HIP图快速模型执行、量化技术、优化的CUDA内核等,提供了高性能的推理服务。vLLM支持与流行的HuggingFace模型无缝集成,支持多种解码算法,包括并行采样、束搜索等,支持张量并行性,适用于分布式推理,支持流式输出,并兼容OpenAI API服务器。此外,vLLM还支持NVIDIA和AMD GPU,以及实验性的前缀缓存和多lora支持。
© 2024 AIbase 备案号:闽ICP备08105208号-14