需求人群:
"评估语言模型的遗忘能力,训练可遗忘的聊天机器人模型。"
使用场景示例:
使用TOFU数据集微调Llama模型,然后在不同规模的遗忘集上遗忘模型,评估遗忘性能。
基于TOFU数据集构建聊天机器人,训练可遗忘的模型,避免机器人记住或泄露敏感信息。
使用TOFU代码库中的遗忘功能,测试不同模型在遗忘特定信息时的性能差异。
产品特色:
提供基准遗忘数据集
支持大型语言模型的遗忘性能评估
采用问答格式,适用于聊天机器人模型
代码库支持多种语言模型
浏览量:29
最新流量情况
月访问量
4.67m
平均访问时长
00:07:27
每次访问页数
6.62
跳出率
37.89%
流量来源
直接访问
51.41%
自然搜索
29.45%
邮件
0.92%
外链引荐
11.72%
社交媒体
6.47%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
16.52%
中国
14.70%
印度
9.14%
日本
3.64%
德国
3.30%
高效极限扩展大语言模型
E^2-LLM是一种高效极限扩展的大语言模型方法,通过仅需一次训练过程和大幅降低的计算成本,实现了对长上下文任务的有效支持。该方法采用了RoPE位置嵌入,并引入了两种不同的增强方法,旨在使模型在推理时更具鲁棒性。在多个基准数据集上的综合实验结果证明了E^2-LLM在挑战性长上下文任务上的有效性。
大型语言模型角色扮演框架
RoleLLM是一个角色扮演框架,用于构建和评估大型语言模型的角色扮演能力。它包括四个阶段:角色概要构建、基于上下文的指令生成、使用GPT进行角色提示和基于角色的指令调整。通过Context-Instruct和RoleGPT,我们创建了RoleBench,这是一个系统化和细粒度的角色级别基准数据集,包含168,093个样本。此外,RoCIT在RoleBench上产生了RoleLLaMA(英语)和RoleGLM(中文),显著提高了角色扮演能力,甚至与使用GPT-4的RoleGPT取得了可比较的结果。
Prompto是一个开源的网络应用程序,旨在使与LLM的交互简单高效。
Prompto是一个开源的网页应用程序,旨在使与大型语言模型(LLMs)的交互简单高效。它可以轻松切换不同的LLMs,通过调整温度设置来调整LLM的创造力和风险水平,提供聊天机器人界面和笔记本界面,可以创建常用提示的模板,并且在浏览器中运行,确保流畅响应的体验。所有设置和聊天记录仅存储在浏览器的本地存储中,保护用户隐私。
在浏览器中尝试Cleanlab的可信任语言模型(TLM)
TLM Playground是Cleanlab的一个工具,用于在浏览器中使用可信任语言模型(TLM)。它提供了一个交互式界面,用户可以输入文本并获得模型生成的响应。TLM是一种基于深度学习的语言模型,它可以用于生成自然语言文本,例如回答问题、翻译、文本摘要等。
一个用于创意写作的大型语言模型,具有出色的写作风格。
Meta-Llama-3-120B-Instruct 是一个基于 Meta-Llama-3-70B-Instruct 通过 MergeKit 自我合并的大型语言模型。它在创意写作方面表现出色,但在其他任务上可能存在挑战。该模型使用 Llama 3 聊天模板,默认上下文窗口为 8K,可以通过绳索theta扩展。模型在生成文本时有时会出现错别字,并且喜欢使用大写字母。
一款高效经济的语言模型,具有强大的专家混合特性。
DeepSeek-V2是一个由236B参数构成的混合专家(MoE)语言模型,它在保持经济训练和高效推理的同时,激活每个token的21B参数。与前代DeepSeek 67B相比,DeepSeek-V2在性能上更强,同时节省了42.5%的训练成本,减少了93.3%的KV缓存,并提升了最大生成吞吐量至5.76倍。该模型在8.1万亿token的高质量语料库上进行了预训练,并通过监督式微调(SFT)和强化学习(RL)进一步优化,使其在标准基准测试和开放式生成评估中表现出色。
低代码生成AI应用程序的生成性AI RAG工具包。
create-tsi是一个生成性AI RAG(Retrieval-Augmented Generation)工具包,用于低代码生成AI应用程序。它利用LlamaIndex和T-Systems在Open Telekom Cloud上托管的大型语言模型(LLMs),简化了AI应用程序的创建过程,使其变得快捷、灵活。用户可以使用create-tsi生成聊天机器人、编写代理并针对特定用例进行定制。
用于评估其他语言模型的开源工具集
Prometheus-Eval 是一个用于评估大型语言模型(LLM)在生成任务中表现的开源工具集。它提供了一个简单的接口,使用 Prometheus 模型来评估指令和响应对。Prometheus 2 模型支持直接评估(绝对评分)和成对排名(相对评分),能够模拟人类判断和专有的基于语言模型的评估,解决了公平性、可控性和可负担性的问题。
一款私人且离线的AI个人知识管理桌面应用
Reor是一个AI驱动的桌面笔记应用,它通过自动链接相关笔记、回答笔记上的问题、提供语义搜索以及生成AI闪卡来增强个人的知识管理。所有数据本地存储,支持类似Obsidian的Markdown编辑器。Reor项目的核心假设是,思考工具的AI模型应默认在本地运行。它利用了Ollama、Transformers.js和LanceDB等技术,使得大型语言模型(LLM)和嵌入模型能够在本地运行。同时,也支持连接到OpenAI或兼容的API,如Oobabooga。
使用ollama Python客户端与ComfyUI工作流集成的大型语言模型(LLM)
ComfyUI Ollama是为ComfyUI工作流设计的自定义节点,它使用ollama Python客户端,允许用户轻松地将大型语言模型(LLM)集成到他们的工作流程中,或者仅仅是进行GPT实验。这个插件的主要优点在于它提供了与Ollama服务器交互的能力,使得用户可以执行图像查询、通过给定的提示查询LLM,以及使用精细调整参数进行LLM查询,同时保持生成链的上下文。
一种通过大型语言模型引导的模拟到现实世界转移策略,用于获取机器人技能。
DrEureka是一个利用大型语言模型(LLMs)自动化和加速模拟到现实(sim-to-real)设计的方法。它通过物理模拟自动构建合适的奖励函数和领域随机化分布,以支持现实世界中的转移。DrEureka在四足机器人运动和灵巧操作任务上展示了与人工设计相媲美的sim-to-real配置,并能够解决如四足机器人在瑜伽球上平衡和行走等新颖任务,无需人工迭代设计。
AI代码查找器,快速找到AI论文的代码实现
AI Code Finder是一个免费的浏览器插件,可以快速找到任何AI研究论文的代码实现。它能够自动在Google、ArXiv、学术搜索引擎、论坛等网站上找到与论文相关的代码链接,并提供CODE按钮供用户点击跳转到开源代码实现。用户还可以创建提醒以获取最新的代码实现、作者的最新工作和最新进展。此插件适用于从事人工智能、数据科学、计算机视觉、语音识别、深度学习和大型语言模型等领域的工程师、研究人员、开发人员和技术领导者。
构建定制的大型语言模型(LLM)以增强聊天机器人的能力。
ChatRTX 是 NVIDIA 提供的一个用于构建定制大型语言模型(LLM)的平台,旨在提升聊天机器人的智能水平和交互能力。它利用先进的 AI 技术,通过理解自然语言处理(NLP)来提供更加人性化的对话体验。ChatRTX 的主要优点包括高度的可定制性、强大的语言理解能力和高效的交互设计,适合需要高级对话系统的各种商业应用。
基于AI的Python网络爬虫库,自动化提取网页信息。
ScrapeGraphAI是一个使用LLM(大型语言模型)和直接图逻辑来为网站、文档和XML文件创建抓取管道的Python网络爬虫库。用户只需指定想要提取的信息,库就会自动完成这项工作。该库的主要优点在于简化了网络数据抓取的过程,提高了数据提取的效率和准确性。它适用于数据探索和研究目的,但不应被滥用。
使用大型语言模型(LLMs)进行数据清洗和整理的Python库。
databonsai是一个Python库,利用大型语言模型(LLMs)执行数据清洗任务。它提供了一系列工具,包括数据分类、转换和提取,以及对LLM输出的验证,支持批量处理以节省令牌,并且具备重试逻辑以处理速率限制和瞬时错误。
一款基于生物医学数据的8亿参数大型语言模型
Llama-3[8B] Meditron V1.0是一款专为生物医学领域设计的8亿参数的大型语言模型(LLM),在Meta发布Llama-3后24小时内完成微调。该模型在MedQA和MedMCQA等标准基准测试中超越了同参数级别的所有现有开放模型,并且接近70B参数级别医学领域领先的开放模型Llama-2[70B]-Meditron的性能。该工作展示了开放基础模型的创新潜力,是确保资源匮乏地区公平参与访问该技术更大倡议的一部分。
创建你自己的AI女友,无过滤的18+对话,满足你在NSFW Character AI中的幻想!
Nextpart AI是一个NSFW AI聊天应用程序,利用大型语言模型实现用户与AI角色之间逼真的互动。它具有AI生成语音和图像的能力,提供无过滤的18+对话。产品背景信息、定位和价格等详细信息请访问网站。
基于GPT-4架构的先进聊天模型,提供高质量的对话体验。
gpt2-chatbot是一个基于GPT-4架构的大型语言模型,由OpenAI训练。它在对话中表现出色,能够提供结构化、有深度的回答,并且在知识存储方面表现出色。该模型在LMSYS的Direct Chat和Arena (Battle)模式中可供使用,允许用户无需登录即可进行交流和评估。
下一代本地优先的大型语言模型(LLMs)
anime.gf 是由 moecorp 发起的下一代本地优先的大型语言模型(LLMs),目前正处于积极开发阶段。它代表了一种新兴的本地化和开源的人工智能技术,旨在提供更高效、更个性化的用户体验。
在线聊天机器人竞技场,比较不同语言模型的表现。
LMSYS Chatbot Arena 是一个在线平台,旨在通过用户与匿名聊天机器人模型的互动,对大型语言模型(Large Language Models, LLMs)进行基准测试。该平台收集了超过70万次人类投票,计算出LLM的Elo排行榜,以确定谁是聊天机器人领域的冠军。平台提供了一个研究预览,具有有限的安全措施,可能生成不当内容,因此需要用户遵守特定的使用条款。
开源代码库,为HuggingChat应用提供动力
chat-ui是一个开源的聊天界面,使用开源模型如OpenAssistant或Llama。它是一个SvelteKit应用程序,为hf.co/chat上的HuggingChat应用提供支持。该产品允许用户通过自定义配置来运行和部署自己的Chat UI实例,支持多种语言模型和功能,如Web搜索、自定义模型等。
一款专为生物医学领域设计的开源大型语言模型
OpenBioLLM-8B是由Saama AI Labs开发的先进开源语言模型,专为生物医学领域设计。该模型在大量高质量的生物医学数据上进行了微调,能够理解并生成具有领域特定准确性和流畅性的文字。它在生物医学基准测试中的表现超越了其他类似规模的开源生物医学语言模型,并与更大的专有和开源模型如GPT-3.5和Meditron-70B相比也展现出更好的结果。
先进的开源生物医学大型语言模型,专为医疗领域设计。
OpenBioLLM-70B是由Saama AI Labs开发的先进开源语言模型,专为生物医学领域设计。该模型在大量高质量的生物医学数据上进行了微调,能够理解和生成具有领域特定准确性和流畅性的文字。它在生物医学基准测试中展示了超越其他类似规模开源生物医学语言模型的优越性能,并且在与更大的专有和开源模型如GPT-4、Gemini、Medtron-70B、Med-PaLM-1和Med-PaLM-2的比较中也展现了更好的结果。
与多个AI聊天机器人同时对话,发现最佳答案
ChatALL是一款桌面客户端软件,它允许用户同时与多个大型语言模型(LLMs)基础的AI聊天机器人进行对话,帮助用户发现最佳的对话结果。这款软件的主要优点在于其能够并发发送提示给不同的AI机器人,从而快速比较它们在不同任务上的表现,并找到最适合的机器人。产品背景信息显示,ChatALL适合于希望从LLMs中找到最佳答案或创作的专家、研究人员以及LLM应用的开发者。目前,ChatALL是免费提供给用户的。
AI基础设施,适用于每个人,一键部署团队AI助手。
NextChat是一个多功能的AI聊天服务平台,支持与领先的大型语言模型(LLMs)兼容,允许用户轻松部署团队范围内的AI辅助工具。它提供了一个优雅的用户界面,集中管理所有数据,并提供统计追踪团队AI使用情况的功能。此外,它还包括反馈分析工具,帮助用户聆听并分析其受众。NextChat支持OpenAI和Gemini模型,是一个面向所有人的AI基础设施,旨在提供个性化的AI聊天服务。
开源的基于深度文档理解的RAG(检索增强生成)引擎
RAGFlow是一个开源的RAG(Retrieval-Augmented Generation)引擎,基于深度文档理解,提供流线型的RAG工作流程,适用于各种规模的企业。它结合了大型语言模型(LLM)提供真实的问答能力,支持从各种复杂格式数据中引用确凿的引文。
扩展LLaVA模型,集成Phi-3和LLaMA-3,提升视觉与语言模型的交互能力。
LLaVA++是一个开源项目,旨在通过集成Phi-3和LLaMA-3模型来扩展LLaVA模型的视觉能力。该项目由Mohamed bin Zayed University of AI (MBZUAI)的研究人员开发,通过结合最新的大型语言模型,增强了模型在遵循指令和学术任务导向数据集上的表现。
一款由Gradient AI团队开发的高性能文本生成模型。
Llama-3 8B Instruct 262k是一款由Gradient AI团队开发的文本生成模型,它扩展了LLama-3 8B的上下文长度至超过160K,展示了SOTA(State of the Art)大型语言模型在学习长文本操作时的潜力。该模型通过适当的调整RoPE theta参数,并结合NTK-aware插值和数据驱动的优化技术,实现了在长文本上的高效学习。此外,它还基于EasyContext Blockwise RingAttention库构建,以支持在高性能硬件上的可扩展和高效训练。
© 2024 AIbase 备案号:闽ICP备2023012347号-1