需求人群:
"作为 LLM 训练的参考实现,以及进一步优化和扩展 LLM 模型的基础"
使用场景示例:
使用 karpathy/llm.c 实现了一个基于 GPT-2 的小规模语言模型,并通过优化版本大幅提升了训练速度
在 karpathy/llm.c 的基础上,开发了一个支持 Llama2 架构的 LLM 训练工具
参考 karpathy/llm.c 的代码结构和实现方式,自行开发了一个针对特定应用场景的 LLM 模型
产品特色:
使用简单的 C/CUDA 实现 LLM 训练
提供干净、简单的参考实现
包含更优化的版本,性能接近 PyTorch
支持多种现代 LLM 架构
浏览量:72
最新流量情况
月访问量
467127.54k
平均访问时长
00:07:27
每次访问页数
6.62
跳出率
37.89%
流量来源
直接访问
51.41%
自然搜索
29.45%
邮件
0.92%
外链引荐
11.72%
社交媒体
6.47%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
16.52%
中国
14.70%
印度
9.14%
日本
3.64%
德国
3.30%
构建定制的大型语言模型(LLM)以增强聊天机器人的能力。
ChatRTX 是 NVIDIA 提供的一个用于构建定制大型语言模型(LLM)的平台,旨在提升聊天机器人的智能水平和交互能力。它利用先进的 AI 技术,通过理解自然语言处理(NLP)来提供更加人性化的对话体验。ChatRTX 的主要优点包括高度的可定制性、强大的语言理解能力和高效的交互设计,适合需要高级对话系统的各种商业应用。
一款基于生物医学数据的8亿参数大型语言模型
Llama-3[8B] Meditron V1.0是一款专为生物医学领域设计的8亿参数的大型语言模型(LLM),在Meta发布Llama-3后24小时内完成微调。该模型在MedQA和MedMCQA等标准基准测试中超越了同参数级别的所有现有开放模型,并且接近70B参数级别医学领域领先的开放模型Llama-2[70B]-Meditron的性能。该工作展示了开放基础模型的创新潜力,是确保资源匮乏地区公平参与访问该技术更大倡议的一部分。
在线聊天机器人竞技场,比较不同语言模型的表现。
LMSYS Chatbot Arena 是一个在线平台,旨在通过用户与匿名聊天机器人模型的互动,对大型语言模型(Large Language Models, LLMs)进行基准测试。该平台收集了超过70万次人类投票,计算出LLM的Elo排行榜,以确定谁是聊天机器人领域的冠军。平台提供了一个研究预览,具有有限的安全措施,可能生成不当内容,因此需要用户遵守特定的使用条款。
与多个AI聊天机器人同时对话,发现最佳答案
ChatALL是一款桌面客户端软件,它允许用户同时与多个大型语言模型(LLMs)基础的AI聊天机器人进行对话,帮助用户发现最佳的对话结果。这款软件的主要优点在于其能够并发发送提示给不同的AI机器人,从而快速比较它们在不同任务上的表现,并找到最适合的机器人。产品背景信息显示,ChatALL适合于希望从LLMs中找到最佳答案或创作的专家、研究人员以及LLM应用的开发者。目前,ChatALL是免费提供给用户的。
AI基础设施,适用于每个人,一键部署团队AI助手。
NextChat是一个多功能的AI聊天服务平台,支持与领先的大型语言模型(LLMs)兼容,允许用户轻松部署团队范围内的AI辅助工具。它提供了一个优雅的用户界面,集中管理所有数据,并提供统计追踪团队AI使用情况的功能。此外,它还包括反馈分析工具,帮助用户聆听并分析其受众。NextChat支持OpenAI和Gemini模型,是一个面向所有人的AI基础设施,旨在提供个性化的AI聊天服务。
CoreNet 是一个用于训练深度神经网络的库。
CoreNet 是一个深度神经网络工具包,使研究人员和工程师能够训练标准和新颖的小型和大型规模模型,用于各种任务,包括基础模型(例如 CLIP 和 LLM)、对象分类、对象检测和语义分割。
AI预算优化工具,比较和计算大型语言模型API的最新价格。
LLM Price Check是一个在线工具,它允许用户比较和计算不同大型语言模型(LLM)API的价格,这些API由领先的提供商如OpenAI、Anthropic、Google等提供。该工具可以帮助用户优化他们的AI预算,通过比较不同模型的价格和性能,用户可以做出更明智的选择。
快速训练和微调大型语言模型
Unsloth 是一个旨在提高大型语言模型(LLMs)训练和微调速度的平台。它通过手动推导所有计算密集型数学步骤并手写GPU内核,实现了无需硬件更改即可显著加快训练速度。Unsloth 支持多种GPU,包括NVIDIA、AMD和Intel,并提供开源版本供用户在Google Colab或Kaggle Notebooks上免费试用。它还提供了不同级别的定价方案,包括免费版、Pro版和企业版,以满足不同用户的需求。
开源AI软件工程师
Devika AI是一个开源的AI软件工程师,可以理解高级人类指令,将其分解为步骤,研究相关信息并生成相应代码。它使用Claude 3、GPT 4、GPT 3.5和Local LLMs via Ollama。
强大的多模态LLM,商业解决方案
Reka Core是一个GPT-4级别的多模态大型语言模型(LLM),具备图像、视频和音频的强大上下文理解能力。它是目前市场上仅有的两个商用综合多模态解决方案之一。Core在多模态理解、推理能力、编码和Agent工作流程、多语言支持以及部署灵活性方面表现出色。
将LLM接入Comfy UI的插件
Tara是一款插件,可以将大型语言模型(LLM)接入到Comfy UI中,支持简单的API设置,并集成LLaVa模型。其中包含TaraPrompter节点用于生成精确结果、TaraApiKeyLoader节点管理API密钥、TaraApiKeySaver节点安全保存密钥、TaraDaisyChainNode节点串联输出实现复杂工作流。
斯坦福大学的CS25课程,专注于深度学习模型Transformers
CS25是斯坦福大学提供的一门课程,主要探讨深度学习模型Transformers,该模型在全球范围内产生了巨大影响。课程邀请了Transformers研究领域的前沿人物,讨论从GPT和Gemini等LLM架构到创造性应用(如DALL-E和Sora)在内的最新突破。CS25已经成为斯坦福最热门和最令人兴奋的研讨会课程之一。
通过自然语言描述创建定制软件(基于LLM的多智能体协作)
ChatDev是一个虚拟软件公司,由扮演不同角色(如CEO、产品经理、技术总监、程序员、测试员等)的智能体组成。这些智能体通过参与设计、编码、测试等专门的功能研讨会来协作开发软件。ChatDev旨在提供一个易于使用、高度可定制和可扩展的框架,基于大型语言模型(LLM),是研究集体智能的理想场景。它支持定制化设置,如自定义软件开发流程、角色设置等。用户只需使用自然语言描述想法,ChatDev就能高效生成对应的软件。
深入探索Prompt Engineering的前沿领域,这是一个全面的学习路径
CodeSignal Learn提供的Prompt Engineering for Everyone是一个全面的学习路径,旨在为初学者和经验丰富的实践者介绍有效的提示构建技术,以便与大型语言模型(LLMs)有效协作。通过这个学习旅程,你将掌握影响LLM输出、控制生成文本的格式和大小以及遵循复杂指令的艺术。准备好提升你的技能,创造精确、具有上下文感知的提示,引导AI模型达到预期结果。
使用大型语言模型进行逆向工程:反编译二进制代码
LLM4Decompile是一个开源项目,旨在创建并发布第一个专门用于反编译的LLM(大型语言模型),并通过构建首个专注于可重编译性和可执行性的反编译基准测试来评估其能力。该项目通过编译大量C代码样本到汇编代码,然后使用这些数据对DeepSeek-Coder模型进行微调,构建了评估基准Decompile-Eval。
MovieLLM是一个用于增强长视频理解的AI生成电影框架
MovieLLM由复旦大学和腾讯PCG提出,是一个创新框架,旨在为长视频创建合成的、高质量的数据。该框架利用GPT-4和文本到图像模型的力量,生成详细的脚本和相应的视觉内容。
深入理解语言模型中的标记化过程
KarpathyLLMChallenge是一个教育性质的网站,专注于解释和展示语言模型(LLMs)中标记化的重要性和复杂性。它通过详细的文章和实例,帮助用户理解标记化如何影响语言模型的性能和能力。
基于用户反馈的 LLM 模型对齐技术
C3PO 是一种基于用户反馈的 LLM 模型对齐技术,可以从单个反馈句子中对 LLM 进行调整,避免过度概括化。该技术提供了参考实现、相关基准线和必要组件,方便研究论文中提出的技术。
集成音乐能力的开源LLM
ChatMusician是一个开源的大型语言模型(LLM),它通过持续的预训练和微调,集成了音乐能力。该模型基于文本兼容的音乐表示法(ABC记谱法),将音乐视为第二语言。ChatMusician能够在不依赖外部多模态神经结构或分词器的情况下,理解和生成音乐。
LLM应用开发者平台
LangSmith是一个统一的DevOps平台,用于开发、协作、测试、部署和监控LLM应用程序。它支持LLM应用程序开发生命周期的所有阶段,为构建LLM应用提供端到端的解决方案。主要功能包括:链路追踪、提示工具、数据集、自动评估、线上部署等。适用于构建基于LLM的AI助手、 ChatGPT应用的开发者。
多模态视觉语言模型
MouSi是一种多模态视觉语言模型,旨在解决当前大型视觉语言模型(VLMs)面临的挑战。它采用集成专家技术,将个体视觉编码器的能力进行协同,包括图像文本匹配、OCR、图像分割等。该模型引入融合网络来统一处理来自不同视觉专家的输出,并在图像编码器和预训练LLMs之间弥合差距。此外,MouSi还探索了不同的位置编码方案,以有效解决位置编码浪费和长度限制的问题。实验结果表明,具有多个专家的VLMs表现出比孤立的视觉编码器更出色的性能,并随着整合更多专家而获得显著的性能提升。
深入了解大型语言模型的内部工作
LLMs-from-scratch将带您逐步了解LLMs的工作原理。本书将逐步指导您创建自己的LLM,通过清晰的文本、图表和示例解释每个阶段。所描述的用于教育目的的训练和开发自己的小型但功能齐全模型的方法,与创建ChatGPT等大规模基础模型的方法相似。
将大型语言模型和聊天引入到 Web 浏览器中
Web LLM 是一个模块化、可定制的 JavaScript 包,可直接将语言模型聊天引入到 Web 浏览器中。一切都在浏览器内部运行,无需服务器支持,并且通过 WebGPU 进行加速。它可以为大家构建 AI 助手提供很多有趣的机会,并在享受 GPU 加速时保护隐私。此项目是 MLC LLM 的附属项目,MLC LLM 可以在 iPhone 和其他本地环境中本地运行 LLM。
高效为大型语言模型提供服务
FP6-LLM是一种用于大型语言模型的全新支持方案,通过六位量化(FP6)有效地减小了模型大小,并在各种应用中始终保持模型质量。我们提出了TC-FPx,这是第一个完整的GPU内核设计方案,统一支持各种量化位宽的浮点权重。我们将TC-FPx内核集成到现有推理系统中,为量化的LLM推理提供了全新的端到端支持(称为FP6-LLM),实现了推理成本和模型质量之间更好的权衡。实验证明,FP6-LLM使得使用单个GPU进行LLaMA-70b推理成为可能,实现的规范化推理吞吐量比FP16基准高1.69倍至2.65倍。
零代码检测AI生成文本的工具
Binoculars是一个先进的AI生成文本检测工具,无需训练数据即可零配置使用。它的检测思路非常简单明了:大多数只用decoder的因果语言模型在预训练时使用了大量相同的数据集,例如Common Crawl、Pile等。更多关于该方法及其效果的信息请参阅我们的论文《用双目镜发现LLM: 机器生成文本的零样本检测》。
代码生成优化工具
AlphaCodium是一种基于测试的、多阶段、面向代码的迭代流方法,旨在提高LLMs在代码问题上的性能。它通过优化模型在代码生成任务上的表现,特别适用于竞赛性编程问题。用户可以根据配置选择相应的模型(如“gpt-4”、“gpt-3.5-turbo-16k”等),并使用AlphaCodium解决特定问题或整个数据集。该工具还提供了一系列最佳实践,如YAML结构化输出、语义推理、模块化代码生成等,可广泛适用于其他代码生成任务。
构建GPT-4级别的对话问答模型
ChatQA是一系列对话问答(QA)模型,可以达到GPT-4级别的准确性。我们提出了一种两阶段指导调优方法,可以显著提高大型语言模型(LLMs)的零射击对话QA结果。为了处理对话式QA中的检索,我们在多轮QA数据集上对密集检索器进行微调,这提供了与使用最先进的查询重写模型相当的结果,同时大大降低了部署成本。值得注意的是,我们的ChatQA-70B在10个对话QA数据集的平均得分上可以胜过GPT-4(54.14 vs. 53.90),而不依赖于OpenAI GPT模型的任何合成数据。
语言模型自我奖励训练
本产品是一种自奖励语言模型,通过 LLM 作为裁判,使用模型自身提供的奖励信号进行训练。通过迭代的 DPO 训练,模型不仅可以提高遵循指令的能力,还能提供高质量的自我奖励。经过三次迭代的 Fine-tuning,本产品在 AlpacaEval 2.0 排行榜上超过了许多现有系统,包括 Claude 2、Gemini Pro 和 GPT-4 0613。这项工作虽然只是初步研究,但为模型在两个方面持续改进的可能性打开了大门。
© 2024 AIbase 备案号:闽ICP备2023012347号-1