需求人群:
"AIKit 适合开发者、数据科学家和机器学习工程师,他们需要一个简单、高效且成本效益高的方式来部署和微调大型语言模型。无论是在本地机器上还是在云环境中,AIKit都能提供强大的支持。"
使用场景示例:
使用AIKit快速启动本地机器上的LLMs,无需GPU。
通过AIKit部署Kubernetes上的LLMs,实现自动化部署和管理。
利用AIKit的微调功能,对特定领域的数据进行模型训练。
产品特色:
使用LocalAI进行广泛的推理能力支持,兼容OpenAI API。
提供Unsloth支持的可扩展微调接口。
无需GPU、互联网访问或额外工具,只需Docker即可运行。
最小化的镜像大小,减少漏洞和攻击面。
支持声明式配置,简化推理和微调过程。
支持多模态模型和图像生成。
支持多种模型格式,如GGUF、GPTQ、EXL2、GGML和Mamba。
支持Kubernetes部署,以及NVIDIA GPU加速推理。
支持非专有和自托管的容器注册表来存储模型镜像。
使用教程:
1. 安装Docker以运行AIKit。
2. 从GitHub克隆AIKit仓库或直接使用预构建的Docker镜像。
3. 根据需要配置AIKit的推理和微调参数。
4. 使用Docker命令启动AIKit服务。
5. 通过OpenAI兼容的API客户端发送请求。
6. 根据反馈调整模型配置,优化性能。
7. 如有需要,可以创建自定义模型镜像并部署到容器注册表中。
浏览量:17
最新流量情况
月访问量
4.62m
平均访问时长
00:07:21
每次访问页数
6.60
跳出率
38.26%
流量来源
直接访问
51.51%
自然搜索
29.89%
邮件
0.83%
外链引荐
11.04%
社交媒体
6.68%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
15.78%
中国
14.70%
印度
9.07%
日本
3.91%
德国
3.32%
快速训练和微调大型语言模型
Unsloth 是一个旨在提高大型语言模型(LLMs)训练和微调速度的平台。它通过手动推导所有计算密集型数学步骤并手写GPU内核,实现了无需硬件更改即可显著加快训练速度。Unsloth 支持多种GPU,包括NVIDIA、AMD和Intel,并提供开源版本供用户在Google Colab或Kaggle Notebooks上免费试用。它还提供了不同级别的定价方案,包括免费版、Pro版和企业版,以满足不同用户的需求。
使用大型语言模型进行逆向工程:反编译二进制代码
LLM4Decompile是一个开源项目,旨在创建并发布第一个专门用于反编译的LLM(大型语言模型),并通过构建首个专注于可重编译性和可执行性的反编译基准测试来评估其能力。该项目通过编译大量C代码样本到汇编代码,然后使用这些数据对DeepSeek-Coder模型进行微调,构建了评估基准Decompile-Eval。
集成音乐能力的开源LLM
ChatMusician是一个开源的大型语言模型(LLM),它通过持续的预训练和微调,集成了音乐能力。该模型基于文本兼容的音乐表示法(ABC记谱法),将音乐视为第二语言。ChatMusician能够在不依赖外部多模态神经结构或分词器的情况下,理解和生成音乐。
医学大型语言模型套件
Meditron 是一套开源的医学大型语言模型(LLM)套件。它通过对一份经过综合筛选的医学语料库进行持续预训练,包括选定的 PubMed 论文和摘要、一份新的国际认可的医学指南数据集以及一个通用领域语料库,将 Llama-2 适应到医学领域。Meditron-70B 在相关数据上进行了微调,性能优于 Llama-2-70B、GPT-3.5 和 Flan-PaLM。
芯片设计领域自适应大型语言模型
ChipNeMo 是英伟达发布的一个探索将大型语言模型(LLMs)应用于工业芯片设计的项目。与直接使用现成的商业或开源 LLMs 不同,我们采用了定制的分词器、领域自适应的持续预训练、带有领域特定指令的监督微调(SFT)以及领域适应的检索模型等领域自适应技术。
一个交互式绘图应用,用于数学方程的绘制和计算。
AI Math Notes 是一个开源的交互式绘图应用程序,允许用户在画布上绘制数学方程。应用程序利用多模态大型语言模型(LLM)计算并显示结果。该应用程序使用Python开发,利用Tkinter库创建图形用户界面,使用PIL进行图像处理。灵感来源于Apple在2024年全球开发者大会(WWDC)上展示的'Math Notes'。
开源视觉-语言-动作模型,推动机器人操作技术发展。
OpenVLA是一个具有7亿参数的开源视觉-语言-动作(VLA)模型,通过在Open X-Embodiment数据集上的970k机器人剧集进行预训练。该模型在通用机器人操作策略上设定了新的行业标准,支持开箱即用控制多个机器人,并且可以通过参数高效的微调快速适应新的机器人设置。OpenVLA的检查点和PyTorch训练流程完全开源,模型可以从HuggingFace下载并进行微调。
基于大规模数据的高质量信息抽取模型
雅意信息抽取大模型(YAYI-UIE)由中科闻歌算法团队研发,是一款在百万级人工构造的高质量信息抽取数据上进行指令微调的模型。它能够统一训练信息抽取任务,包括命名实体识别(NER)、关系抽取(RE)和事件抽取(EE),覆盖了通用、安全、金融、生物、医疗、商业等多个场景的结构化抽取。该模型的开源旨在促进中文预训练大模型开源社区的发展,并通过开源共建雅意大模型生态。
开源音频样本和声音设计模型
Stable Audio Open是一个开源的文本到音频模型,专为生成短音频样本、音效和制作元素而优化。它允许用户通过简单的文本提示生成高达47秒的高质量音频数据,特别适用于创造鼓点、乐器即兴演奏、环境声音、拟音录音等音乐制作和声音设计。开源发布的关键好处是用户可以根据自己的自定义音频数据微调模型。
通过强化学习微调大型视觉-语言模型作为决策代理
RL4VLM是一个开源项目,旨在通过强化学习微调大型视觉-语言模型,使其成为能够做出决策的智能代理。该项目由Yuexiang Zhai, Hao Bai, Zipeng Lin, Jiayi Pan, Shengbang Tong, Alane Suhr, Saining Xie, Yann LeCun, Yi Ma, Sergey Levine等研究人员共同开发。它基于LLaVA模型,并采用了PPO算法进行强化学习微调。RL4VLM项目提供了详细的代码库结构、入门指南、许可证信息以及如何引用该研究的说明。
强大的结构化文本生成工具
Outlines是一个用于生成结构化文本的开源库,它支持多种模型集成,如OpenAI、transformers等,并提供了基于Jinja模板引擎的简单而强大的提示原语。它通过多种方式控制语言模型的生成,使输出更加可预测,从而提高模型效率并减少所需的示例数量。Outlines是提高包含大型语言模型的系统可靠性的第一步,通过确保模型输出与用户定义的代码之间有明确定义的接口。
双语开源数学推理大型语言模型。
InternLM-Math-Plus 是一个最新的双语(英文和中文)开源大型语言模型(LLM),专注于数学推理,具有解决、证明、验证和增强数学问题的能力。它在非正式数学推理(如思维链和代码解释)和正式数学推理(如LEAN 4翻译和证明)方面都有显著的性能提升。
开源AI代理平台,专为金融应用设计。
FinRobot是一个开源的AI代理平台,利用大型语言模型(LLMs)为金融应用提供全面的解决方案。它整合了多种AI技术,超越了单纯的语言模型,展现了平台的多功能性和适应性,满足金融行业的多样化需求。FinRobot的AI代理概念是指使用大型语言模型作为其大脑来感知环境、做出决策并执行动作的智能实体。与传统人工智能不同,AI代理具有独立思考和使用工具以逐步实现给定目标的能力。
PygmalionAI是一个开源AI项目,用于聊天、角色扮演、冒险等。
PygmalionAI是一个开源项目,致力于创建用于聊天和角色扮演的大型语言模型。它具有强大的功能和技术,可以为用户提供优质的聊天体验。PygmalionAI的优点包括语言生成的准确性和多样性,以及其可扩展性和自定义性。它可以广泛应用于各种领域,包括娱乐、教育和商业。
开源AI搜索引擎,支持本地或云LLMs。
Farfalle是一个开源的AI驱动搜索引擎,它允许用户运行本地大型语言模型(LLMs)或使用云模型。它是基于Perplexity克隆的,可以与多种技术栈集成,如Next.js前端、FastAPI后端、Tavily搜索API等。它还提供了自定义设置的文档和演示视频,以帮助用户快速开始。
从零开始实现Llama3模型
这是一个开源项目,作者naklecha从零开始实现了Llama3模型,这是一个大型语言模型。项目提供了详细的代码实现,包括模型的各个组成部分,如注意力机制、前馈网络等。通过这个项目,开发者可以深入理解大型语言模型的工作原理,同时也可以在此基础上进行自己的实验和改进。
开源工具包,用于大型语言模型水印技术的研究和应用。
MarkLLM是一个开源工具包,旨在促进大型语言模型(Large Language Models, LLM)中水印技术的研究和应用。随着LLM的广泛使用,确保机器生成文本的真实性和来源变得至关重要。MarkLLM通过提供一个统一的、可扩展的平台,简化了水印技术的访问、理解和评估。它支持多种水印算法,包括KGW家族和EXP家族的算法,并提供了可视化工具和评估模块,帮助研究人员和开发者评估水印技术的可检测性、稳健性和对文本质量的影响。
一个完全开源的大型语言模型,提供先进的自然语言处理能力。
MAP-NEO是一个完全开源的大型语言模型,它包括预训练数据、数据处理管道(Matrix)、预训练脚本和对齐代码。该模型从零开始训练,使用了4.5T的英文和中文token,展现出与LLaMA2 7B相当的性能。MAP-NEO在推理、数学和编码等具有挑战性的任务中表现出色,超越了同等规模的模型。为了研究目的,我们致力于实现LLM训练过程的完全透明度,因此我们全面发布了MAP-NEO,包括最终和中间检查点、自训练的分词器、预训练语料库以及高效稳定的优化预训练代码库。
开源的、专为大型语言模型优化的网页爬虫与抓取工具。
Crawl4AI是一个强大的、免费的网页爬取服务,旨在从网页中提取有用信息,并使其对大型语言模型(LLMs)和AI应用可用。它支持高效的网页爬取,提供对LLM友好的输出格式,如JSON、清理过的HTML和Markdown,支持同时爬取多个URL,并完全免费且开源。
为企业提供开源、灵活的AI模型开发、测试和运行平台。
Red Hat Enterprise Linux AI 是一个基于开源的模型平台,旨在无缝地开发、测试和运行企业级应用的大型语言模型(LLMs)。它结合了开源许可的IBM Granite LLMs、InstructLab模型对齐工具、Red Hat Enterprise Linux的可启动镜像以及Red Hat提供的技术支持和模型知识产权保障。该平台支持跨混合云环境的可移植性,并能与Red Hat OpenShift® AI集成,进一步推进企业AI开发、数据管理和模型治理。
Prompto是一个开源的网络应用程序,旨在使与LLM的交互简单高效。
Prompto是一个开源的网页应用程序,旨在使与大型语言模型(LLMs)的交互简单高效。它可以轻松切换不同的LLMs,通过调整温度设置来调整LLM的创造力和风险水平,提供聊天机器人界面和笔记本界面,可以创建常用提示的模板,并且在浏览器中运行,确保流畅响应的体验。所有设置和聊天记录仅存储在浏览器的本地存储中,保护用户隐私。
用于评估其他语言模型的开源工具集
Prometheus-Eval 是一个用于评估大型语言模型(LLM)在生成任务中表现的开源工具集。它提供了一个简单的接口,使用 Prometheus 模型来评估指令和响应对。Prometheus 2 模型支持直接评估(绝对评分)和成对排名(相对评分),能够模拟人类判断和专有的基于语言模型的评估,解决了公平性、可控性和可负担性的问题。
AI代码查找器,快速找到AI论文的代码实现
AI Code Finder是一个免费的浏览器插件,可以快速找到任何AI研究论文的代码实现。它能够自动在Google、ArXiv、学术搜索引擎、论坛等网站上找到与论文相关的代码链接,并提供CODE按钮供用户点击跳转到开源代码实现。用户还可以创建提醒以获取最新的代码实现、作者的最新工作和最新进展。此插件适用于从事人工智能、数据科学、计算机视觉、语音识别、深度学习和大型语言模型等领域的工程师、研究人员、开发人员和技术领导者。
下一代本地优先的大型语言模型(LLMs)
anime.gf 是由 moecorp 发起的下一代本地优先的大型语言模型(LLMs),目前正处于积极开发阶段。它代表了一种新兴的本地化和开源的人工智能技术,旨在提供更高效、更个性化的用户体验。
一款专为生物医学领域设计的开源大型语言模型
OpenBioLLM-8B是由Saama AI Labs开发的先进开源语言模型,专为生物医学领域设计。该模型在大量高质量的生物医学数据上进行了微调,能够理解并生成具有领域特定准确性和流畅性的文字。它在生物医学基准测试中的表现超越了其他类似规模的开源生物医学语言模型,并与更大的专有和开源模型如GPT-3.5和Meditron-70B相比也展现出更好的结果。
先进的开源生物医学大型语言模型,专为医疗领域设计。
OpenBioLLM-70B是由Saama AI Labs开发的先进开源语言模型,专为生物医学领域设计。该模型在大量高质量的生物医学数据上进行了微调,能够理解和生成具有领域特定准确性和流畅性的文字。它在生物医学基准测试中展示了超越其他类似规模开源生物医学语言模型的优越性能,并且在与更大的专有和开源模型如GPT-4、Gemini、Medtron-70B、Med-PaLM-1和Med-PaLM-2的比较中也展现了更好的结果。
开源的基于深度文档理解的RAG(检索增强生成)引擎
RAGFlow是一个开源的RAG(Retrieval-Augmented Generation)引擎,基于深度文档理解,提供流线型的RAG工作流程,适用于各种规模的企业。它结合了大型语言模型(LLM)提供真实的问答能力,支持从各种复杂格式数据中引用确凿的引文。
扩展LLaVA模型,集成Phi-3和LLaMA-3,提升视觉与语言模型的交互能力。
LLaVA++是一个开源项目,旨在通过集成Phi-3和LLaMA-3模型来扩展LLaVA模型的视觉能力。该项目由Mohamed bin Zayed University of AI (MBZUAI)的研究人员开发,通过结合最新的大型语言模型,增强了模型在遵循指令和学术任务导向数据集上的表现。
结合文本提取、网络分析和大型语言模型提示与总结的端到端系统
GraphRAG (Graphs + Retrieval Augmented Generation) 是一种通过结合文本提取、网络分析以及大型语言模型(LLM)的提示和总结,来丰富理解文本数据集的技术。该技术即将在GitHub上开源,是微软研究项目的一部分,旨在通过先进的算法提升文本数据的处理和分析能力。
© 2024 AIbase 备案号:闽ICP备08105208号-14