需求人群:
["快速开发LLM驱动的应用","构建问答和对话系统","从非结构化文本中提取结构化信息","知识抽取和问答","语义搜索和推荐系统"]
使用场景示例:
与LLM进行直接交互
定义代理、任务并运行
多个代理之间的通信
从文本中提取结构化信息的函数调用示例
产品特色:
支持OpenAI和其他数百个LLM提供商
支持缓存LLM响应
支持向量存储Qdrant和Chroma
支持检索增强生成
支持外部文档接入和引文跟踪
内置函数调用和工具支持
详细的日志和多代理交互跟踪
浏览量:109
最新流量情况
月访问量
4.85m
平均访问时长
00:06:25
每次访问页数
6.08
跳出率
35.86%
流量来源
直接访问
52.62%
自然搜索
32.72%
邮件
0.05%
外链引荐
12.34%
社交媒体
2.17%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.55%
德国
3.84%
印度
9.38%
俄罗斯
4.61%
美国
18.64%
Python机器学习库
scikit-learn是一个简单高效的机器学习库,提供了丰富的机器学习算法和工具,可用于分类、回归、聚类、降维等任务。它基于NumPy、SciPy和matplotlib构建,具有易用性、性能优越以及可重复使用的特点。scikit-learn开源可商用,采用BSD许可证。
Langroid是一个基于Python的轻量级LLM框架
Langroid是一个轻量级、可扩展和原则性的Python框架,可以轻松地构建基于LLM的应用程序。您可以设置代理,为它们配备可选组件(LLM、向量存储和方法),分配它们任务,并让他们通过交换消息协作解决问题。这个多代理范例的灵感来自Actor框架(但您不需要了解任何关于这个的知识!)。Langroid提供了一个全新的LLM应用程序开发方式,在简化开发人员体验方面进行了深思熟虑;它不使用Langchain。我们欢迎贡献--请参阅贡献文档以获取贡献想法。
低代码的python机器学习库
PyCaret是一个开源的、低代码的Python机器学习库,它可以自动化机器学习工作流程。PyCaret 可以让你花费更少的时间编写代码,更多的时间用于分析。PyCaret模块化设计,每个模块封装了特定的机器学习任务。PyCaret中一致的函数集可以在工作流中执行任务。PyCaret中有许多数据预处理功能可供选择,从缩放到特征工程。有大量有趣的教程可以帮助你学习PyCaret,你可以从我们的官方教程开始。PyCaret使机器学习变得简单有趣。
使用简单、原始的 C/CUDA 进行 LLM 训练
karpathy/llm.c 是一个使用简单的 C/CUDA 实现 LLM 训练的项目。它旨在提供一个干净、简单的参考实现,同时也包含了更优化的版本,可以接近 PyTorch 的性能,但代码和依赖大大减少。目前正在开发直接的 CUDA 实现、使用 SIMD 指令优化 CPU 版本以及支持更多现代架构如 Llama2、Gemma 等。
Streamlit是一个开源Python库,用于快速构建数据应用和机器学习产品原型。
Streamlit是一个开源Python库,让数据科学家和机器学习工程师可以快速地在Web浏览器中创建Beautiful,自定义的机器学习应用程序和数据应用程序。无需学习前端Web开发,Streamlit应用可以在几分钟内从简单的脚本构建。Streamlit提供了简单的API来创建各种交互式小部件,如文本、图像、表格、图表、视频等,从而使数据探索和展示变得轻松。它具有内置支持的数据框架,如Pandas、Numpy、Matplotlib等。它兼容大多数Python机器学习库,如Scikit-learn、TensorFlow等。
高效的 Intel GPU 上的 LLM 推理解决方案
这是一种在 Intel GPU 上实现的高效的 LLM 推理解决方案。通过简化 LLM 解码器层、使用分段 KV 缓存策略和自定义的 Scaled-Dot-Product-Attention 内核,该解决方案在 Intel GPU 上相比标准的 HuggingFace 实现可实现高达 7 倍的令牌延迟降低和 27 倍的吞吐量提升。详细功能、优势、定价和定位等信息请参考官方网站。
比较各种大型语言模型(LLM)的定价信息
LLM Pricing是一个聚合并比较各种大型语言模型(LLMs)定价信息的网站,这些模型由官方AI提供商和云服务供应商提供。用户可以在这里找到最适合其项目的语言模型定价。
一个用于Lumina模型的Python包装器
ComfyUI-LuminaWrapper是一个开源的Python包装器,用于简化Lumina模型的加载和使用。它支持自定义节点和工作流,使得开发者能够更便捷地集成Lumina模型到自己的项目中。该插件主要面向希望在Python环境中使用Lumina模型进行深度学习或机器学习的开发者。
为初学者设计的AI Python编程课程
AI Python for Beginners 是由 DeepLearning.AI 提供的在线课程,由全球知名的 AI 领导者 Andrew Ng 亲自授课。课程旨在帮助初学者学习 Python 编程基础,并教授如何将 AI 工具集成到数据操作、分析和可视化中。通过这个课程,学习者可以发现 Python 在商业、市场营销和新闻等领域的应用,解决实际问题并提高效率。课程通过 AI 助手辅助学习,提供即时反馈,解答问题,快速识别并解决编程中的错误,确保学习者在编码过程中得到有效支持。
一个用于LLM预训练的高效网络爬虫工具,专注于高效爬取高质量网页数据。
Crawl4LLM是一个开源的网络爬虫项目,旨在为大型语言模型(LLM)的预训练提供高效的数据爬取解决方案。它通过智能选择和爬取网页数据,帮助研究人员和开发者获取高质量的训练语料。该工具支持多种文档评分方法,能够根据配置灵活调整爬取策略,以满足不同的预训练需求。项目基于Python开发,具有良好的扩展性和易用性,适合在学术研究和工业应用中使用。
一个简单而强大的Python库,用于使用大型语言模型(LLMs)。
promptic是一个轻量级、基于装饰器的Python库,它通过litellm简化了与大型语言模型(LLMs)交互的过程。使用promptic,你可以轻松创建提示,处理输入参数,并从LLMs接收结构化输出,仅需几行代码。
扩展LLM上下文窗口
LLM Context Extender是一款旨在扩展大型语言模型(LLMs)上下文窗口的工具。它通过调整RoPE的基础频率和缩放注意力logits的方式,帮助LLMs有效适应更大的上下文窗口。该工具在精细调整性能和稳健性方面验证了其方法的优越性,并展示了在仅有100个样本和6个训练步骤的情况下,将LLaMA-2-7B-Chat的上下文窗口扩展到16,384的非凡效率。此外,还探讨了数据组成和训练课程如何影响特定下游任务的上下文窗口扩展,建议以长对话进行LLMs的精细调整作为良好的起点。
一个为LLM生成Git提交信息的插件
llm-commit 是一个为 LLM(Large Language Model)设计的插件,用于生成 Git 提交信息。该插件通过分析 Git 的暂存区差异,利用 LLM 的语言生成能力,自动生成简洁且有意义的提交信息。它不仅提高了开发者的提交效率,还确保了提交信息的质量和一致性。该插件适用于任何使用 Git 和 LLM 的开发环境,免费开源,易于安装和使用。
机器学习加速 API
DirectML 是Windows上的机器学习平台API,为硬件供应商提供了一个通用的抽象层来暴露他们的机器学习加速器。它可以与任何兼容DirectX 12的设备一起使用,包括GPU和NPU。通过减少编写机器学习代码的成本,DirectML使得AI功能集成更加容易。
RAG-based LLM agents的Elo排名工具
RAGElo是一个工具集,使用Elo评分系统帮助选择最佳的基于检索增强生成(RAG)的大型语言模型(LLM)代理。随着生成性LLM在生产中的原型设计和整合变得更加容易,评估仍然是解决方案中最具有挑战性的部分。RAGElo通过比较不同RAG管道和提示对多个问题的答案,计算不同设置的排名,提供了一个良好的概览,了解哪些设置有效,哪些无效。
构建LLM应用的开发平台
LLM Spark是一个开发平台,可用于构建基于LLM的应用程序。它提供多个LLM的快速测试、版本控制、可观察性、协作、多个LLM支持等功能。LLM Spark可轻松构建AI聊天机器人、虚拟助手等智能应用程序,并通过与提供商密钥集成,实现卓越性能。它还提供了GPT驱动的模板,加速了各种AI应用程序的创建,同时支持从零开始定制项目。LLM Spark还支持无缝上传数据集,以增强AI应用程序的功能。通过LLM Spark的全面日志和分析,可以比较GPT结果、迭代和部署智能AI应用程序。它还支持多个模型同时测试,保存提示版本和历史记录,轻松协作,以及基于意义而不仅仅是关键字的强大搜索功能。此外,LLM Spark还支持将外部数据集集成到LLM中,并符合GDPR合规要求,确保数据安全和隐私保护。
无限令牌,无限制,成本效益高的LLM推理API平台。
Awan LLM是一个提供无限令牌、无限制、成本效益高的LLM(大型语言模型)推理API平台,专为高级用户和开发者设计。它允许用户无限制地发送和接收令牌,直到模型的上下文限制,并且使用LLM模型时没有任何约束或审查。用户只需按月付费,而无需按令牌付费,这大大降低了成本。Awan LLM拥有自己的数据中心和GPU,因此能够提供这种服务。此外,Awan LLM不记录任何提示或生成内容,保护用户隐私。
基于ComfyUI前端开发的LLM工作流节点集合
ComfyUI LLM Party旨在基于ComfyUI前端开发一套完整的LLM工作流节点集合,使用户能够快速便捷地构建自己的LLM工作流,并轻松地将它们集成到现有的图像工作流中。
端到端开源机器学习平台
TensorFlow是一个端到端开源机器学习平台。它拥有一个全面而灵活的生态系统,其中包含各种工具、库和社区资源,可助力研究人员推动先进机器学习技术的发展。在TensorFlow机器学习框架下,开发者能够轻松地构建和部署由机器学习提供支持的应用。
将GitHub链接转换为适合LLM的格式
GitHub to LLM Converter是一个在线工具,旨在帮助用户将GitHub上的项目、文件或文件夹链接转换成适合大型语言模型(LLM)处理的格式。这一工具对于需要处理大量代码或文档数据的开发者和研究人员来说至关重要,因为它简化了数据准备过程,使得这些数据可以被更高效地用于机器学习或自然语言处理任务。该工具由Skirano开发,提供了一个简洁的用户界面,用户只需输入GitHub链接,即可一键转换,极大地提高了工作效率。
构建和分享令人愉悦的机器学习应用
Gradio是一款友好的Web界面,是演示机器学习模型的最快方法,让任何人都可以在任何地方使用它!Gradio可以无缝地在您的计算机上使用任何Python库。如果您可以编写Python函数,则Gradio可以运行它。Gradio可以嵌入Python笔记本电脑中,也可以作为网页呈现。Gradio界面可以自动生成公共链接,您可以与同事共享该链接,让他们可以从自己的设备远程与您的计算机上的模型交互。一旦您创建了界面,您可以在Hugging Face上永久托管它。Hugging Face Spaces将在其服务器上托管界面,并为您提供一个链接,您可以共享。
玩乐机器学习,成为钢琴大师!
Piano Genie是一个基于机器学习的钢琴模拟器。使用键盘上的数字键或触摸屏上的彩色块来演奏钢琴。按下空格键控制延音踏板。你越像真正的钢琴家一样弹奏,旋律(和你自己)就会越好听。Piano Genie使用magenta.js构建。
基于AI的Python网络爬虫库,自动化提取网页信息。
ScrapeGraphAI是一个使用LLM(大型语言模型)和直接图逻辑来为网站、文档和XML文件创建抓取管道的Python网络爬虫库。用户只需指定想要提取的信息,库就会自动完成这项工作。该库的主要优点在于简化了网络数据抓取的过程,提高了数据提取的效率和准确性。它适用于数据探索和研究目的,但不应被滥用。
简化机器学习模型的训练和部署
Sagify是一个命令行工具,可以在几个简单步骤中训练和部署机器学习/深度学习模型在AWS SageMaker上!它消除了配置云实例进行模型训练的痛苦,简化了在云上运行超参数作业的过程,同时不再需要将模型交给软件工程师进行部署。Sagify提供了丰富的功能,包括AWS账户配置、Docker镜像构建、数据上传、模型训练、模型部署等。它适用于各种使用场景,帮助用户快速构建和部署机器学习模型。
无代码机器学习平台
NextBrain AI是一款无代码机器学习平台,让任何人都能轻松训练机器学习模型并将数据转化为有价值的见解,指导决策。它提供简单有效的分析和宝贵的洞察力,无需编程知识。同时支持Google Sheets插件和Web应用,选择适合您的方式开始训练机器学习模型吧!
苹果芯片高效灵活机器学习
MLX是一种类似NumPy的数组框架,专为在苹果芯片上进行高效灵活的机器学习而设计,由苹果机器学习研究团队提供。Python API与NumPy紧密相似,但也有一些例外。MLX还具有完整的C++ API,紧密遵循Python API。MLX与NumPy的主要区别包括:可组合的函数转换、惰性计算和多设备支持。MLX的设计灵感来自PyTorch、Jax和ArrayFire等框架。与这些框架不同的是,MLX采用统一内存模型。MLX中的数组位于共享内存中,可以在任何受支持的设备类型(CPU、GPU等)上执行操作,而无需执行数据复制。
Fugaku-LLM是一个专注于文本生成的人工智能模型。
Fugaku-LLM是一个由Fugaku-LLM团队开发的人工智能语言模型,专注于文本生成领域。它通过先进的机器学习技术,能够生成流畅、连贯的文本,适用于多种语言和场景。Fugaku-LLM的主要优点包括其高效的文本生成能力、对多种语言的支持以及持续的模型更新,以保持技术领先。该模型在社区中拥有广泛的应用,包括但不限于写作辅助、聊天机器人开发和教育工具。
© 2025 AIbase 备案号:闽ICP备08105208号-14