需求人群:
"Praison AI 适合需要快速构建和管理复杂多代理系统的开发者和企业。它特别适合那些希望简化大型语言模型应用开发和部署的团队。通过 Praison AI,用户可以轻松定制和扩展他们的代理系统,实现高效的自动化任务处理。"
使用场景示例:
创建一个电影剧本,主题为月球上的狗。
进行深入研究,准备关于最新 AI 新闻的详细报告。
开发一个完整的剧本,主题为火星上的猫。
产品特色:
通过命令行安装和初始化 Praison AI。
使用预定义的代理框架(如 AutoGen 或 CrewAI)创建和管理多代理系统。
通过用户界面与代理进行交互,包括多代理界面和单一 AI 代理聊天界面。
创建自定义工具,扩展 Praison AI 的功能。
支持多种语言模型,提供灵活的模型选择和使用。
通过 YAML 文件配置代理角色和任务,实现任务的自动化执行。
支持多种安装依赖的方式,方便开发者根据需要安装。
使用教程:
1. 使用 pip 安装 Praison AI:`pip install praisonai`。
2. 初始化 Praison AI 并创建代理文件:`praisonai --init create a movie script about dog in moon`。
3. 运行 Praison AI:`praisonai` 或 `python -m praisonai`。
4. 指定代理框架(可选):`praisonai --framework autogen`。
5. 使用用户界面与代理进行交互:`praisonai ui` 或 `python -m praisonai ui`。
6. 创建自定义工具并添加到代理文件:创建 `tools.py` 文件并添加工具类,然后在 `agents.yaml` 文件中添加工具。
7. 运行自定义工具:通过命令行或用户界面调用自定义工具,执行相关任务。
浏览量:46
最新流量情况
月访问量
4.75m
平均访问时长
00:06:34
每次访问页数
6.10
跳出率
36.20%
流量来源
直接访问
52.19%
自然搜索
32.64%
邮件
0.04%
外链引荐
12.93%
社交媒体
2.02%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
14.32%
德国
3.68%
印度
9.04%
俄罗斯
3.92%
美国
19.25%
低代码多代理系统框架
Praison AI 是一个低代码的集中式框架,旨在简化各种大型语言模型(LLM)应用的多代理系统的创建和编排。它强调易用性、可定制性和人机交互。Praison AI 利用 AutoGen 和 CrewAI 或其他代理框架,通过预定义的角色和任务来实现复杂的自动化任务。用户可以通过命令行界面或用户界面与代理进行交互,创建自定义工具,并通过多种方式扩展其功能。
一个用于集成不同框架AI代理的通用平台,支持实时通信和人类监督。
Mahilo是一个强大的AI代理集成平台,旨在将来自不同框架的AI代理连接在一起,实现实时通信和人类监督。它通过提供框架无关的通信协议,支持多种流行的代理框架,如LangGraph、Pydantic AI等,同时允许通过API连接专有代理。该平台强调智能协作、组织级策略管理和以人类为中心的设计,确保在自动化的同时保持人类的控制权。Mahilo的出现为构建复杂的多代理系统提供了灵活的解决方案,适用于从内容创作到紧急响应等多种应用场景。目前,Mahilo在GitHub上拥有251颗星,每月PyPI下载量超过500次,显示出其在开发者社区中的受欢迎程度。Mahilo主要面向开发者和企业用户,帮助他们快速构建和部署多代理系统,提升工作效率和创新能力。
通过强化学习提升大型语言模型在开源软件演变中的推理能力
SWE-RL 是由 Facebook Research 提出的一种基于强化学习的大型语言模型推理技术,旨在利用开源软件演变数据提升模型在软件工程任务中的表现。该技术通过规则驱动的奖励机制,优化模型的推理能力,使其能够更好地理解和生成高质量的代码。SWE-RL 的主要优点在于其创新性的强化学习方法和对开源数据的有效利用,为软件工程领域带来了新的可能性。该技术目前处于研究阶段,尚未明确商业化定价,但其在提升开发效率和代码质量方面具有显著潜力。
Langflow 是一个低代码 AI 构建工具,用于快速开发强大的 AI 代理和工作流。
Langflow 是一款面向开发者的低代码工具,专注于简化 AI 代理和工作流的构建过程。它允许开发者通过可视化界面快速搭建复杂的 AI 应用,支持多种 API、模型和数据库的集成。该工具通过提供丰富的预构建组件和可定制化选项,帮助开发者专注于创意而非复杂的代码实现。Langflow 提供免费试用,并支持在云平台部署,适合从个人开发者到企业团队的广泛用户。
探索大型语言模型作为编程辅导工具的潜力,提出Trace-and-Verify工作流。
Coding-Tutor是一个基于大型语言模型(LLM)的编程辅导工具,旨在通过对话式交互帮助学习者提升编程能力。它通过Trace-and-Verify(Traver)工作流,结合知识追踪和逐轮验证,解决编程辅导中的关键挑战。该工具不仅适用于编程教育,还可扩展到其他任务辅导场景,帮助根据学习者的知识水平调整教学内容。项目开源,支持社区贡献。
Goedel-Prover 是一款开源的自动化定理证明模型,专注于数学问题的形式化证明。
Goedel-Prover 是一款专注于自动化定理证明的开源大型语言模型。它通过将自然语言数学问题翻译为形式化语言(如 Lean 4),并生成形式化证明,显著提升了数学问题的自动化证明效率。该模型在 miniF2F 基准测试中达到了 57.6% 的成功率,超越了其他开源模型。其主要优点包括高性能、开源可扩展性以及对数学问题的深度理解能力。Goedel-Prover 旨在推动自动化定理证明技术的发展,并为数学研究和教育提供强大的工具支持。
OmniParser 是一款通用屏幕解析工具,可将 UI 截图转换为结构化格式,提升基于 LLM 的 UI 代理性能。
OmniParser 是微软开发的一种先进的图像解析技术,旨在将不规则的屏幕截图转换为结构化的元素列表,包括可交互区域的位置和图标的功能描述。它通过深度学习模型,如 YOLOv8 和 Florence-2,实现了对 UI 界面的高效解析。该技术的主要优点在于其高效性、准确性和广泛的适用性。OmniParser 可以显著提高基于大型语言模型(LLM)的 UI 代理的性能,使其能够更好地理解和操作各种用户界面。它在多种应用场景中表现出色,如自动化测试、智能助手开发等。OmniParser 的开源特性和灵活的许可证使其成为开发者和研究人员的有力工具。
ToolJet 是一个 AI 原生平台,用于快速构建内部工具,支持低代码开发和 AI 驱动的应用程序创建。
ToolJet 是一款面向企业的 AI 原生开发平台,旨在通过低代码和自然语言处理技术,帮助企业快速构建和部署内部应用程序。其核心优势在于能够显著降低开发门槛和时间成本,同时提供强大的 AI 驱动功能,支持与多种数据库、API 和第三方服务的无缝集成。ToolJet 适用于需要高效开发和灵活迭代的企业,支持自托管部署,满足企业级安全和合规要求。
Codev 是一个将文本描述转换为全栈 Next.js 网络应用的人工智能平台。
Codev 是一个强大的 AI 驱动的开发平台,它能够将自然语言描述快速转化为功能完备的全栈 Next.js 网络应用。其核心优势在于极大地缩短了从创意到产品落地的时间,降低了开发门槛,即使是非开发者也能轻松上手。该平台背后有强大的技术支持,如 Next.js 框架和 Supabase 数据库,确保生成的应用具有良好的性能和可扩展性。它主要面向开发者和创意者,帮助他们快速实现想法,目前处于免费阶段,旨在吸引用户并拓展社区。
Mistral Small 24B 是一款多语言、高性能的指令微调型大型语言模型,适用于多种应用场景。
Mistral Small 24B 是一款由 Mistral AI 团队开发的大型语言模型,拥有 240 亿参数,支持多语言对话和指令处理。该模型通过指令微调,能够生成高质量的文本内容,适用于聊天、写作、编程辅助等多种场景。其主要优点包括强大的语言生成能力、多语言支持以及高效推理能力。该模型适合需要高性能语言处理的个人和企业用户,具有开源许可,支持本地部署和量化优化,适合对数据隐私有要求的场景。
DeepSeek-R1-Distill-Llama-70B 是一款基于强化学习优化的大型语言模型,专注于推理和对话能力。
DeepSeek-R1-Distill-Llama-70B 是由 DeepSeek 团队开发的一款大型语言模型,基于 Llama-70B 架构并通过强化学习进行优化。该模型在推理、对话和多语言任务中表现出色,支持多种应用场景,包括代码生成、数学推理和自然语言处理。其主要优点是高效的推理能力和对复杂问题的解决能力,同时支持开源和商业使用。该模型适用于需要高性能语言生成和推理能力的企业和研究机构。
这是一个先进的多模态大型语言模型系列,展示了卓越的整体性能。
InternVL2.5-MPO是一个基于InternVL2.5和混合偏好优化(MPO)的多模态大型语言模型系列。它在多模态任务中表现出色,通过整合新近增量预训练的InternViT与多种预训练的大型语言模型(LLMs),如InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。该模型系列在多模态推理偏好数据集MMPR上进行了训练,包含约300万个样本,通过有效的数据构建流程和混合偏好优化技术,提升了模型的推理能力和回答质量。
微软研究院的AutoGen v0.4,重新构想代理型AI的基础,提升可扩展性、鲁棒性和可伸缩性。
AutoGen v0.4是微软研究院推出的一款代理型AI模型,旨在通过其异步、事件驱动的架构,改善代码质量、鲁棒性、通用性和可伸缩性。该模型通过社区反馈进行了全面重构,以支持更广泛的代理场景,包括多代理协作、分布式计算和跨语言支持等。AutoGen v0.4的发布为代理型AI应用和研究奠定了坚实基础,推动了AI技术在多个领域的应用和发展。
一个实时适应未见任务的自适应大型语言模型框架。
SakanaAI/self-adaptive-llms是一个名为Transformer²的自适应框架,旨在解决传统微调方法计算密集且处理多样化任务能力静态的挑战。该框架能够在推理过程中通过两步机制实时调整大型语言模型(LLMs)以适应未见任务:首先,调度系统识别任务属性;然后,使用强化学习训练的任务特定'专家'向量被动态混合,以获得针对输入提示的目标行为。主要优点包括实时任务适应性、计算效率和灵活性。该项目由SakanaAI团队开发,目前在GitHub上开源,拥有195颗星和12次分叉。
InternLM3-8B-Instruct是一个开源的80亿参数指令模型,用于通用用途和高级推理。
InternLM3-8B-Instruct是InternLM团队开发的大型语言模型,具有卓越的推理能力和知识密集型任务处理能力。该模型在仅使用4万亿高质量词元进行训练的情况下,实现了比同级别模型低75%以上的训练成本,同时在多个基准测试中超越了Llama3.1-8B和Qwen2.5-7B等模型。它支持深度思考模式,能够通过长思维链解决复杂的推理任务,同时也具备流畅的用户交互能力。该模型基于Apache-2.0许可证开源,适用于需要高效推理和知识处理的各种应用场景。
MinMo是一款多模态大型语言模型,用于无缝语音交互。
MinMo是阿里巴巴集团通义实验室开发的一款多模态大型语言模型,拥有约80亿参数,专注于实现无缝语音交互。它通过多个阶段的训练,包括语音到文本对齐、文本到语音对齐、语音到语音对齐和全双工交互对齐,在140万小时的多样化语音数据和广泛的语音任务上进行训练。MinMo在语音理解和生成的各种基准测试中达到了最先进的性能,同时保持了文本大型语言模型的能力,并支持全双工对话,即用户和系统之间的同时双向通信。此外,MinMo还提出了一种新颖且简单的语音解码器,在语音生成方面超越了以往的模型。MinMo的指令遵循能力得到了增强,支持根据用户指令控制语音生成,包括情感、方言和语速等细节,并模仿特定的声音。MinMo的语音到文本延迟约为100毫秒,全双工延迟理论上约为600毫秒,实际约为800毫秒。MinMo的开发旨在克服以往对齐多模态模型的主要限制,为用户提供更自然、流畅和人性化的语音交互体验。
基于Qwen2.5-Coder系列的大型语言模型,专注于代理应用。
Dria-Agent-a-3B是一个基于Qwen2.5-Coder系列的大型语言模型,专注于代理应用。它采用Pythonic函数调用方式,具有单次并行多函数调用、自由形式推理和动作以及即时复杂解决方案生成等优势。该模型在多个基准测试中表现出色,如Berkeley Function Calling Leaderboard (BFCL)、MMLU-Pro和Dria-Pythonic-Agent-Benchmark (DPAB)。模型大小为3.09B参数,支持BF16张量类型。
一个基于Qwen2.5-Coder系列训练的大型语言模型,专注于代理应用。
Dria-Agent-a-7B是一个基于Qwen2.5-Coder系列训练的大型语言模型,专注于代理应用。它采用Pythonic函数调用方式,与传统JSON函数调用方法相比,具有单次并行多函数调用、自由形式推理和动作以及即时复杂解决方案生成等优势。该模型在多个基准测试中表现出色,包括Berkeley Function Calling Leaderboard (BFCL)、MMLU-Pro和Dria-Pythonic-Agent-Benchmark (DPAB)。模型大小为76.2亿参数,采用BF16张量类型,支持文本生成任务。其主要优点包括强大的编程辅助能力、高效的函数调用方式以及在特定领域的高准确率。该模型适用于需要复杂逻辑处理和多步骤任务执行的应用场景,如自动化编程、智能代理等。目前,该模型在Hugging Face平台上提供,供用户免费使用。
Dria-Agent-α是基于Python的大型语言模型工具交互框架。
Dria-Agent-α是Hugging Face推出的大型语言模型(LLM)工具交互框架。它通过Python代码来调用工具,与传统的JSON模式相比,能更充分地发挥LLM的推理能力,使模型能够以更接近人类自然语言的方式进行复杂问题的解决。该框架利用Python的流行性和接近伪代码的语法,使LLM在代理场景中表现更佳。Dria-Agent-α的开发使用了合成数据生成工具Dria,通过多阶段管道生成逼真的场景,训练模型进行复杂问题解决。目前已有Dria-Agent-α-3B和Dria-Agent-α-7B两个模型在Hugging Face上发布。
基于特定模型的量化大型语言模型,适用于自然语言处理等任务。
该模型是量化版大型语言模型,采用4位量化技术,降低存储与计算需求,适用于自然语言处理,参数量8.03B,免费且可用于非商业用途,适合资源受限环境下高性能语言应用需求者。
InternVL2.5-MPO系列模型,基于InternVL2.5和混合偏好优化,展现卓越性能。
InternVL2.5-MPO是一个先进的多模态大型语言模型系列,基于InternVL2.5和混合偏好优化(MPO)构建。该系列模型在多模态任务中表现出色,能够处理图像、文本和视频数据,并生成高质量的文本响应。模型采用'ViT-MLP-LLM'范式,通过像素unshuffle操作和动态分辨率策略优化视觉处理能力。此外,模型还引入了多图像和视频数据的支持,进一步扩展了其应用场景。InternVL2.5-MPO在多模态能力评估中超越了多个基准模型,证明了其在多模态领域的领先地位。
Agent Laboratory是一个端到端的自主研究工作流,旨在协助人类研究人员实施研究想法。
Agent Laboratory是一个由Samuel Schmidgall等人开发的项目,旨在通过大型语言模型驱动的专门代理,帮助研究人员完成从文献综述到实验执行再到报告撰写的整个研究流程。它不是为了取代人类的创造力,而是为了补充创造力,使研究人员能够专注于构思和批判性思维,同时自动化编码和文档等重复性和耗时的任务。该工具的源代码采用MIT许可证,允许在遵守MIT许可证条款的情况下使用、修改和分发代码。
先进的多模态大型语言模型,具备卓越的多模态推理能力。
InternVL2_5-26B-MPO-AWQ 是由 OpenGVLab 开发的多模态大型语言模型,旨在通过混合偏好优化提升模型的推理能力。该模型在多模态任务中表现出色,能够处理图像和文本之间的复杂关系。它采用了先进的模型架构和优化技术,使其在多模态数据处理方面具有显著优势。该模型适用于需要高效处理和理解多模态数据的场景,如图像描述生成、多模态问答等。其主要优点包括强大的推理能力和高效的模型架构。
AnyParser Pro 是一款能够快速准确地从 PDF、PPT 和图像中提取内容的大型语言模型。
AnyParser Pro 是由 CambioML 开发的一款创新的文档解析工具,它利用大型语言模型(LLM)技术,能够快速准确地从 PDF、PPT 和图像文件中提取出完整的文本内容。该技术的主要优点在于其高效的处理速度和高精度的解析能力,能够显著提高文档处理的效率。AnyParser Pro 的背景信息显示,它是由 Y Combinator 孵化的初创公司 CambioML 推出的,旨在为用户提供一种简单易用且功能强大的文档解析解决方案。目前,该产品提供免费试用,用户可以通过获取 API 密钥来访问其功能。
利用AutoGen技术,通过AI代理协作生成整本书的实验项目
ai-book-writer是一个基于Python的系统,使用AutoGen框架通过多个专门的AI代理协作生成完整的书籍。该系统能够从初始提示开始,创建连贯、结构化的叙述,具有自动构建世界观和管理设置的能力。其主要优点包括多代理协作写作、保持故事连贯性和角色发展、支持复杂多章节叙事等。该项目由adamwlarson创建,旨在探索AI在文学创作中的潜力。
Sonus-1:开启大型语言模型(LLMs)的新时代
Sonus-1是Sonus AI推出的一系列大型语言模型(LLMs),旨在推动人工智能的边界。这些模型以其高性能和多应用场景的多功能性而设计,包括Sonus-1 Mini、Sonus-1 Air、Sonus-1 Pro和Sonus-1 Pro (w/ Reasoning)等不同版本,以满足不同需求。Sonus-1 Pro (w/ Reasoning)在多个基准测试中表现突出,特别是在推理和数学问题上,展现了其超越其他专有模型的能力。Sonus AI致力于开发高性能、可负担、可靠且注重隐私的大型语言模型。
多模态大型语言模型,提升视觉与语言的交互能力。
InternVL2_5-26B-MPO是一个多模态大型语言模型(MLLM),它在InternVL2.5的基础上,通过混合偏好优化(Mixed Preference Optimization, MPO)进一步提升了模型性能。该模型能够处理包括图像、文本在内的多模态数据,广泛应用于图像描述、视觉问答等场景。它的重要性在于能够理解和生成与图像内容紧密相关的文本,推动了多模态人工智能的边界。产品背景信息包括其在多模态任务中的卓越性能,以及在OpenCompass Learderboard中的评估结果。该模型为研究者和开发者提供了强大的工具,以探索和实现多模态人工智能的潜力。
多模态大型语言模型,提升视觉与语言的交互能力
InternVL2_5-8B-MPO-AWQ是OpenGVLab推出的一款多模态大型语言模型,它基于InternVL2.5系列,并采用混合偏好优化(Mixed Preference Optimization, MPO)技术。该模型在视觉和语言的理解与生成方面展现了卓越的性能,尤其在多模态任务中表现出色。它通过结合视觉部分InternViT和语言部分InternLM或Qwen,使用随机初始化的MLP投影器进行增量预训练,实现了对图像和文本的深入理解与交互。该技术的重要性在于它能够处理包括单图像、多图像以及视频数据在内的多种数据类型,为多模态人工智能领域提供了新的解决方案。
© 2025 AIbase 备案号:闽ICP备08105208号-14