需求人群:
"SELA的目标受众是机器学习研究人员和开发人员,特别是那些寻求通过自动化机器学习流程来提高模型选择和集成效率的专业人士。SELA通过提供一种新颖的方法来探索和优化机器学习管道,适合需要处理大量数据和模型选择的专业人员。"
使用场景示例:
使用SELA在泰坦尼克号数据集上进行模型选择和集成。
利用SELA在房价预测任务中优化模型性能。
通过SELA进行消融研究,比较不同搜索策略对模型性能的影响。
产品特色:
数据准备:支持从链接下载数据集或从头开始准备数据集。
配置灵活:用户可以根据需要修改数据配置和LLM配置。
SELA运行:提供了运行SELA的详细步骤,包括设置、运行实验和参数配置。
实验模式:支持MCTS和随机搜索(RS)两种实验模式。
参数调整:用户可以根据需要调整诸如rollouts、timeout等参数。
断点续跑:支持加载现有的MCTS树,以便在实验中断后继续。
Ablation Study:支持进行消融研究,比较不同搜索策略的效果。
使用教程:
1. 数据准备:根据SELA的指南下载或准备数据集。
2. 配置设置:根据需要修改`datasets.yaml`和`data.yaml`文件中的配置。
3. 安装依赖:在SELA目录下运行`pip install -r requirements.txt`安装所需依赖。
4. 运行SELA:使用`python run_experiment.py`命令并附加相应参数来运行实验。
5. 参数调整:根据实验需要调整rollouts、timeout等参数。
6. 结果分析:分析实验结果,根据反馈迭代改进策略。
7. 断点续跑:如果实验中断,可以使用`--load_tree`参数加载之前的MCTS树继续实验。
浏览量:38
最新流量情况
月访问量
4.85m
平均访问时长
00:06:25
每次访问页数
6.08
跳出率
35.86%
流量来源
直接访问
52.62%
自然搜索
32.72%
邮件
0.05%
外链引荐
12.34%
社交媒体
2.17%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.55%
德国
3.84%
印度
9.38%
俄罗斯
4.61%
美国
18.64%
SELA通过结合蒙特卡洛树搜索和基于LLM的代理来增强自动化机器学习。
SELA是一个创新系统,它通过将蒙特卡洛树搜索(MCTS)与基于大型语言模型(LLM)的代理结合起来,增强了自动化机器学习(AutoML)。传统的AutoML方法经常产生低多样性和次优的代码,限制了它们在模型选择和集成方面的有效性。SELA通过将管道配置表示为树,使代理能够智能地探索解决方案空间,并根据实验反馈迭代改进其策略。
自动化工作流生成框架
AFlow是一个框架,用于自动生成和优化代理工作流。它利用蒙特卡洛树搜索在代码表示的工作流空间中寻找有效的工作流,替代手工开发,展现出在多种任务上超越手工工作流的潜力。AFlow的主要优点包括提高开发效率、减少人力成本,并能够适应不同的任务需求。
大型推理模型框架,支持PyTorch和HuggingFace。
LLaMA-O1是一个大型推理模型框架,它结合了蒙特卡洛树搜索(MCTS)、自我强化学习、PPO等技术,并借鉴了AlphaGo Zero的双重策略范式以及大型语言模型。该模型主要针对奥林匹克级别的数学推理问题,提供了一个开放的平台用于训练、推理和评估。产品背景信息显示,这是一个个人实验项目,与任何第三方组织或机构无关。
一个尝试复现OpenAI O1模型的编程辅助工具
O1-CODER是一个旨在复现OpenAI的O1模型的项目,专注于编程任务。该项目结合了强化学习(RL)和蒙特卡洛树搜索(MCTS)技术,以增强模型的系统二型思考能力,目标是生成更高效、逻辑性更强的代码。这个项目对于提升编程效率和代码质量具有重要意义,尤其是在需要大量自动化测试和代码优化的场景中。
突破大型语言模型限制的自动化框架
AutoDAN-Turbo是一个自动化的、无需人为干预的框架,旨在自动发现并实施多种策略,以突破大型语言模型(LLMs)的限制。该框架能够自动开发出多样的攻击策略,显著提高了攻击成功率,并且可以作为一个统一的框架整合现有的人为设计的越狱策略。AutoDAN-Turbo的重要性在于其能够提升LLMs在对抗环境中的安全性和可靠性,为红队评估工具提供了一种新的自动化方法。
用简单语言指令实现自动化
Neural Wave是一款基于生成式人工智能技术的自动化工具,通过简单的语言指令,使任何企业都能够轻松实现自动化任务,无需昂贵的技术专业知识。我们的自定义大型语言模型(LLM)可以在任何软件应用程序上自动化任何任务(具有或不具有API),并处理任何结构化和完全非结构化的文档。我们的工具不需要任何RPA开发技能或技术专业知识,任何用户都可以通过简单的语言解释任务来自动化任何任务,无需技术技能。
使用大型语言模型(LLMs)进行数据清洗和整理的Python库。
databonsai是一个Python库,利用大型语言模型(LLMs)执行数据清洗任务。它提供了一系列工具,包括数据分类、转换和提取,以及对LLM输出的验证,支持批量处理以节省令牌,并且具备重试逻辑以处理速率限制和瞬时错误。
无代码,自动化机器学习
Qlik AutoML是一款为分析团队提供无代码、自动化机器学习的工具。它能够快速生成模型、进行预测和决策规划。用户可以轻松创建机器学习实验,识别数据中的关键因素并训练模型。同时,它还支持完全可解释的AI,可以展示预测的原因和影响。用户可以将数据发布或直接集成到Qlik Sense应用中进行全交互式分析和模拟。
开源的网页自动化库,支持任何大型语言模型(LLM)
browser-use是一个开源的网页自动化库,允许大型语言模型(LLM)与网站进行交互,通过简单的接口实现复杂的网页操作。该技术的主要优点包括对多种语言模型的通用支持、交互元素自动检测、多标签页管理、XPath提取、视觉模型支持等。它解决了传统网页自动化中的一些痛点,如动态内容处理、长任务解决等。browser-use以其灵活性和易用性,为开发者提供了一个强大的工具,以构建更加智能和自动化的网页交互体验。
自动化搜索人工生命的基础模型
SakanaAI/asal是一个利用基础模型(Foundation Models, FMs)来自动化搜索人工生命(Artificial Life, ALife)的科研项目。该项目通过结合最新的人工智能技术,特别是视觉语言基础模型,来发现能够产生目标现象、生成时间开放性新颖性以及照亮整个有趣多样的模拟空间的人工生命模拟。它能够跨越多种ALife基底,包括Boids、Particle Life、Game of Life、Lenia和神经细胞自动机等,展示了通过技术手段加速人工生命研究的潜力。
AI编程智能体语言,实现LLM与IDE之间的通信以自动化编程。
the Shire是一种AI编程智能体语言,旨在实现大型语言模型(LLM)与集成开发环境(IDE)之间的通信,以支持自动化编程。它起源于AutoDev项目,旨在为开发者提供一个AI驱动的IDE,包括DevIns,Shire的前身。Shire通过提供定制化的AI代理,使用户能够构建符合个人需求的AI驱动开发环境。
多语言大型语言模型
Llama 3.2是由Meta公司推出的多语言大型语言模型(LLMs),包含1B和3B两种规模的预训练和指令调优生成模型。这些模型在多种语言对话用例中进行了优化,包括代理检索和总结任务。Llama 3.2在许多行业基准测试中的表现优于许多现有的开源和封闭聊天模型。
世界顶尖的开源大型语言模型
Reflection Llama-3.1 70B 是目前世界上顶尖的开源大型语言模型(LLM),采用名为 Reflection-Tuning 的新技术进行训练,使模型能够检测其推理中的错误并进行修正。该模型在合成数据上进行了训练,这些数据由 Glaive 生成。对于正在训练模型的用户来说,Glaive 是一个非常出色的工具。该模型使用标准的 Llama 3.1 聊天格式,通过特殊的标签来区分模型的内部思考和最终答案,从而提升用户体验。
大型语言模型的详细列表和信息
Models Table 提供了一个包含300多个大型语言模型的列表,这些模型被所有主要的AI实验室使用,包括Amazon Olympus, OpenAI GPT-5, OpenAI GPT-6等。该列表展示了大型语言模型的发展趋势和多样性,对于AI研究者和开发者来说是一个宝贵的资源。
高效开源的大型语言模型
OLMoE-1B-7B 是一个具有1亿活跃参数和7亿总参数的专家混合型大型语言模型(LLM),于2024年9月发布。该模型在成本相似的模型中表现卓越,与更大的模型如Llama2-13B竞争。OLMoE完全开源,支持多种功能,包括文本生成、模型训练和部署等。
开源多模态大型语言模型系列
InternVL 2.5是基于InternVL 2.0的高级多模态大型语言模型系列,它在保持核心模型架构的同时,在训练和测试策略以及数据质量方面引入了显著的增强。该模型深入探讨了模型扩展与性能之间的关系,系统地探索了视觉编码器、语言模型、数据集大小和测试时配置的性能趋势。通过在包括多学科推理、文档理解、多图像/视频理解、现实世界理解、多模态幻觉检测、视觉定位、多语言能力和纯语言处理在内的广泛基准测试中进行的广泛评估,InternVL 2.5展现出了与GPT-4o和Claude-3.5-Sonnet等领先商业模型相媲美的竞争力。特别是,该模型是第一个在MMMU基准测试中超过70%的开源MLLM,通过链式思考(CoT)推理实现了3.7个百分点的提升,并展示了测试时扩展的强大潜力。
先进多模态大型语言模型系列
InternVL 2.5是一系列先进的多模态大型语言模型(MLLM),在InternVL 2.0的基础上,通过引入显著的训练和测试策略增强以及数据质量提升,进一步发展而来。该模型系列在视觉感知和多模态能力方面进行了优化,支持包括图像、文本到文本的转换在内的多种功能,适用于需要处理视觉和语言信息的复杂任务。
将大型语言模型的编码能力转换为图像生成能力。
Omost是一个旨在将大型语言模型(LLM)的编码能力转化为图像生成(更准确地说是图像组合)能力的项目。它提供了基于Llama3和Phi3变体的预训练LLM模型,这些模型能够编写代码以使用Omost的虚拟Canvas代理来组合图像视觉内容。Canvas可以由特定的图像生成器实现来实际生成图像。Omost项目背后的技术包括Direct Preference Optimization (DPO)和OpenAI GPT4o的多模态能力。
上传数据,获取机器学习模型
Automated Machine Learning as a Service是一个提供自动化机器学习服务的网站。用户可以通过上传数据来获取他们的机器学习模型,该平台为用户提供了便捷的机器学习模型开发和部署流程。该平台还提供了丰富的功能和优势,包括简单易用的界面、自动化的模型训练和优化、灵活的定价策略等。用户可以根据自己的需求选择适合的定价方案,并在不同的场景中应用该机器学习模型。该产品的定位是为广大用户提供高效、便捷、灵活的机器学习解决方案。
自动化AI网络研究助手,利用本地大型语言模型进行深入研究。
Automated-AI-Web-Researcher-Ollama是一个创新的研究助理工具,它通过Ollama运行的本地大型语言模型来对任何给定的主题或问题进行深入的自动化在线研究。与传统的大型语言模型互动不同,这个工具通过将查询分解为专注的研究领域,系统地通过网络搜索和相关网站的抓取来调查,并将发现自动保存到一个包含所有内容和每个来源链接的文本文件中。此外,用户可以随时输入命令停止研究,然后大型语言模型会审查所有找到的内容并提供对原始主题或问题的全面总结。用户还可以询问大型语言模型关于其研究发现的问题。这个工具的主要优点是它不仅仅是一个聊天机器人,而是一个自动化的研究助理,系统地调查主题并维护有记录的研究轨迹。
定制化大型语言模型的专业微调工具
Expert Specialized Fine-Tuning (ESFT) 是一种针对具有专家混合(MoE)架构的大型语言模型(LLMs)的高效定制化微调方法。它通过仅调整与任务相关的部分来优化模型性能,提高效率,同时减少资源和存储的使用。
多模态大型语言模型,支持图像和文本理解
InternVL 2.5是一系列先进的多模态大型语言模型(MLLM),它在InternVL 2.0的基础上,通过引入显著的训练和测试策略增强以及数据质量提升,保持了其核心模型架构。该模型集成了新增量预训练的InternViT与各种预训练的大型语言模型(LLMs),如InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。InternVL 2.5支持多图像和视频数据,通过动态高分辨率训练方法,增强了模型处理多模态数据的能力。
Goedel-Prover 是一款开源的自动化定理证明模型,专注于数学问题的形式化证明。
Goedel-Prover 是一款专注于自动化定理证明的开源大型语言模型。它通过将自然语言数学问题翻译为形式化语言(如 Lean 4),并生成形式化证明,显著提升了数学问题的自动化证明效率。该模型在 miniF2F 基准测试中达到了 57.6% 的成功率,超越了其他开源模型。其主要优点包括高性能、开源可扩展性以及对数学问题的深度理解能力。Goedel-Prover 旨在推动自动化定理证明技术的发展,并为数学研究和教育提供强大的工具支持。
多语言大型语言模型,优化对话和文本生成。
Meta Llama 3.1是一系列预训练和指令调整的多语言大型语言模型(LLMs),包含8B、70B和405B三种大小的模型,专门针对多语言对话使用案例进行了优化,并在行业基准测试中表现优异。该模型使用优化的transformer架构,并通过监督式微调(SFT)和人类反馈的强化学习(RLHF)进一步与人类偏好对齐,以确保其有用性和安全性。
高效为大型语言模型提供服务
FP6-LLM是一种用于大型语言模型的全新支持方案,通过六位量化(FP6)有效地减小了模型大小,并在各种应用中始终保持模型质量。我们提出了TC-FPx,这是第一个完整的GPU内核设计方案,统一支持各种量化位宽的浮点权重。我们将TC-FPx内核集成到现有推理系统中,为量化的LLM推理提供了全新的端到端支持(称为FP6-LLM),实现了推理成本和模型质量之间更好的权衡。实验证明,FP6-LLM使得使用单个GPU进行LLaMA-70b推理成为可能,实现的规范化推理吞吐量比FP16基准高1.69倍至2.65倍。
企业级搜索、洞察和自动化的Gen AI
Squirro是一款基于Gen AI的企业级搜索、洞察和自动化工具。它使用Retrieval Augmented Generation (RAG)技术来提高响应生成的准确性。SquirroGPT能够查询知识库和数据源,为用户提供有据可依的答案。通过结合聊天和搜索的方式,用户可以与内部和外部数据源进行对话,生成个性化的洞察并提高工作效率。Squirro还提供了文档摘要、结构化数据分析和可视化等功能。定价请咨询官方网站。
Sonus-1:开启大型语言模型(LLMs)的新时代
Sonus-1是Sonus AI推出的一系列大型语言模型(LLMs),旨在推动人工智能的边界。这些模型以其高性能和多应用场景的多功能性而设计,包括Sonus-1 Mini、Sonus-1 Air、Sonus-1 Pro和Sonus-1 Pro (w/ Reasoning)等不同版本,以满足不同需求。Sonus-1 Pro (w/ Reasoning)在多个基准测试中表现突出,特别是在推理和数学问题上,展现了其超越其他专有模型的能力。Sonus AI致力于开发高性能、可负担、可靠且注重隐私的大型语言模型。
© 2025 AIbase 备案号:闽ICP备08105208号-14