需求人群:
"该产品主要面向人工智能研究者和开发者,尤其是那些对语言模型的实时决策能力和游戏AI感兴趣的专业人士。它为评估和改进LLM提供了一个独特的平台。"
使用场景示例:
研究者使用llm-colosseum来测试和比较不同LLM的性能。
开发者利用该工具来训练和优化自己的LLM模型。
教育机构将其作为教学案例,展示AI在复杂环境中的决策过程。
产品特色:
实时对战:LLM在街霸3中进行实时对战,模拟真实游戏环境。
智能决策:模型需要快速做出决策,以应对对手的攻击。
多模型支持:支持OpenAI和Mistral等多种语言模型。
ELO评分系统:根据模型的对战结果,使用ELO评分系统进行排名。
自定义模型:用户可以创建自己的LLM模型并提交以加入排名。
环境适应性:模型需要根据当前的游戏状态(如角色的体力和能量条)来调整策略。
使用教程:
1. 访问llm-colosseum的GitHub页面并克隆或下载项目。
2. 按照README中的说明安装所需的依赖项。
3. 创建并配置.env文件,设置所需的环境变量。
4. 使用make run命令启动街霸3对战环境。
5. 观察不同LLM模型的表现,并根据ELO评分了解它们的性能。
6. 如有需要,修改agent/robot.py文件中的Robot.call_llm()方法以自定义模型的行为。
7. 提交自定义模型的更改,并创建PR以加入到llm-colosseum的排名中。
浏览量:41
最新流量情况
月访问量
4.92m
平均访问时长
00:06:33
每次访问页数
6.11
跳出率
36.20%
流量来源
直接访问
51.61%
自然搜索
33.46%
邮件
0.04%
外链引荐
12.58%
社交媒体
2.19%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.55%
德国
3.84%
印度
9.38%
俄罗斯
4.61%
美国
18.64%
通过街霸3对战评估大型语言模型
llm-colosseum是一个创新的基准测试工具,它使用街霸3游戏来评估大型语言模型(LLM)的实时决策能力。与传统的基准测试不同,这个工具通过模拟实际游戏场景来测试模型的快速反应、智能策略、创新思维、适应性和恢复力。
人工智能入门教程网站,提供全面的机器学习与深度学习知识。
该网站由作者从 2015 年开始学习机器学习和深度学习,整理并编写的一系列实战教程。涵盖监督学习、无监督学习、深度学习等多个领域,既有理论推导,又有代码实现,旨在帮助初学者全面掌握人工智能的基础知识和实践技能。网站拥有独立域名,内容持续更新,欢迎大家关注和学习。
推动人工智能安全治理,促进技术健康发展
《人工智能安全治理框架》1.0版是由全国网络安全标准化技术委员会发布的技术指南,旨在鼓励人工智能创新发展的同时,有效防范和化解人工智能安全风险。该框架提出了包容审慎、确保安全,风险导向、敏捷治理,技管结合、协同应对,开放合作、共治共享等原则。它结合人工智能技术特性,分析风险来源和表现形式,针对模型算法安全、数据安全和系统安全等内生安全风险,以及网络域、现实域、认知域、伦理域等应用安全风险,提出了相应的技术应对和综合防治措施。
AI数学极限测试基准
FrontierMath是一个数学基准测试平台,旨在测试人工智能在解决复杂数学问题上的能力极限。它由超过60位数学家共同创建,覆盖了从代数几何到Zermelo-Fraenkel集合论的现代数学全谱。FrontierMath的每个问题都要求专家数学家投入数小时的工作,即使是最先进的AI系统,如GPT-4和Gemini,也仅能解决不到2%的问题。这个平台提供了一个真正的评估环境,所有问题都是新的且未发表的,消除了现有基准测试中普遍存在的数据污染问题。
京东自主研发的人工智能开放平台
京东人工智能开放平台NeuHub,汇聚京东自主研发的人工智能核心技术,包含语音、图像、视频、NLP等技术,通过平台向外开放,助力行业智能升级。平台还提供数据标注、模型开发、训练和发布等全流程服务,以及创新应用案例,帮助企业实现智能化转型。
人工智能通用推理测试集
ARC-AGI是一个旨在测试人工智能系统是否具备类似人类一般流体智力的抽象和推理能力的数据集。它由400个训练任务和400个评估任务组成,每个任务都以JSON格式存储,包括输入输出对。该数据集可以作为人工智能基准测试、程序合成基准测试或心理测量智力测试。
OLAMI是一个人工智能开放平台
OLAMI是一个提供云端API、管理界面、多元机器感知解决方案的人工智能软件开发平台。OLAMI平台具有语音识别、自然语言理解、对话管理、语音合成等语音AI技术,以及图像识别、语义理解等视觉AI技术,可以轻松地为产品加入人工智能,提升用户体验。
医疗领域检索式问答基准测试
Benchmark Medical RAG是一个专注于医疗领域的检索式问答(Retrieval-Augmented Generation)基准测试平台。它提供了一系列的数据集和评估工具,旨在推动医疗信息检索和生成模型的研究。
开源AI芯片性能基准测试平台
FlagPerf是由智源研究院联合AI硬件厂商共建的一体化AI硬件评测引擎,旨在建立以产业实践为导向的指标体系,评测AI硬件在软件栈组合(模型+框架+编译器)下的实际能力。该平台支持多维度评测指标体系,覆盖大模型训练推理场景,并支持多训练框架及推理引擎,连接AI硬件与软件生态。
长视频理解基准测试
LVBench是一个专门设计用于长视频理解的基准测试,旨在推动多模态大型语言模型在理解数小时长视频方面的能力,这对于长期决策制定、深入电影评论和讨论、现场体育解说等实际应用至关重要。
对视觉生成模型进行基准测试
GenAI-Arena是一个用于在野外对视觉生成模型进行基准测试的平台。用户可以匿名参与竞技,对比目标模型的表现,并投票选出更优秀的模型。平台支持不同领域的匿名模型对决,帮助用户找到最佳的条件图像生成模型。用户可以点击“New Round”开始新的对决,并通过点击按钮投票选择更优秀的模型。
通过人工智能进行可用性测试
Odaptos帮助企业通过人工智能学习用户的情感,改进其数字产品。轻松集成Odaptos,节省用户测试时间,即时将用户反馈转化为关键洞察,准确识别用户体验中的摩擦点。Odaptos为您的团队提供协作空间,集中查看用户洞察,并快速改进产品。
多智能体任务规划与推理的基准测试
PARTNR是由Meta FAIR发布的一个大规模基准测试,包含100,000个自然语言任务,旨在研究多智能体推理和规划。PARTNR利用大型语言模型(LLMs)生成任务,并通过模拟循环来减少错误。它还支持与真实人类伙伴的AI代理评估,通过人类在环基础设施进行。PARTNR揭示了现有基于LLM的规划器在任务协调、跟踪和从错误中恢复方面的显著局限性,人类能解决93%的任务,而LLMs仅能解决30%。
视频生成评估基准测试
Movie Gen Bench是由Facebook Research发布的视频生成评估基准测试,旨在为未来在视频生成领域的研究提供公平且易于比较的标准。该基准测试包括Movie Gen Video Bench和Movie Gen Audio Bench两个部分,分别针对视频内容生成和音频生成进行评估。Movie Gen Bench的发布,对于推动视频生成技术的发展和评估具有重要意义,它能够帮助研究人员和开发者更好地理解和改进视频生成模型的性能。
ZeroBench 是一个针对当代大型多模态模型的高难度视觉基准测试。
ZeroBench 是一个专为评估大型多模态模型(LMMs)视觉理解能力而设计的基准测试。它通过 100 个精心设计且经过严格审查的复杂问题,以及 334 个子问题,挑战当前模型的极限。该基准测试旨在填补现有视觉基准的不足,提供更具挑战性和高质量的评估工具。ZeroBench 的主要优点是其高难度、轻量级、多样化和高质量的特点,使其能够有效区分模型的性能。此外,它还提供了详细的子问题评估,帮助研究人员更好地理解模型的推理能力。
一种测试大语言模型在复杂社交博弈中智能性的基准测试框架,灵感来源于‘狼人杀’游戏。
Elimination Game 是一种创新的基准测试框架,用于评估大语言模型(LLMs)在复杂社交环境中的表现。它模拟了类似‘狼人杀’的多玩家竞争场景,通过公开讨论、私下交流和投票淘汰机制,测试模型的社交推理、策略选择和欺骗能力。该框架不仅为研究 AI 在社交博弈中的智能性提供了重要工具,还为开发者提供了洞察模型在现实社交场景中潜力的机会。其主要优点包括多轮互动设计、动态联盟与背叛机制以及详细的评估指标,能够全面衡量 AI 的社交能力。
个人电脑AI性能基准测试
MLPerf Client是由MLCommons共同开发的新基准测试,旨在评估个人电脑(从笔记本、台式机到工作站)上大型语言模型(LLMs)和其他AI工作负载的性能。该基准测试通过模拟真实世界的AI任务,提供清晰的指标,以了解系统如何处理生成性AI工作负载。MLPerf Client工作组希望这个基准测试能够推动创新和竞争,确保个人电脑能够应对AI驱动的未来挑战。
Humanity's Last Exam 是一个用于衡量大型语言模型能力的多模态基准测试。
Humanity's Last Exam 是一个由全球专家合作开发的多模态基准测试,旨在衡量大型语言模型在学术领域的表现。它包含来自 50 个国家超过 500 个机构的近 1000 名专家贡献的 3000 个问题,覆盖超过 100 个学科。该测试旨在成为最终的封闭式学术基准,通过挑战模型的极限来推动人工智能技术的发展。其主要优点是难度高,能够有效评估模型在复杂学术问题上的表现。
跨平台AI性能基准测试工具
Geekbench AI 是一款使用真实世界机器学习任务来评估AI工作负载性能的跨平台AI基准测试工具。它通过测量CPU、GPU和NPU的性能,帮助用户确定他们的设备是否准备好应对当今和未来的尖端机器学习应用。
提供AI和机器学习课程
Udacity人工智能学院提供包括深度学习、计算机视觉、自然语言处理和AI产品管理在内的AI培训和机器学习课程。这些课程旨在帮助学生掌握人工智能领域的最新技术,为未来的职业生涯打下坚实的基础。
专业用户的性能测试基准套件
Procyon是由UL Solutions开发的一套性能测试基准工具,专为工业、企业、政府、零售和媒体的专业用户设计。Procyon套件中的每个基准测试都提供了一致且熟悉的体验,并共享一套共同的设计和功能。灵活的许可模式意味着用户可以根据自己的需求选择适合的单个基准测试。Procyon基准测试套件很快将提供一系列针对专业用户的基准测试和性能测试,每个基准测试都针对特定用例设计,并尽可能使用真实应用。UL Solutions与行业合作伙伴紧密合作,确保每个Procyon基准测试准确、相关且公正。
绘图,问答,图片处理一站式 AI 服务
小门道 AI 是一个提供 AI 服务的网站,包括 Midjourney 和 Stable Diffusion 绘图,chatgpt 对话,抠图,去除水印,魔法抹除,图片变清,无损放大等功能。我们提供智能问答功能,可联网搜索,任务式 (基于 AutoGPT),学术助理,上传文件,数学解题等。同时,我们还提供抠图、放大变清、转矢量图、人脸融合等图片处理功能。产品定价根据具体功能和使用情况而定,定位于提供高质量的 AI 服务。
用于高级渗透测试的人工智能网络安全平台
Voltsec.io是一款AI动力的网络安全平台,为用户提供先进的渗透测试服务。作为网络安全领域的先行者,Voltsec.io不仅仅是一个漏洞扫描工具,更是您的战略盟友,在深度渗透测试中为您提供可操作的见解。通过先进的深度学习模型,Voltsec.io提供持续的扫描服务,并且提供专业的人工支持来协助解决问题。该产品提供Web、云、网络和移动渗透测试服务,并提供详细的安全报告和安全证书。它的优势在于使用先进的人工智能算法、提供可操作的见解和人工支持、以及提供不同层级用户的定制化报告。
高性能语言模型基准测试数据集
DCLM-baseline是一个用于语言模型基准测试的预训练数据集,包含4T个token和3B个文档。它通过精心策划的数据清洗、过滤和去重步骤,从Common Crawl数据集中提取,旨在展示数据策划在训练高效语言模型中的重要性。该数据集仅供研究使用,不适用于生产环境或特定领域的模型训练,如代码和数学。
综合表格数据学习工具箱和基准测试
LAMDA-TALENT是一个综合的表格数据分析工具箱和基准测试平台,它集成了20多种深度学习方法、10多种传统方法以及300多个多样化的表格数据集。该工具箱旨在提高模型在表格数据上的性能,提供强大的预处理能力,优化数据学习,并支持用户友好和适应性强的操作,适用于新手和专家数据科学家。
用于评估文本到视觉生成的创新性指标和基准测试
Evaluating Text-to-Visual Generation with Image-to-Text Generation提出了一种新的评估指标VQAScore,能够更好地评估复杂的文本到视觉生成效果,并引入了GenAI-Bench基准测试集。VQAScore基于CLIP-FlanT5模型,能够在文本到图像/视频/3D生成评估中取得最佳性能,是一种强大的替代CLIPScore的方案。GenAI-Bench则提供了包含丰富组合语义的实际场景测试文本,可用于全面评估生成模型的性能。
衡量Android设备AI性能和质量的基准测试工具
Procyon AI Inference Benchmark for Android是一款基于NNAPI的基准测试工具,用于衡量Android设备上的AI性能和质量。它通过一系列流行的、最先进的神经网络模型来执行常见的机器视觉任务,帮助工程团队独立、标准化地评估NNAPI实现和专用移动硬件的AI性能。该工具不仅能够测量Android设备上专用AI处理硬件的性能,还能够验证NNAPI实现的质量,对于优化硬件加速器的驱动程序、比较浮点和整数优化模型的性能具有重要意义。
© 2025 AIbase 备案号:闽ICP备08105208号-14