需求人群:
"该产品主要面向工程团队、硬件制造商、软件开发者和科研人员等专业用户。他们需要一个独立、标准化的工具来评估AI推理引擎在不同硬件平台上的性能表现,以便为产品研发、优化和选型提供数据支持。例如,硬件制造商可以利用该工具测试和优化其AI加速硬件的性能;软件开发者可以了解不同推理引擎的优劣,从而为自己的AI应用选择合适的引擎;科研人员可以借助该工具进行AI性能相关的研究工作。"
使用场景示例:
某硬件制造商使用该工具对其新推出的AI加速卡进行性能测试和优化,通过对比不同推理引擎在该硬件上的表现,调整驱动程序参数,最终显著提升了加速卡的推理性能,使其在市场上的竞争力得到增强。
一家软件开发公司计划开发一款基于AI的图像识别应用,利用Procyon AI Computer Vision Benchmark测试了多种推理引擎在目标硬件平台上的性能,根据测试结果选择了最适合的引擎进行集成,确保了应用的高效运行。
科研人员在进行AI模型优化研究时,借助该工具对比了浮点和整数优化模型在不同硬件配置下的性能差异,为模型优化策略的选择提供了实证依据,推动了相关研究的进展。
产品特色:
基于常见机器视觉任务使用最先进的神经网络进行测试
使用CPU、GPU或专用AI加速器测量推理性能
支持NVIDIA® TensorRT™、Intel® OpenVINO™等多种AI推理引擎进行基准测试
验证推理引擎的实现和兼容性
优化硬件加速器的驱动程序
比较浮点和整数优化模型的性能
通过Procyon应用程序或命令行简单设置和使用
使用教程:
1. 访问 https://benchmarks.ul.com/procyon/ai-inference-benchmark-for-windows 页面,下载Procyon AI Computer Vision Benchmark软件。
2. 安装软件到您的Windows PC或Apple Mac上。
3. 启动软件,选择您要测试的AI推理引擎。
4. 根据需要选择测试的神经网络模型,如MobileNet V3、Inception V4等。
5. 运行基准测试,软件将自动执行一系列机器视觉任务,并记录性能数据。
6. 测试完成后,查看生成的基准分数、详细得分和硬件监控数据,分析不同引擎和模型的性能表现。
7. 如需进一步分析,可导出详细结果文件进行研究。
浏览量:10
最新流量情况
月访问量
801.01k
平均访问时长
00:01:01
每次访问页数
2.13
跳出率
61.09%
流量来源
直接访问
27.40%
自然搜索
54.20%
邮件
0.05%
外链引荐
16.46%
社交媒体
1.66%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
加拿大
3.67%
中国
6.70%
德国
8.33%
日本
7.91%
美国
22.99%
用于评估Windows PC或Apple Mac上AI推理引擎性能的基准测试工具。
Procyon AI Computer Vision Benchmark是由UL Solutions开发的一款专业基准测试工具,旨在帮助用户评估不同AI推理引擎在Windows PC或Apple Mac上的性能表现。该工具通过执行一系列基于常见机器视觉任务的测试,利用多种先进的神经网络模型,为工程团队提供独立、标准化的评估手段,以便他们了解AI推理引擎的实施质量和专用硬件的性能。产品支持多种主流的AI推理引擎,如NVIDIA® TensorRT™、Intel® OpenVINO™等,并可比较浮点和整数优化模型的性能。其主要优点包括易于安装和运行、无需复杂配置、可导出详细结果文件等。产品定位为专业用户,如硬件制造商、软件开发者和科研人员,以助力他们在AI领域的研发和优化工作。
跨平台AI性能基准测试工具
Geekbench AI 是一款使用真实世界机器学习任务来评估AI工作负载性能的跨平台AI基准测试工具。它通过测量CPU、GPU和NPU的性能,帮助用户确定他们的设备是否准备好应对当今和未来的尖端机器学习应用。
用于衡量设备 AI 加速器推理性能的基准测试工具。
Procyon AI Image Generation Benchmark 是一款由 UL Solutions 开发的基准测试工具,旨在为专业用户提供一个一致、准确且易于理解的工作负载,用以测量设备上 AI 加速器的推理性能。该基准测试与多个关键行业成员合作开发,确保在所有支持的硬件上产生公平且可比较的结果。它包括三个测试,可测量从低功耗 NPU 到高端独立显卡的性能。用户可以通过 Procyon 应用程序或命令行进行配置和运行,支持 NVIDIA® TensorRT™、Intel® OpenVINO™ 和 ONNX with DirectML 等多种推理引擎。产品主要面向工程团队,适用于评估推理引擎实现和专用硬件的通用 AI 性能。价格方面,提供免费试用,正式版为年度场地许可,需付费获取报价。
多语言多任务基准测试,用于评估大型语言模型(LLMs)
P-MMEval是一个多语言基准测试,覆盖了基础和能力专业化的数据集。它扩展了现有的基准测试,确保所有数据集在语言覆盖上保持一致,并在多种语言之间提供平行样本,支持多达10种语言,涵盖8个语言家族。P-MMEval有助于全面评估多语言能力,并进行跨语言可转移性的比较分析。
利用大规模机器学习理解场景并连接全球数百万场景的地理空间模型
Niantic的Large Geospatial Model (LGM) 是一个先锋概念,旨在通过大规模机器学习理解场景并将其与全球数百万其他场景连接起来。LGM不仅使计算机能够感知和理解物理空间,还能以新的方式与它们互动,成为AR眼镜及更广泛领域(包括机器人技术、内容创作和自主系统)的关键组成部分。随着我们从手机转向与现实世界相连的可穿戴技术,空间智能将成为世界未来的操作系统。
人形机器人多功能神经全身控制器
HOVER是一个针对人形机器人的多功能神经全身控制器,它通过模仿全身运动来提供通用的运动技能,学习多种全身控制模式。HOVER通过多模式策略蒸馏框架将不同的控制模式整合到一个统一的策略中,实现了在不同控制模式之间的无缝切换,同时保留了每种模式的独特优势。这种控制器提高了人形机器人在多种模式下的控制效率和灵活性,为未来的机器人应用提供了一个健壮且可扩展的解决方案。
高精度单目深度估计模型
Depth Pro是一个用于单目深度估计的研究项目,它能够快速生成高精度的深度图。该模型利用多尺度视觉变换器进行密集预测,并结合真实与合成数据集进行训练,以实现高准确度和细节捕捉。它在标准GPU上生成2.25百万像素深度图仅需0.3秒,具有速度快、精度高的特点,对于机器视觉和增强现实等领域具有重要意义。
多物种鲸鱼声音检测工具
multispecies-whale-detection 是谷歌开发的一个开源项目,旨在通过神经网络检测和分类不同物种和地理区域的鲸鱼声音。这个工具可以帮助研究人员和环保组织更好地理解和保护海洋生物多样性。
一个全面的AI神经网络工具目录
AILIBRI是一个汇集了超过2000个AI神经网络工具的目录网站,涵盖了文本、图像、视频、音频等多个领域的工具。它为用户寻找合适的AI工具提供了极大的便利,无论是专业人士还是初学者,都能在这里找到满足其需求的工具。该网站提供了详细的分类和搜索功能,帮助用户快速定位到所需的工具。
AI驱动的训练和评估平台,提升员工培训效率。
Solidroad是一个AI优先的训练和评估平台,它将公司的知识库转化为沉浸式培训项目,易于培训者管理,同时为员工提供更吸引人的学习体验。该平台通过个性化支持、指导和专业知识,帮助客户节省时间和资源,加快新员工的熟练速度,并提高客户满意度评分。
构建大型世界模型,感知、生成和与3D世界互动
World Labs 是一家专注于空间智能的公司,致力于构建大型世界模型(Large World Models),以感知、生成和与3D世界进行互动。公司由AI领域的知名科学家、教授、学者和行业领导者共同创立,包括斯坦福大学的Fei-Fei Li教授、密歇根大学的Justin Johnson教授等。他们通过创新的技术和方法,如神经辐射场(NeRF)技术,推动了3D场景重建和新视角合成的发展。World Labs 得到了包括Marc Benioff、Jim Breyer等知名投资者的支持,其技术在AI领域具有重要的应用价值和商业潜力。
从零开始学习深度学习,实现GPT模型
zero_to_gpt是一个旨在帮助用户从零基础学习深度学习,并最终实现训练自己的GPT模型的教程。随着人工智能技术走出实验室并广泛应用于各行各业,社会对于能够理解并应用AI技术的人才需求日益增长。本教程结合理论与实践,通过解决实际问题(如天气预测、语言翻译等)来深入讲解深度学习的理论基础,如梯度下降和反向传播。课程内容从基础的神经网络架构和训练方法开始,逐步深入到复杂主题,如变换器、GPU编程和分布式训练。
模拟数字生物与进化的人工生命仿真程序
ALIEN是一个基于CUDA的专门物理和渲染引擎的人工生命仿真程序。它旨在模拟数字生物在人工生态系统中的行为,并作为进化仿真的平台。该软件项目开源,遵循BSD-3-Clause许可。
自动化解释性代理,提升AI模型透明度
MAIA(Multimodal Automated Interpretability Agent)是由MIT计算机科学与人工智能实验室(CSAIL)开发的一个自动化系统,旨在提高人工智能模型的解释性。它通过视觉-语言模型的支撑,结合一系列实验工具,自动化地执行多种神经网络解释性任务。MAIA能够生成假设、设计实验进行测试,并通过迭代分析来完善其理解,从而提供更深入的AI模型内部运作机制的洞察。
构建和训练大型语言模型的综合框架
DataComp-LM (DCLM) 是一个为构建和训练大型语言模型(LLMs)而设计的综合性框架,提供了标准化的语料库、基于open_lm框架的高效预训练配方,以及超过50种评估方法。DCLM 支持研究人员在不同的计算规模上实验不同的数据集构建策略,从411M到7B参数模型。DCLM 通过优化的数据集设计显著提高了模型性能,并且已经促成了多个高质量数据集的创建,这些数据集在不同规模上表现优异,超越了所有开放数据集。
新一代智能图像编辑器,更智能、更易用、更高效。
PhotoSir是一款功能强大的专业图像编辑器,是Photoshop的友好替代品。它采用全新的产品设计和内置的AI算法,使每个用户都能更快、更容易地创作自己的艺术作品。PhotoSir能够轻松处理高达50亿像素的图片,并且完美兼容PSD文件。它提供了大量的素材和模板,以及上百种不同类型的画笔,让用户不再从零开始创作。
首个全面评估多模态大型语言模型在视频分析中的性能基准。
Video-MME是一个专注于多模态大型语言模型(MLLMs)在视频分析领域性能评估的基准测试。它填补了现有评估方法中对MLLMs处理连续视觉数据能力的空白,为研究者提供了一个高质量和全面的评估平台。该基准测试覆盖了不同长度的视频,并针对MLLMs的核心能力进行了评估。
实时更新的多模态模型性能排行榜
OpenCompass多模态排行榜是一个实时更新的平台,用于评估和排名不同的多模态模型(VLMs)。它通过8个多模态基准测试来计算模型的平均得分,并提供详细的性能数据。该平台仅包含开源的VLMs或公开可用的APIs,旨在帮助研究人员和开发者了解当前多模态模型的最新进展和性能表现。
独立分析AI语言模型和API提供商,帮助选择适合的模型和API。
Artificial Analysis是一个专注于AI语言模型和API提供商的独立分析平台。它提供详细的性能评估,帮助用户理解AI领域的格局,并为他们的具体用例选择最佳的模型和API提供商。该平台通过质量指数、吞吐量和价格等多个维度对不同的AI模型进行比较,使用户能够做出更明智的选择。
CoreNet 是一个用于训练深度神经网络的库。
CoreNet 是一个深度神经网络工具包,使研究人员和工程师能够训练标准和新颖的小型和大型规模模型,用于各种任务,包括基础模型(例如 CLIP 和 LLM)、对象分类、对象检测和语义分割。
Transformer Debugger是由OpenAI的Superalignment团队开发的用于调查小型语言模型特定行为的工具
Transformer Debugger结合了自动化可解释性和稀疏自编码器技术,支持在编写代码之前进行快速探索,并能够在前向传递中进行干预,以观察其如何影响特定行为。它通过识别对行为有贡献的特定组件(神经元、注意力头、自编码器潜在表示),展示自动生成的解释来说明这些组件为何强烈激活,并追踪组件间的连接以帮助发现电路。
神经网络扩散模型实现
Neural Network Diffusion是由新加坡国立大学高性能计算与人工智能实验室开发的神经网络扩散模型。该模型利用扩散过程生成高质量的图像,适用于图像生成和修复等任务。
AI模型开发与部署
Visnet是一个全面的、无头的、多兼容的神经网络接口框架,主要用于自然语言处理和深度视觉系统。它具有模块化的前端、无服务器架构和多兼容性,并提供了REST API和Websocket接口。它包含了多个核心AI模型,如翻译、车牌识别和人脸特征匹配等。Visnet可广泛应用于监控、无人机检测、图像和视频分析等领域。
高质量图像修复,根据人类指示进行优化
InstructIR 接受图像和人类书写的指令作为输入,通过单一神经模型执行一体化图像修复。在多个修复任务中取得了最先进的结果,包括图像去噪、去雨、去模糊、去雾以及低光图像增强等。🚀 您可以从演示教程开始。查看我们的 GitHub 获取更多信息。 免责声明:请注意,这不是一个产品,因此您会注意到一些限制。此演示需要输入具有某些降级的图像(模糊、噪音、雨、低光、雾)和一个提示,请求应该执行什么操作。由于 GPU 内存限制,如果输入高分辨率图像(2K、4K),应用可能会崩溃。 该模型主要使用合成数据进行训练,因此在真实世界复杂图像上可能效果不佳。然而,在真实世界的雾天和低光图像上效果出奇地好。您还可以尝试一般的图像增强提示(例如,“润色此图像”,“增强颜色”)并查看它如何改善颜色。
强大的通用预测学习
通用预测学习器是一种利用元学习的强大方法,能够快速从有限数据中学习新任务。通过广泛接触不同的任务,可以获得通用的表示,从而实现通用问题解决。本产品探索了将最强大的通用预测器——Solomonoff归纳(SI)——通过元学习的方式进行摊销的潜力。我们利用通用图灵机(UTM)生成训练数据,让网络接触到广泛的模式。我们提供了UTM数据生成过程和元训练协议的理论分析。我们使用不同复杂度和普适性的算法数据生成器对神经架构(如LSTM、Transformer)进行了全面的实验。我们的结果表明,UTM数据是元学习的宝贵资源,可以用来训练能够学习通用预测策略的神经网络。
使用单眼视频记录产生实时4D头像合成的神经网络方法
BakedAvatar是一种用于实时神经头像合成的全新表示,可部署在标准多边形光栅化流水线中。该方法从学习到的头部等值面提取可变形的多层网格,并计算可烘焙到静态纹理中的表情、姿势和视角相关外观,从而为实时4D头像合成提供支持。我们提出了一个三阶段的神经头像合成流水线,包括学习连续变形、流形和辐射场,提取分层网格和纹理,以及通过微分光栅化来微调纹理细节。实验结果表明,我们的表示产生了与其他最先进方法相当的综合结果,并显著减少了所需的推理时间。我们进一步展示了从单眼视频中产生的各种头像合成结果,包括视图合成、面部重现、表情编辑和姿势编辑,所有这些都以交互式帧率进行。
一个AI深度学习平台,提供丰富的模型和工具,打造AI创新社区
Neuralhub是一个让深度学习更简单的平台,它为AI爱好者、研究人员和工程师提供实验和创新的环境。我们的目标不仅仅是提供工具,我们还在建立一个社区,一个可以分享和协作的地方。我们致力于通过汇集所有工具、研究和模型到一个协作空间,简化当今的深度学习,使AI研究、学习和开发更容易获取。
机器人图像渲染的新发展
Wild2Avatar是一个用于渲染被遮挡的野外单目视频中的人类外观的神经渲染方法。它可以在真实场景下渲染人类,即使障碍物可能会阻挡相机视野并导致部分遮挡。该方法通过将场景分解为三部分(遮挡物、人类和背景)来实现,并使用特定的目标函数强制分离人类与遮挡物和背景,以确保人类模型的完整性。
高保真稠密SLAM
Gaussian SLAM能够从RGBD数据流重建可渲染的3D场景。它是第一个能够以照片级真实感重建现实世界场景的神经RGBD SLAM方法。通过利用3D高斯作为场景表示的主要单元,我们克服了以往方法的局限性。我们观察到传统的3D高斯在单目设置下很难使用:它们无法编码准确的几何信息,并且很难通过单视图顺序监督进行优化。通过扩展传统的3D高斯来编码几何信息,并设计一种新颖的场景表示以及增长和优化它的方法,我们提出了一种能够重建和渲染现实世界数据集的SLAM系统,而且不会牺牲速度和效率。高斯SLAM能够重建和以照片级真实感渲染现实世界场景。我们在常见的合成和真实世界数据集上对我们的方法进行了评估,并将其与其他最先进的SLAM方法进行了比较。最后,我们证明了我们得到的最终3D场景表示可以通过高效的高斯飞溅渲染实时渲染。
© 2025 AIbase 备案号:闽ICP备08105208号-14