需求人群:
"T-MAC主要面向需要在CPU上进行大型语言模型推理的开发者和企业,特别是那些寻求在边缘设备上实现实时或近实时推理性能的应用场景。它适用于需要优化能耗和计算资源的场合,如移动设备、嵌入式系统或任何资源受限的环境。"
使用场景示例:
在Surface Laptop 7上使用T-MAC进行3B BitNet模型的推理,实现了显著的速度提升。
在Snapdragon X Elite芯片上,通过T-MAC实现了与NPU相当的性能,同时减少了模型大小。
在Jetson AGX Orin上,T-MAC与CUDA GPU相比,在特定任务上展示了能耗优势。
产品特色:
支持1/2/3/4位量化的Llama模型在GPTQ格式下的推理。
在最新的Snapdragon X Elite芯片上,T-MAC的令牌生成速度甚至超过了NPU。
原生支持Windows ARM上的部署,T-MAC在Surface Laptop 7上展示了显著的5倍速度提升。
通过使用查找表,T-MAC显著减少了CPU核心的使用,同时降低了功耗和能耗。
与NPU相比,在Snapdragon X Elite芯片上,T-MAC的CPU性能优于高通骁龙神经处理引擎(NPE)。
与CUDA GPU相比,在Jetson AGX Orin上,T-MAC的2位mpGEMM性能与CUDA GPU相当。
使用教程:
安装Python环境,确保版本为3.8以满足TVM的要求。
根据操作系统的不同,安装cmake>=3.22和其他依赖项。
在虚拟环境中使用pip安装T-MAC,并激活相应的环境变量。
使用提供的工具脚本进行端到端推理,或与llama.cpp集成进行特定任务的推理。
根据需要调整参数,如使用-fa开启快速聚合以获得额外的速度提升。
浏览量:56
最新流量情况
月访问量
4.92m
平均访问时长
00:06:33
每次访问页数
6.11
跳出率
36.20%
流量来源
直接访问
51.61%
自然搜索
33.46%
邮件
0.04%
外链引荐
12.58%
社交媒体
2.19%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.55%
德国
3.84%
印度
9.38%
俄罗斯
4.61%
美国
18.64%
低比特大型语言模型在CPU上的推理加速
T-MAC是一个内核库,通过使用查找表直接支持混合精度矩阵乘法,无需去量化操作,旨在加速CPU上的低比特大型语言模型推理。它支持多种低比特模型,包括GPTQ/gguf的W4A16、BitDistiller/EfficientQAT的W2A16以及OSX/Linux/Windows上的ARM/Intel CPU的BitNet W1(.58)A8。T-MAC在Surface Laptop 7上实现了3B BitNet的令牌生成吞吐量,单核每秒20个,四核每秒48个,比现有最先进的CPU低比特框架(llama.cpp)快4~5倍。
1位大型语言模型推理框架
BitNet是由微软开发的官方推理框架,专为1位大型语言模型(LLMs)设计。它提供了一套优化的核心,支持在CPU上进行快速且无损的1.58位模型推理(NPU和GPU支持即将推出)。BitNet在ARM CPU上实现了1.37倍到5.07倍的速度提升,能效比提高了55.4%到70.0%。在x86 CPU上,速度提升范围从2.37倍到6.17倍,能效比提高了71.9%到82.2%。此外,BitNet能够在单个CPU上运行100B参数的BitNet b1.58模型,实现接近人类阅读速度的推理速度,拓宽了在本地设备上运行大型语言模型的可能性。
DeepSeek-V3/R1 推理系统是一个高性能的分布式推理架构,专为大规模 AI 模型优化设计。
DeepSeek-V3/R1 推理系统是 DeepSeek 团队开发的高性能推理架构,旨在优化大规模稀疏模型的推理效率。它通过跨节点专家并行(EP)技术,显著提升 GPU 矩阵计算效率,降低延迟。该系统采用双批量重叠策略和多级负载均衡机制,确保在大规模分布式环境中高效运行。其主要优点包括高吞吐量、低延迟和优化的资源利用率,适用于高性能计算和 AI 推理场景。
AI模型部署和推理优化的专家
Neural Magic是一家专注于AI模型优化和部署的公司,提供领先的企业级推理解决方案,以最大化性能和提高硬件效率。公司的产品支持在GPU和CPU基础设施上运行领先的开源大型语言模型(LLMs),帮助企业在云、私有数据中心或边缘环境中安全、高效地部署AI模型。Neural Magic的产品背景信息强调了其在机器学习模型优化方面的专业知识,以及与科研机构合作开发的创新LLM压缩技术,如GPTQ和SparseGPT。产品价格和定位方面,Neural Magic提供了免费试用和付费服务,旨在帮助企业降低成本、提高效率,并保持数据隐私和安全。
秒识别并查找任何歌曲。简单易用的音乐识别工具。
音乐识别器是一款最终的音乐识别应用,能够在几秒钟内识别您正在听的歌曲,甚至在嘈杂的环境中。只需点击按钮,应用将识别歌曲的名称、艺术家和专辑,并提供歌词以及购买或在喜爱的音乐平台上流媒体歌曲的链接。无论您在派对、车里还是观看TikTok或电视,音乐识别器都可以随时帮助您发现新的音乐和重新发现旧的喜爱。
先进的代码优化和编译器推理的大型语言模型。
LLM Compiler-7b是Meta开发的一款专注于代码优化和编译器推理的大型语言模型。它基于Code Llama模型,通过深度学习优化代码,支持编译器中间表示、汇编语言和优化的理解。此模型在减少代码大小和从汇编到编译器中间表示的反编译方面展现出卓越的性能,是编译器研究人员和工程师的有力工具。
Phi-3 Mini-128K-Instruct ONNX优化模型促进推理加速
Phi-3 Mini是一个轻量级的顶尖开源模型,建立在Phi-2使用的合成数据和过滤网站之上,专注于高质量的推理密集型数据。这个模型属于Phi-3系列,mini版本有两个变体支持4K和128K上下文长度。该模型经过了严格的增强过程,包括监督式微调和直接偏好优化,以确保精准遵循指令和强大的安全措施。这些经过ONNX优化的Phi-3 Mini模型可在CPU、GPU和移动设备上高效运行。微软还推出了ONNX Runtime Generate() API,简化了Phi-3的使用。
多模态大型语言模型,优化视觉识别和图像推理。
Llama-3.2-90B-Vision是Meta公司发布的一款多模态大型语言模型(LLM),专注于视觉识别、图像推理、图片描述和回答有关图片的一般问题。该模型在常见的行业基准测试中超越了许多现有的开源和封闭的多模态模型。
一款 21B 通用推理模型,适合低延迟应用。
Reka Flash 3 是一款从零开始训练的 21 亿参数的通用推理模型,利用合成和公共数据集进行监督微调,结合基于模型和基于规则的奖励进行强化学习。该模型在低延迟和设备端部署应用中表现优异,具有较强的研究能力。它目前是同类开源模型中的最佳选择,适合于各种自然语言处理任务和应用场景。
全新的Mistral Small,针对低延迟工作负载进行优化
Mistral Small 是针对低延迟和成本优化的新型模型,优于 Mixtral 8x7B,具有更低的延迟,是开放权重产品和旗舰模型之间的卓越中间解决方案。Mistral Small 具有与 Mistral Large 相同的创新,包括RAG-enablement和函数调用。我们简化了终端点供应,提供开放权重终端点以具有竞争性的定价,并推出了新的优化模型终端点 mistral-small-2402 和 mistral-large-2402。
低代码的python机器学习库
PyCaret是一个开源的、低代码的Python机器学习库,它可以自动化机器学习工作流程。PyCaret 可以让你花费更少的时间编写代码,更多的时间用于分析。PyCaret模块化设计,每个模块封装了特定的机器学习任务。PyCaret中一致的函数集可以在工作流中执行任务。PyCaret中有许多数据预处理功能可供选择,从缩放到特征工程。有大量有趣的教程可以帮助你学习PyCaret,你可以从我们的官方教程开始。PyCaret使机器学习变得简单有趣。
比较、测试、构建和部署低代码AI模型
Contentable.ai是一个综合的AI模型测试平台,可以帮助用户快速测试、原型和共享AI模型。它提供了一套完整的工具和功能,使用户能够轻松构建和部署AI模型,从而提高工作效率。
数学推理LLM
MathCoder是一款基于开源语言模型的数学推理工具,通过fine-tune模型和生成高质量的数据集,实现了自然语言、代码和执行结果的交替,提高了数学推理能力。MathCoder模型在MATH和GSM8K数据集上取得了最新的最高分数,远远超过其他开源替代品。MathCoder模型不仅在GSM8K和MATH上超过了ChatGPT-3.5和PaLM-2,还在竞赛级别的MATH数据集上超过了GPT-4。
低延迟语音模型,生成逼真语音
Sonic是由Carteisa团队开发的低延迟语音模型,旨在为各种设备提供逼真的语音生成能力。该模型利用了创新的状态空间模型架构,以实现高分辨率音频和视频的高效、低延迟生成。Sonic模型的延迟仅为135毫秒,是同类模型中最快的。Carteisa团队专注于优化智能的效率,使它更快、更便宜、更易于访问。Sonic模型的发布,标志着实时对话式AI和长期记忆的计算平台的初步进展,预示着未来AI在实时游戏、客户支持等领域的新体验。
快速的本地矢量推理解决方案
Trieve Vector Inference是一个本地矢量推理解决方案,旨在解决文本嵌入服务的高延迟和高限制率问题。它允许用户在自己的云中托管专用的嵌入服务器,以实现更快的文本嵌入推理。该产品通过提供高性能的本地推理服务,帮助企业减少对外部服务的依赖,提高数据处理速度和效率。
NovaSky 是一个专注于代码生成和推理模型优化的人工智能技术平台。
NovaSky 是一个专注于提升代码生成和推理模型性能的人工智能技术平台。它通过创新的测试时扩展技术(如 S*)、强化学习蒸馏推理等技术,显著提升了非推理模型的性能,使其在代码生成领域表现出色。该平台致力于为开发者提供高效、低成本的模型训练和优化解决方案,帮助他们在编程任务中实现更高的效率和准确性。NovaSky 的技术背景源于 Sky Computing Lab @ Berkeley,具有强大的学术支持和前沿的技术研究基础。目前,NovaSky 提供多种模型优化方法,包括但不限于推理成本优化和模型蒸馏技术,满足不同开发者的需求。
低延迟的实时语音交互API
Realtime API 是 OpenAI 推出的一款低延迟语音交互API,它允许开发者在应用程序中构建快速的语音到语音体验。该API支持自然语音到语音对话,并可处理中断,类似于ChatGPT的高级语音模式。它通过WebSocket连接,支持功能调用,使得语音助手能够响应用户请求,触发动作或引入新上下文。该API的推出,意味着开发者不再需要组合多个模型来构建语音体验,而是可以通过单一API调用实现自然对话体验。
低代码前端设计与开发平台
TeleportHQ是一个协作的前端平台,集成了UI开发和内容建模工具。通过强大的可视化构建工具,可以快速创建和发布无头静态网站。还可使用我们的Figma插件将设计转换为响应式网站、组件和界面。提供低代码开发能力,实现定制功能。支持自定义代码、可视修改、创建小部件和交互。可以通过Vercel部署、推送到Github、免费托管网站,或以干净的代码形式下载您的作品。
PygmalionAI的大规模推理引擎
Aphrodite是PygmalionAI的官方后端引擎,旨在为PygmalionAI网站提供推理端点,并允许以极快的速度为大量用户提供Pygmalion模型服务。Aphrodite利用vLLM的分页注意力技术,实现了连续批处理、高效的键值管理、优化的CUDA内核等特性,支持多种量化方案,以提高推理性能。
自动化视觉媒体工作流的低代码平台
MediaFlows 是开发人员使用的低代码平台,可在几分钟内自动化视觉媒体相关的工作流。它提供了丰富的功能,包括使用 AI 摘要视频、使用 AI 生成精彩片段、替换图像背景、生成创意变体、上传时丰富媒体标签等。通过使用 MediaFlows,您可以减少 70% 的编码时间,并轻松构建、扩展和连接整个视觉媒体生态系统。
低代码多代理系统框架
Praison AI 是一个低代码的集中式框架,旨在简化各种大型语言模型(LLM)应用的多代理系统的创建和编排。它强调易用性、可定制性和人机交互。Praison AI 利用 AutoGen 和 CrewAI 或其他代理框架,通过预定义的角色和任务来实现复杂的自动化任务。用户可以通过命令行界面或用户界面与代理进行交互,创建自定义工具,并通过多种方式扩展其功能。
开发者的低代码人工智能平台
Predibase是开发者的低代码人工智能平台,可以在几行配置文件中快速训练、微调和部署任何模型,从线性回归到大型语言模型。它是第一个为开发者打造的低代码人工智能平台,通过使用您的数据和可扩展的基础设施,以及预先训练的模型,帮助您更快地交付价值。
机器人操控的时空关系关键点约束推理
ReKep是一个用于机器人操控的时空关系关键点约束推理系统,它通过将机器人操控任务表示为关联机器人和环境的约束来编码期望的机器人行为。ReKep利用大型视觉模型和视觉-语言模型,无需特定任务训练或环境模型,即可生成基于关键点的约束,这些约束可以被优化以实现多阶段、野外、双手和反应性行为。ReKep的主要优点包括其通用性、无需手动标记以及能够被现成求解器实时优化以产生机器人动作。
Lix是一款B2B爬虫、邮件查找和API工具,帮助用户快速获取商业联系人信息。
Lix是一个强大的B2B搜集工具,可以帮助用户快速获取商业联系人信息。它提供了高效的数据爬取和邮件查找功能,支持Excel和CSV文件导出。Lix的主要优点是快速、易于使用和高度可定制。
多模态大语言模型,提升多模态推理能力
InternVL2-8B-MPO是一个多模态大语言模型(MLLM),通过引入混合偏好优化(MPO)过程,增强了模型的多模态推理能力。该模型在数据方面设计了自动化的偏好数据构建管线,并构建了MMPR这一大规模多模态推理偏好数据集。在模型方面,InternVL2-8B-MPO基于InternVL2-8B初始化,并使用MMPR数据集进行微调,展现出更强的多模态推理能力,且幻觉现象更少。该模型在MathVista上取得了67.0%的准确率,超越InternVL2-8B 8.7个点,且表现接近于大10倍的InternVL2-76B。
BTCAura是一个新闻聚合平台,为交易者和比特币爱好者提供有关价格和市场影响的信息。
BTCAura是一个新闻聚合平台,为交易者和比特币爱好者提供有关比特币价格和市场影响的新闻摘要和最新发展动态。它提供快速、准确的比特币新闻摘要和深度分析,帮助用户保持领先。
轻松构建内部工具的开源低代码平台
ILLA Cloud是一个开源的低代码平台,具备React组件库,可在几分钟内构建内部应用程序。它提供了多种现成的组件和数据库集成,可用于构建AI工具、管理面板、仪表盘等。拥有美观的用户界面、实时协作、与任何数据源连接、可定制的组件等功能。ILLA Cloud可以帮助您以极快的速度构建内部工具。
© 2025 AIbase 备案号:闽ICP备08105208号-14