需求人群:
"目标受众为需要进行AI工作负载处理、数据流管理、目标检测、语音和推荐处理的企业和研究机构。SiFive Intelligence XM系列的高效能和高扩展性使其成为这些应用的理想选择。"
使用场景示例:
用于处理大规模AI模型训练和推理任务。
在数据中心中进行高效的数据流管理和分析。
在边缘计算设备中实现实时目标检测和语音处理。
产品特色:
SiFive Matrix Engine:采用Fat Outer Product设计,与4个X-Cores紧密集成,深度融合向量单元。
4个X-Cores每个簇:每个具有双向量单元,执行所有其他层,例如激活函数,新增指数加速指令。
新的矩阵指令:由标量单元获取,源数据来自向量寄存器,目标为每个矩阵累加器。
1个簇=16 TOPS (INT8), 8 TFLOPS (BF16) 每个GHz。
每个XM系列簇提供1TB/s的持续带宽。
XM簇通过两种方式连接到内存:CHI端口用于一致性内存访问,高带宽端口连接到SRAM以存储模型数据。
主机CPU可以是RISC-V、x86或Arm(或不出现)。
系统可以通过CHI跨多个芯片扩展。
使用教程:
1. 访问SiFive官网并下载SiFive Kernel Library。
2. 根据项目需求选择合适的XM系列配置。
3. 集成XM系列到现有的硬件或软件架构中。
4. 使用开源库加速开发过程。
5. 进行系统测试,确保性能满足预期。
6. 根据需要扩展系统,以适应更大规模的计算需求。
浏览量:9
最新流量情况
月访问量
50.18k
平均访问时长
00:01:15
每次访问页数
2.13
跳出率
41.56%
流量来源
直接访问
39.76%
自然搜索
50.12%
邮件
0.08%
外链引荐
7.27%
社交媒体
2.23%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
印度
6.39%
韩国
4.30%
俄罗斯
4.39%
美国
40.51%
高效能AI计算引擎,集成多种计算单元,提供高内存带宽。
SiFive Intelligence XM系列是SiFive推出的高效能AI计算引擎,通过集成标量、向量和矩阵引擎,为计算密集型应用提供极高的性能功耗比。该系列继续SiFive的传统,提供高效的内存带宽,并通过开源SiFive Kernel Library来加速开发时间。
高效处理长文本的先进语言模型
Qwen2.5-Turbo是阿里巴巴开发团队推出的一款能够处理超长文本的语言模型,它在Qwen2.5的基础上进行了优化,支持长达1M个token的上下文,相当于约100万英文单词或150万中文字符。该模型在1M-token Passkey Retrieval任务中实现了100%的准确率,并在RULER长文本评估基准测试中得分93.1,超越了GPT-4和GLM4-9B-1M。Qwen2.5-Turbo不仅在长文本处理上表现出色,还保持了短文本处理的高性能,且成本效益高,每1M个token的处理成本仅为0.3元。
搭载M4芯片家族和Apple Intelligence的全新MacBook Pro
全新MacBook Pro是苹果公司推出的高性能笔记本电脑,它搭载了苹果自家设计的M4系列芯片,包括M4、M4 Pro和M4 Max,提供了更快的处理速度和增强的功能。这款笔记本电脑专为Apple Intelligence设计,这是一个个人智能系统,它改变了用户在Mac上工作、沟通和表达自己的方式,同时保护了用户的隐私。MacBook Pro以其卓越的性能、长达24小时的电池寿命以及先进的12MP Center Stage摄像头等特性,成为了专业人士的首选工具。
高通骁龙8Elite移动平台,引领移动创新之巅
Snapdragon 8 Elite Mobile Platform是高通公司推出的顶级移动平台,代表了骁龙创新的巅峰。该平台首次在移动路线图中引入了高通Oryon™ CPU,提供了前所未有的性能。它通过强大的处理能力、突破性的AI增强功能和一系列前所未有的移动创新,彻底改变了设备上的体验。高通Oryon CPU提供了惊人的速度和效率,增强并扩展了每一次交互。此外,该平台还通过设备上的AI,包括多模态Gen AI和个性化功能,能够支持语音、文本和图像提示,进一步提升了用户的非凡体验。
未来感机器人,轻松上手,玩得尽兴。
BabyAlpha Chat 是一款具有未来感的机器人模型,全身搭载12个高性能执行器,配合蔚蓝自研五层运动控制算法,使得其运动性能极其出众。最大前进速度可达每小时3.2公里,最大旋转速度可达每秒180度。BabyAlpha Chat 不仅是一个高科技玩具,也是教育和娱乐的完美结合,适合各个年龄段的用户。其价格亲民,起售价为4999元,并有特惠活动直降2000元,截止日期为11月16日。
高效能的语言模型,支持本地智能和设备端计算。
Ministral-8B-Instruct-2410是由Mistral AI团队开发的一款大型语言模型,专为本地智能、设备端计算和边缘使用场景设计。该模型在类似的大小模型中表现优异,支持128k上下文窗口和交错滑动窗口注意力机制,能够在多语言和代码数据上进行训练,支持函数调用,词汇量达到131k。Ministral-8B-Instruct-2410模型在各种基准测试中表现出色,包括知识与常识、代码与数学以及多语言支持等方面。该模型在聊天/竞技场(gpt-4o判断)中的性能尤为突出,能够处理复杂的对话和任务。
功能强大的新款 iPad mini,专为 Apple Intelligence 打造
新款 iPad mini 是一款超便携的设备,搭载了强大的 A17 Pro 芯片和支持 Apple Pencil Pro,提供了出色的性能和多功能性。它配备了8.3英寸Liquid Retina显示屏,拥有全天的电池续航能力,并预装了全新的iPadOS 18系统。这款新设备不仅性能出色,而且设计精美,提供了蓝色、紫色、星光色和深空灰四种颜色选择。iPad mini的起售价为499美元,提供了128GB的存储空间,是上一代产品的两倍,为用户带来了极高的性价比。
首款AI PC英特尔®酷睿™至尊台式机处理器
英特尔®酷睿™至尊200系列台式机处理器是首款面向台式机平台的AI PC处理器,为发烧友带来卓越的游戏体验和行业领先的计算性能,同时显著降低功耗。这些处理器拥有多达8个下一代性能核心(P-cores)和多达16个下一代能效核心(E-cores),与上一代相比,在多线程工作负载中性能提升高达14%。这些处理器是首款为发烧友配备神经处理单元(NPU)的台式机处理器,内置Xe GPU,支持最先进的媒体功能。
第三代商用AI移动处理器,为商务用户带来前所未有的AI计算能力和多日电池续航。
AMD Ryzen™ AI PRO 300系列处理器是专为企业用户设计的第三代商用AI移动处理器。它们通过集成的NPU提供高达50+ TOPS的AI处理能力,是市场上同类产品中性能最强的。这些处理器不仅能够处理日常的工作任务,还特别为满足商务环境中对AI计算能力的需求而设计,如实时字幕、语言翻译和高级AI图像生成等。它们基于4nm工艺制造,并采用创新的电源管理技术,能够提供理想的电池续航能力,非常适合需要在移动状态下保持高性能和生产力的商务人士。
下一代旗舰智能手机芯片
MediaTek Dimensity 9400是联发科推出的新一代旗舰智能手机芯片,采用最新的Armv9.2架构和3nm工艺制程,提供卓越的性能和能效比。该芯片支持LPDDR5X内存和UFS 4.0存储,具备强大的AI处理能力,支持先进的摄影和显示技术,以及高速的5G和Wi-Fi 7连接。它代表了移动计算和通信技术的最新进展,为高端智能手机市场提供了强大的动力。
企业级AI系统,定制化智能解决方案。
Inflection AI for Enterprise是一个围绕多亿级终端大型语言模型(LLM)构建的企业AI系统,允许企业完全拥有自己的智能。该系统的基础模型经过针对业务的微调,提供以人为中心、富有同理心的企业AI方法。Inflection 3.0使团队能够构建定制的、安全的、员工友好的AI应用程序,消除了开发障碍,加速了硬件测试和模型构建。此外,Inflection AI与Intel AI硬件和软件结合,使企业能够根据品牌、文化和业务需求定制AI解决方案,降低总体拥有成本(TCO)。
首个无需注意力机制的7B大规模模型
Falcon Mamba是由阿布扎比技术创新研究所(TII)发布的首个无需注意力机制的7B大规模模型。该模型在处理大型序列时,不受序列长度增加导致的计算和存储成本增加的限制,同时保持了与现有最先进模型相当的性能。
高性能AI模型加载器,大幅减少冷启动时间。
Mystic Turbo Registry是一款由Mystic.ai开发的高性能AI模型加载器,采用Rust语言编写,专门针对减少AI模型的冷启动时间进行了优化。它通过提高容器加载效率,显著减少了模型从启动到运行所需的时间,为用户提供了更快的模型响应速度和更高的运行效率。
高性能知识图谱数据库与推理引擎
RDFox 是由牛津大学计算机科学系的三位教授基于数十年知识表示与推理(KRR)研究开发的规则驱动人工智能技术。其独特之处在于:1. 强大的AI推理能力:RDFox 能够像人类一样从数据中创建知识,基于事实进行推理,确保结果的准确性和可解释性。2. 高性能:作为唯一在内存中运行的知识图谱,RDFox 在基准测试中的表现远超其他图技术,能够处理数十亿三元组的复杂数据存储。3. 可扩展部署:RDFox 具有极高的效率和优化的占用空间,可以嵌入边缘和移动设备,作为 AI 应用的大脑独立运行。4. 企业级特性:包括高性能、高可用性、访问控制、可解释性、人类般的推理能力、数据导入和 API 支持等。5. 增量推理:RDFox 的推理功能在数据添加或删除时即时更新,不影响性能,无需重新加载。
领先的LLM服务提供平台
Mooncake是Kimi的服务平台,由Moonshot AI提供,是一个领先的大型语言模型(LLM)服务。它采用了以KVCache为中心的解耦架构,通过分离预填充(prefill)和解码(decoding)集群,以及利用GPU集群中未充分利用的CPU、DRAM和SSD资源来实现KVCache的解耦缓存。Mooncake的核心是其KVCache中心调度器,它在确保满足延迟相关的服务级别目标(SLOs)要求的同时,平衡最大化整体有效吞吐量。与传统研究不同,Mooncake面对的是高度过载的场景,为此开发了基于预测的早期拒绝策略。实验表明,Mooncake在长上下文场景中表现出色,与基线方法相比,在某些模拟场景中吞吐量可提高525%,同时遵守SLOs。在实际工作负载下,Mooncake的创新架构使Kimi能够处理75%以上的请求。
下一代开源AI模型,性能卓越。
Gemma 2是谷歌DeepMind推出的下一代开源AI模型,提供9亿和27亿参数版本,具有卓越的性能和推理效率,支持在不同硬件上以全精度高效运行,大幅降低部署成本。Gemma 2在27亿参数版本中,提供了两倍于其大小模型的竞争力,并且可以在单个NVIDIA H100 Tensor Core GPU或TPU主机上实现,显著降低部署成本。
极速、便捷的匿名在线即时聊天室
AQChatServer是一个接入AI的极速、便捷的匿名在线即时聊天室,基于Netty和protobuf协议实现高性能,对标游戏后端开发,全程无需HTTP协议,支持文本、图片、文件、音频、视频的发送和接收。
端侧可用的GPT-4V级多模态大模型
MiniCPM-Llama3-V 2.5 是 OpenBMB 项目中最新发布的端侧多模态大模型,具备8B参数量,支持超过30种语言的多模态交互,并在多模态综合性能上超越了多个商用闭源模型。该模型通过模型量化、CPU、NPU、编译优化等技术实现了高效的终端设备部署,具有优秀的OCR能力、可信行为以及多语言支持等特点。
AI图片生成式开发者平台
fal.ai 是一款面向开发者的生成媒体平台,提供了业界最快的推理引擎,可以让您以更低的成本运行扩散模型,创造出全新的用户体验。它拥有实时、无缝的 WebSocket 推理基础设施,为开发者带来了卓越的使用体验。fal.ai 的定价方案根据实际使用情况灵活调整,确保您只为消耗的计算资源付费,实现了最佳的可扩展性和经济性。
以低成本实现高性能的大型语言模型
JetMoE-8B是一个开源的大型语言模型,通过使用公共数据集和优化的训练方法,以低于10万美元的成本实现了超越Meta AI LLaMA2-7B的性能。该模型在推理时仅激活22亿参数,大幅降低了计算成本,同时保持了优异的性能。
突破性SSM-Transformer开放模型
Jamba是一款基于SSM-Transformer混合架构的开放语言模型,提供顶级的质量和性能表现。它融合了Transformer和SSM架构的优势,在推理基准测试中表现出色,同时在长上下文场景下提供3倍的吞吐量提升。Jamba是目前该规模下唯一可在单GPU上支持14万字符上下文的模型,成本效益极高。作为基础模型,Jamba旨在供开发者微调、训练并构建定制化解决方案。
多语言高质量文本转语音库
MeloTTS是由MyShell.ai开发的多语言文本转语音库,支持英语、西班牙语、法语、中文、日语和韩语。它能够实现实时CPU推理,适用于多种场景,并且对开源社区开放,欢迎贡献。
高性能、低成本的端到端chat-ruanyifeng向量搜索服务
Aha Vector Search是一个高性能、低成本的端到端向量搜索服务。它提供了一种快速构建端到端向量搜索的方法,帮助用户以更低的成本实现高效的搜索体验。
减少计算并提高模型准确性,轻松高效地构建您的 AI 模型
CentML 是一个高效、节约成本的 AI 模型训练和部署平台。通过使用 CentML,您可以提升 GPU 效率、降低延迟、提高吞吐量,实现计算的高性价比和强大性能。
稳定可靠的开源Web服务器
Apache HTTP Server是一个稳定可靠的开源Web服务器,具有高度可配置性和可扩展性。它支持多种操作系统和编程语言,提供了强大的功能和性能。Apache HTTP Server被广泛用于构建和托管网站,是Web开发的首选工具。它采用了模块化的架构,可以轻松地进行功能扩展和定制。Apache HTTP Server是免费的,适用于个人和商业用途。
© 2024 AIbase 备案号:闽ICP备08105208号-14