构建最节能的人工智能硬件
Rain AI专注于开发高能效的人工智能硬件。在当前能源消耗日益增长的背景下,Rain AI的产品通过优化硬件设计,减少能源消耗,同时保持高性能,这对于数据中心和需要大量计算资源的企业来说至关重要。产品的主要优点包括高能效、高性能和环保。Rain AI的产品背景信息显示,公司致力于推动人工智能技术的可持续发展,通过技术创新减少对环境的影响。产品的价格和定位尚未明确,但可以推测其目标市场为需要高性能计算且对能源效率有高要求的企业。
高性能的7B参数因果语言模型
tiiuae/falcon-mamba-7b是由TII UAE开发的高性能因果语言模型,基于Mamba架构,专为生成任务设计。该模型在多个基准测试中展现出色的表现,并且能够在不同的硬件配置上运行,支持多种精度设置,以适应不同的性能和资源需求。模型的训练使用了先进的3D并行策略和ZeRO优化技术,使其在大规模GPU集群上高效训练成为可能。
为AI基础设施提供领导性的AI性能
AMD Instinct MI325X加速器基于AMD CDNA 3架构,专为AI任务设计,包括基础模型训练、微调和推理,提供卓越的性能和效率。这些产品使AMD的客户和合作伙伴能够在系统、机架和数据中心层面创建高性能和优化的AI解决方案。AMD Instinct MI325X加速器提供了行业领先的内存容量和带宽,支持6.0TB/s的256GB HBM3E,比H200多1.8倍的容量和1.3倍的带宽,提供了更高的FP16和FP8计算性能。
高性能AI加速器,专为AI工作负载设计。
Intel® Gaudi® 3 AI Accelerator是英特尔推出的一款高性能人工智能加速器,它基于高效的英特尔® Gaudi® 平台构建,具备出色的MLPerf基准性能,旨在处理要求苛刻的训练和推理任务。该加速器支持数据中心或云中的大型语言模型、多模态模型和企业RAG等人工智能应用程序,能够在您可能已经拥有的以太网基础设施上运行。无论您需要单个加速器还是数千个加速器,英特尔Gaudi 3都可以在您的AI成功中发挥关键作用。
引领RISC-V革命,提供高性能计算密度
SiFive是RISC-V架构的领导者,提供高性能、高效率的计算解决方案,适用于汽车、AI、数据中心等应用。其产品以优越的性能和效率,以及全球社区的支持,推动了RISC-V技术的发展和应用。
快速AI推理,为开源模型提供即时智能。
Groq是一家提供高性能AI芯片和云服务的公司,专注于为AI模型提供超低延迟的推理服务。其产品GroqCloud™自2024年2月推出以来,已经有超过467,000名开发者使用。Groq的AI芯片技术由Meta的首席AI科学家Yann LeCun提供技术支持,并且获得了BlackRock领投的6.4亿美元融资,公司估值达到28亿美元。Groq的技术优势在于其能够无缝地从其他提供商迁移到Groq,仅需更改三行代码,并且与OpenAI的端点兼容。Groq的AI芯片旨在挑战Nvidia在AI芯片市场的领导地位,为开发者和企业提供更快、更高效的AI推理解决方案。
开源的高性能语言模型,支持多端应用。
Qwen2.5系列语言模型是一系列开源的decoder-only稠密模型,参数规模从0.5B到72B不等,旨在满足不同产品对模型规模的需求。这些模型在自然语言理解、代码生成、数学推理等多个领域表现出色,特别适合需要高性能语言处理能力的应用场景。Qwen2.5系列模型的发布,标志着在大型语言模型领域的一次重要进步,为开发者和研究者提供了强大的工具。
加速科学发现,引领量子计算的未来。
Azure Quantum 是微软推出的量子计算平台,旨在通过先进的量子计算技术加速科学研究和材料科学领域的发现。它通过结合人工智能、高性能计算和量子计算,提供了一套完整的工具和资源,以帮助研究人员和开发者在量子领域取得突破。Azure Quantum 的愿景是将250年的科学进步加速到未来25年,通过量子超级计算机解决人类面临的最困难问题。
AI即时推理解决方案,速度领先世界。
Cerebras Inference是Cerebras公司推出的AI推理平台,提供20倍于GPU的速度和1/5的成本。它利用Cerebras的高性能计算技术,为大规模语言模型、高性能计算等提供快速、高效的推理服务。该平台支持多种AI模型,包括医疗、能源、政府和金融服务等行业应用,具有开放源代码的特性,允许用户训练自己的基础模型或微调开源模型。
AI加速器,推动人工智能的突破
Graphcore是一家专注于人工智能硬件加速器的公司,其产品主要面向需要高性能计算的人工智能领域。Graphcore的IPU(智能处理单元)技术为机器学习、深度学习等AI应用提供了强大的计算支持。公司的产品包括云端IPU、数据中心IPU以及Bow IPU处理器等,这些产品通过Poplar® Software进行优化,能够显著提升AI模型的训练和推理速度。Graphcore的产品和技术在金融、生物技术、科研等多个行业都有应用,帮助企业和研究机构加速AI项目的实验过程,提高效率。
146亿参数的高性能MoE模型
Skywork-MoE是一个具有146亿参数的高性能混合专家(MoE)模型,拥有16个专家和22亿激活参数。该模型从Skywork-13B模型的密集型检查点初始化而来。引入了两种创新技术:门控逻辑归一化,增强专家多样化;自适应辅助损失系数,允许层特定的辅助损失系数调整。Skywork-MoE在各种流行基准测试中,如C-Eval、MMLU、CMMLU、GSM8K、MATH和HumanEval,展现出与参数更多或激活参数更多的模型相当的或更优越的性能。
高性能、成本效益高、气候对齐的云平台
Crusoe提供可扩展的、气候对齐的数字基础设施,专为高性能计算和人工智能优化。我们的创新方法通过使用浪费的、孤立的或清洁能源来减少温室气体排放,支持能源转型,并最大化资源效率。
TensorDock 提供高性能的云端 GPU 服务,专为深度学习、AI 和渲染工作负载设计。
TensorDock 是一个为需要无可妥协可靠性的工作负载而构建的专业云服务提供商。它提供多种 GPU 服务器选项,包括 NVIDIA H100 SXMs,以及针对深度学习、AI 和渲染的最具成本效益的虚拟机基础设施。TensorDock 还提供全托管容器托管服务,具备操作系统级监控、自动扩展和负载均衡功能。此外,TensorDock 提供世界级别的企业支持,由专业人员提供服务。
Llama-3 70B模型的LoRA适配器,扩展上下文长度至超过524K。
Llama-3 70B Gradient 524K Adapter是一个基于Llama-3 70B模型的适配器,由Gradient AI Team开发,旨在通过LoRA技术扩展模型的上下文长度至524K,从而提升模型在处理长文本数据时的性能。该模型使用了先进的训练技术,包括NTK-aware插值和RingAttention库,以高效地在高性能计算集群上进行训练。
世界上最快的AI芯片,拥有惊人的4万亿晶体管
Cerebras Systems宣布推出其第三代5纳米晶圆级引擎(WSE-3),这是一款专为训练业界最大AI模型而设计的芯片。WSE-3的性能是前代产品WSE-2的两倍,同时保持相同的功耗和价格。该芯片基于5纳米工艺,拥有4万亿晶体管,通过900,000个为AI优化的计算核心,提供125 petaflops的峰值AI性能。
数据平台用于云和人工智能
WEKA是一个数据平台,帮助组织在云和本地存储、处理和管理数据,为下一代工作负载提供支持。它提供了快速的数据处理和推理能力,高效的图像处理速度,并解决了大规模数据处理的挑战。WEKA适用于各种行业和应用场景,并提供灵活的定价方案。
稳定AI发布的首个面向编程的生成AI产品
StableCode是稳定AI发布的首个面向编程的生成AI产品。它采用了三种不同的模型,帮助开发者提高编程效率。基础模型首先在BigCode的stack-dataset(v1.2)上进行了训练,并进一步针对流行的编程语言如Python、Go、Java、Javascript、C、markdown和C++进行训练。我们总共在高性能计算集群上对560B个代码令牌进行了训练。随后,通过对基础模型进行调优,训练了约12万个代码指令/响应对,以解决复杂的编程任务。StableCode是学习编程的理想基石,长文本环境窗口模型可为用户提供单行和多行自动完成建议。该模型可以一次处理更多代码(比以前发布的开源模型多2-4倍,上下文窗口为16,000个令牌),使用户能够同时查看或编辑相当于五个平均大小的Python文件的等效代码,这使其成为初学者的理想学习工具,可以迎接更大的挑战。
© 2024 AIbase 备案号:闽ICP备08105208号-14