浏览量:23
高性能、低成本的端到端chat-ruanyifeng向量搜索服务
Aha Vector Search是一个高性能、低成本的端到端向量搜索服务。它提供了一种快速构建端到端向量搜索的方法,帮助用户以更低的成本实现高效的搜索体验。
高效处理长文本的先进语言模型
Qwen2.5-Turbo是阿里巴巴开发团队推出的一款能够处理超长文本的语言模型,它在Qwen2.5的基础上进行了优化,支持长达1M个token的上下文,相当于约100万英文单词或150万中文字符。该模型在1M-token Passkey Retrieval任务中实现了100%的准确率,并在RULER长文本评估基准测试中得分93.1,超越了GPT-4和GLM4-9B-1M。Qwen2.5-Turbo不仅在长文本处理上表现出色,还保持了短文本处理的高性能,且成本效益高,每1M个token的处理成本仅为0.3元。
AI图片生成式开发者平台
fal.ai 是一款面向开发者的生成媒体平台,提供了业界最快的推理引擎,可以让您以更低的成本运行扩散模型,创造出全新的用户体验。它拥有实时、无缝的 WebSocket 推理基础设施,为开发者带来了卓越的使用体验。fal.ai 的定价方案根据实际使用情况灵活调整,确保您只为消耗的计算资源付费,实现了最佳的可扩展性和经济性。
以低成本实现高性能的大型语言模型
JetMoE-8B是一个开源的大型语言模型,通过使用公共数据集和优化的训练方法,以低于10万美元的成本实现了超越Meta AI LLaMA2-7B的性能。该模型在推理时仅激活22亿参数,大幅降低了计算成本,同时保持了优异的性能。
一个完全由你掌控数据的「被动记录」项目。
Pensieve是一个隐私保护的被动记录项目,它可以自动记录屏幕内容,构建智能索引,并提供便捷的网页界面来检索历史记录。这个项目受到了Rewind和Windows Recall的启发,但与它们不同,Pensieve允许用户完全控制自己的数据,避免了数据传输到不受信任的数据中心。Pensieve的主要优点包括简单安装、完整的数据控制、全文和向量搜索支持、与Ollama集成、兼容任何OpenAI API模型、支持Mac和Windows(Linux支持正在开发中)以及通过插件扩展功能。
AI驱动的数据访问工具,提升私有数据的智能检索效率。
PromptQL是一个专为AI设计的代理数据访问工具,它通过代理查询规划,像人类一样检索数据,首先收集相关信息,然后应用合适的大型语言模型(LLM)进行分类和后续处理,以提高私有数据的检索效率和准确性。这一技术的出现,解决了传统搜索算法在封闭领域中对数据检索的局限性,特别是在用户提出非标准化查询时,PromptQL能够更好地理解和响应。产品背景信息显示,PromptQL旨在通过与用户的紧密合作,免费构建首个代理,以评估和提升现有AI代理/助手的性能。
Go语言库,用于嵌入式向量搜索和语义嵌入
kelindar/search 是一个Go语言库,它提供了嵌入式向量搜索和语义嵌入的功能,基于llama.cpp构建。这个库特别适合于小到中型项目,需要强大的语义搜索能力,同时保持简单高效的实现。它支持GGUF BERT模型,允许用户利用复杂的嵌入技术,而不需要深陷传统搜索系统的复杂性。该库还提供了GPU加速功能,能够在支持的硬件上快速进行计算。如果你的数据集少于100,000条目,这个库可以轻松集成到你的Go应用中,实现语义搜索功能。
搭载M4芯片家族和Apple Intelligence的全新MacBook Pro
全新MacBook Pro是苹果公司推出的高性能笔记本电脑,它搭载了苹果自家设计的M4系列芯片,包括M4、M4 Pro和M4 Max,提供了更快的处理速度和增强的功能。这款笔记本电脑专为Apple Intelligence设计,这是一个个人智能系统,它改变了用户在Mac上工作、沟通和表达自己的方式,同时保护了用户的隐私。MacBook Pro以其卓越的性能、长达24小时的电池寿命以及先进的12MP Center Stage摄像头等特性,成为了专业人士的首选工具。
高通骁龙8Elite移动平台,引领移动创新之巅
Snapdragon 8 Elite Mobile Platform是高通公司推出的顶级移动平台,代表了骁龙创新的巅峰。该平台首次在移动路线图中引入了高通Oryon™ CPU,提供了前所未有的性能。它通过强大的处理能力、突破性的AI增强功能和一系列前所未有的移动创新,彻底改变了设备上的体验。高通Oryon CPU提供了惊人的速度和效率,增强并扩展了每一次交互。此外,该平台还通过设备上的AI,包括多模态Gen AI和个性化功能,能够支持语音、文本和图像提示,进一步提升了用户的非凡体验。
未来感机器人,轻松上手,玩得尽兴。
BabyAlpha Chat 是一款具有未来感的机器人模型,全身搭载12个高性能执行器,配合蔚蓝自研五层运动控制算法,使得其运动性能极其出众。最大前进速度可达每小时3.2公里,最大旋转速度可达每秒180度。BabyAlpha Chat 不仅是一个高科技玩具,也是教育和娱乐的完美结合,适合各个年龄段的用户。其价格亲民,起售价为4999元,并有特惠活动直降2000元,截止日期为11月16日。
高效能的语言模型,支持本地智能和设备端计算。
Ministral-8B-Instruct-2410是由Mistral AI团队开发的一款大型语言模型,专为本地智能、设备端计算和边缘使用场景设计。该模型在类似的大小模型中表现优异,支持128k上下文窗口和交错滑动窗口注意力机制,能够在多语言和代码数据上进行训练,支持函数调用,词汇量达到131k。Ministral-8B-Instruct-2410模型在各种基准测试中表现出色,包括知识与常识、代码与数学以及多语言支持等方面。该模型在聊天/竞技场(gpt-4o判断)中的性能尤为突出,能够处理复杂的对话和任务。
功能强大的新款 iPad mini,专为 Apple Intelligence 打造
新款 iPad mini 是一款超便携的设备,搭载了强大的 A17 Pro 芯片和支持 Apple Pencil Pro,提供了出色的性能和多功能性。它配备了8.3英寸Liquid Retina显示屏,拥有全天的电池续航能力,并预装了全新的iPadOS 18系统。这款新设备不仅性能出色,而且设计精美,提供了蓝色、紫色、星光色和深空灰四种颜色选择。iPad mini的起售价为499美元,提供了128GB的存储空间,是上一代产品的两倍,为用户带来了极高的性价比。
AI云端一体化解决方案,提供模型API、Serverless和GPU租赁服务。
派欧算力云是一个一站式AIGC云服务平台,提供高性价比的GPU基础设施和无缝集成的最前沿AI推理技术。它全面覆盖不同业务阶段的AI需求,加速业务发展。派欧算力云的主要优点包括:高性能的云服务产品、无需管理和运维GPU基础设施、自动弹性扩缩容、全球覆盖的GPU容器实例、7X24小时客户服务。产品背景信息显示,派欧算力云旨在为AI应用开发者提供强大的算力支持,降低开发成本,提高开发效率。
首款AI PC英特尔®酷睿™至尊台式机处理器
英特尔®酷睿™至尊200系列台式机处理器是首款面向台式机平台的AI PC处理器,为发烧友带来卓越的游戏体验和行业领先的计算性能,同时显著降低功耗。这些处理器拥有多达8个下一代性能核心(P-cores)和多达16个下一代能效核心(E-cores),与上一代相比,在多线程工作负载中性能提升高达14%。这些处理器是首款为发烧友配备神经处理单元(NPU)的台式机处理器,内置Xe GPU,支持最先进的媒体功能。
第三代商用AI移动处理器,为商务用户带来前所未有的AI计算能力和多日电池续航。
AMD Ryzen™ AI PRO 300系列处理器是专为企业用户设计的第三代商用AI移动处理器。它们通过集成的NPU提供高达50+ TOPS的AI处理能力,是市场上同类产品中性能最强的。这些处理器不仅能够处理日常的工作任务,还特别为满足商务环境中对AI计算能力的需求而设计,如实时字幕、语言翻译和高级AI图像生成等。它们基于4nm工艺制造,并采用创新的电源管理技术,能够提供理想的电池续航能力,非常适合需要在移动状态下保持高性能和生产力的商务人士。
利用向量搜索技术,实现基于描述搜索相关股票的工具。
概念股搜索器是一款基于自然语言处理和向量搜索技术的在线工具,它能够对用户输入的任意描述进行语义匹配,快速找到与之相关的中国A股上市公司股票。该产品的主要优点在于其创新的搜索方式,能够处理意象、概念、关键词等多种形式的输入,为用户提供一种全新的股票搜索体验。产品背景信息显示,它旨在帮助用户在投资决策时,能够快速获取相关信息,但请注意,搜索结果仅供参考,不构成投资建议。
下一代旗舰智能手机芯片
MediaTek Dimensity 9400是联发科推出的新一代旗舰智能手机芯片,采用最新的Armv9.2架构和3nm工艺制程,提供卓越的性能和能效比。该芯片支持LPDDR5X内存和UFS 4.0存储,具备强大的AI处理能力,支持先进的摄影和显示技术,以及高速的5G和Wi-Fi 7连接。它代表了移动计算和通信技术的最新进展,为高端智能手机市场提供了强大的动力。
企业级AI系统,定制化智能解决方案。
Inflection AI for Enterprise是一个围绕多亿级终端大型语言模型(LLM)构建的企业AI系统,允许企业完全拥有自己的智能。该系统的基础模型经过针对业务的微调,提供以人为中心、富有同理心的企业AI方法。Inflection 3.0使团队能够构建定制的、安全的、员工友好的AI应用程序,消除了开发障碍,加速了硬件测试和模型构建。此外,Inflection AI与Intel AI硬件和软件结合,使企业能够根据品牌、文化和业务需求定制AI解决方案,降低总体拥有成本(TCO)。
高效能AI计算引擎,集成多种计算单元,提供高内存带宽。
SiFive Intelligence XM系列是SiFive推出的高效能AI计算引擎,通过集成标量、向量和矩阵引擎,为计算密集型应用提供极高的性能功耗比。该系列继续SiFive的传统,提供高效的内存带宽,并通过开源SiFive Kernel Library来加速开发时间。
用于检索和生成结合统计数据的文本模型
DataGemma RIG是一系列微调后的Gemma 2模型,旨在帮助大型语言模型(LLMs)访问并整合来自Data Commons的可靠公共统计数据。该模型采用检索式生成方法,通过自然语言查询Data Commons的现有自然语言接口,对响应中的统计数据进行注释。DataGemma RIG在TPUv5e上使用JAX进行训练,目前是早期版本,主要用于学术和研究目的,尚未准备好用于商业或公众使用。
基于记忆的RAG框架,用于全目的应用
MemoRAG是一个基于记忆的RAG框架,它通过高效的超长记忆模型,为各种应用提供支持。与传统的RAG不同,MemoRAG利用其记忆模型实现对整个数据库的全局理解,通过从记忆中回忆查询特定的线索,增强证据检索,从而生成更准确、更丰富的上下文响应。MemoRAG的开发活跃,不断有资源和原型在此仓库发布。
按需使用AI工具,每次仅需1美元。
DollarAI是一个提供按需AI工具服务的平台,用户可以根据自己的需求选择并使用特定的AI工具,每次使用仅需支付1美元,无需订阅服务。这种模式降低了用户的使用门槛,使得AI技术更加普及和便捷。
首个无需注意力机制的7B大规模模型
Falcon Mamba是由阿布扎比技术创新研究所(TII)发布的首个无需注意力机制的7B大规模模型。该模型在处理大型序列时,不受序列长度增加导致的计算和存储成本增加的限制,同时保持了与现有最先进模型相当的性能。
高性能AI模型加载器,大幅减少冷启动时间。
Mystic Turbo Registry是一款由Mystic.ai开发的高性能AI模型加载器,采用Rust语言编写,专门针对减少AI模型的冷启动时间进行了优化。它通过提高容器加载效率,显著减少了模型从启动到运行所需的时间,为用户提供了更快的模型响应速度和更高的运行效率。
AI驱动的AI工具搜索引擎
DiscovAI-search 是一个基于AI技术的搜索引擎,专为AI工具和自定义数据设计。它利用向量搜索技术,将用户查询转换为向量,实现精确的相似性匹配。通过Redis缓存技术,显著提高了重复查询的响应速度。此外,它还拥有一个全面的AI产品数据库,涵盖了不同类别和行业的AI产品。利用大型语言模型(LLM)提供基于搜索结果的详细、上下文感知的答案。界面友好,易于使用,帮助用户高效地发现AI产品。
高性能知识图谱数据库与推理引擎
RDFox 是由牛津大学计算机科学系的三位教授基于数十年知识表示与推理(KRR)研究开发的规则驱动人工智能技术。其独特之处在于:1. 强大的AI推理能力:RDFox 能够像人类一样从数据中创建知识,基于事实进行推理,确保结果的准确性和可解释性。2. 高性能:作为唯一在内存中运行的知识图谱,RDFox 在基准测试中的表现远超其他图技术,能够处理数十亿三元组的复杂数据存储。3. 可扩展部署:RDFox 具有极高的效率和优化的占用空间,可以嵌入边缘和移动设备,作为 AI 应用的大脑独立运行。4. 企业级特性:包括高性能、高可用性、访问控制、可解释性、人类般的推理能力、数据导入和 API 支持等。5. 增量推理:RDFox 的推理功能在数据添加或删除时即时更新,不影响性能,无需重新加载。
一站式RAG搜索SDK
Korvus是一个基于Postgres构建的搜索SDK,它将整个RAG(检索增强生成)流程统一到单一的数据库查询中。它提供了高性能、可定制的搜索能力,同时最小化了基础设施的考虑。Korvus利用PostgresML的pgml扩展和pgvector扩展,将RAG流程压缩在Postgres内部。它支持多语言SDK,包括Python、JavaScript、Rust和C,允许开发者无缝集成到现有的技术栈中。
领先的LLM服务提供平台
Mooncake是Kimi的服务平台,由Moonshot AI提供,是一个领先的大型语言模型(LLM)服务。它采用了以KVCache为中心的解耦架构,通过分离预填充(prefill)和解码(decoding)集群,以及利用GPU集群中未充分利用的CPU、DRAM和SSD资源来实现KVCache的解耦缓存。Mooncake的核心是其KVCache中心调度器,它在确保满足延迟相关的服务级别目标(SLOs)要求的同时,平衡最大化整体有效吞吐量。与传统研究不同,Mooncake面对的是高度过载的场景,为此开发了基于预测的早期拒绝策略。实验表明,Mooncake在长上下文场景中表现出色,与基线方法相比,在某些模拟场景中吞吐量可提高525%,同时遵守SLOs。在实际工作负载下,Mooncake的创新架构使Kimi能够处理75%以上的请求。
© 2024 AIbase 备案号:闽ICP备08105208号-14