需求人群:
["零售中的需求预测","金融领域的时间序列分析","医疗保健中的数据预测"]
使用场景示例:
在零售业中,提高需求预测准确性可显著降低库存成本并增加收入。
金融领域使用TimesFM进行复杂的时间序列分析。
医疗保健中,使用TimesFM进行数据预测,提升治疗和资源规划效率。
产品特色:
使用大型时序数据集预训练
解码器-only架构
支持不同领域和时间粒度的零-shot预测
浏览量:268
最新流量情况
月访问量
6984
平均访问时长
00:01:09
每次访问页数
1.32
跳出率
78.93%
流量来源
直接访问
42.36%
自然搜索
41.23%
邮件
0.15%
外链引荐
11.03%
社交媒体
4.30%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
7.72%
德国
7.79%
印度
7.62%
俄罗斯
9.14%
美国
16.43%
时序预测的解码器基础模型
TimesFM是一款基于大型时序数据集预训练的解码器基础模型,具有200亿参数。相较于大型语言模型,虽然规模较小,但在不同领域和时间粒度的多个未见数据集上,其零-shot性能接近最先进的监督方法。TimesFM无需额外训练即可提供出色的未见时间序列预测。
稳定扩散VAE的一致性解码器
Consistency Decoder是一种用于稳定扩散VAE的改进解码器,提供更稳定的图像生成。它具有2.49GB的模型大小,支持从原始图像进行编码和使用GAN解码以及一致性解码。该产品定位于为图像生成提供更好的解码效果。
统一大型模型 API调用方式
支持将 openai、claude、azure openai, gemini,kimi, 智谱 AI, 通义千问,讯飞星火 API 等模型服务方的调用转为 openai 方式调用。屏蔽不同大模型 API 的差异,统一用 openai api 标准格式使用大模型。提供多种大型模型支持,包括负载均衡、路由、配置管理等功能。
多模态大型模型,处理文本、图像和视频数据
Valley-Eagle-7B是由字节跳动开发的多模态大型模型,旨在处理涉及文本、图像和视频数据的多种任务。该模型在内部电子商务和短视频基准测试中取得了最佳结果,并在OpenCompass测试中展现出与同规模模型相比的卓越性能。Valley-Eagle-7B结合了LargeMLP和ConvAdapter构建投影器,并引入了VisionEncoder,以增强模型在极端场景下的性能。
多模态大型模型,处理文本、图像和视频数据
Valley是由字节跳动开发的尖端多模态大型模型,能够处理涉及文本、图像和视频数据的多种任务。该模型在内部电子商务和短视频基准测试中取得了最佳结果,比其他开源模型表现更优。在OpenCompass测试中,与同规模模型相比,平均得分大于等于67.40,在小于10B模型中排名第二。Valley-Eagle版本参考了Eagle,引入了一个可以灵活调整令牌数量并与原始视觉令牌并行的视觉编码器,增强了模型在极端场景下的性能。
预训练T5模型,采用段落破坏和替换标记检测
SpacTor是一种新的训练程序,包括(1)结合了段落破坏(SC)和标记替换检测(RTD)的混合目标,以及(2)一个两阶段课程,该课程在初始tau次迭代中优化混合目标,然后过渡到标准的SC损失。我们在多种NLP任务上进行了实验,使用编码器-解码器架构(T5),SpacTor-T5在下游性能方面与标准的SC预训练相当,同时减少了50%的预训练迭代次数和40%的总FLOPs。另外,在相同的计算预算下,我们发现SpacTor能够显著提高下游基准性能。
使用解码器-仅变压器生成三角网格
MeshGPT通过自回归地从经过训练以生成来自学习几何词汇的标记的变压器模型中采样来创建三角网格。这些标记然后可以被解码成三角网格的面。我们的方法生成干净、连贯和紧凑的网格,具有清晰的边缘和高保真度。MeshGPT在形状覆盖率上表现比现有的网格生成方法有显著改进,各种类别的FID得分提高了30个点。
医疗领域先进的大型语言模型
HuatuoGPT-o1-70B是由FreedomIntelligence开发的医疗领域大型语言模型(LLM),专为复杂的医疗推理设计。该模型在提供最终响应之前,会生成一个复杂的思考过程,反映并完善其推理。HuatuoGPT-o1-70B能够处理复杂的医疗问题,提供深思熟虑的答案,这对于提高医疗决策的质量和效率至关重要。该模型基于LLaMA-3.1-70B架构,支持英文,并且可以部署在多种工具上,如vllm或Sglang,或者直接进行推理。
高质量开放数据集平台,为大型模型提供数据支持
OpenDataLab是一个开源数据平台,提供高质量的开放数据集,支持大型AI模型的训练和应用。平台容量巨大,包含5500多个数据集,涵盖1500多种任务类型,总数据量达到80TB以上,下载量超过1064500次。平台提供30多种应用场景、20多种标注类型和5种数据类型,支持数据结构、标注格式和在线可视化的统一标准,实现数据的开放共享和智能搜索,提供结构化的数据信息和可视化的注释和数据分布,方便用户阅读和筛选。平台提供快速下载服务,无需VPN即可从国内云端快速下载数据。
最准确和最快的在线莫尔斯代码翻译器
莫尔斯代码翻译器是一款在线工具,可将莫尔斯代码转换为文本,并将文本转换为莫尔斯代码。它具有快速准确的翻译功能,可以帮助用户轻松翻译和解码莫尔斯代码。用户可以输入莫尔斯代码或文本,然后立即获得相应的翻译结果。莫尔斯代码翻译器还提供莫尔斯代码的音频播放功能,方便用户进行听觉学习。
提供企业级大型语言模型和预测人工智能,帮助企业提升预测能力
Wand AI是一款基于企业级大型语言模型和预测人工智能的数据管理工具。通过使用Wand AI,您可以将数据转化为AI,大大提高业务的预测能力。Wand AI提供自助式、无代码、无麻烦的操作,专为业务用户打造。您只需专注于自己的业务需求,Wand平台为您提供所需的AI解决方案。无论是销售和营销、客户成功、人力资源、风险与合规、运营、采购等领域,Wand AI都能为您提供强大的功能和优势。请访问官方网站了解更多信息。
更有效的提示大型多模态模型,释放潜能
Multimodal-Maestro为您提供更多对大型多模态模型的控制,以获得您想要的输出。通过更有效的提示策略,您可以让多模态模型执行您以前不知道(或认为不可能)的任务。想知道它是如何工作的吗?试试我们的HF空间! 该项目仍在建设中,API可能会发生变化。
先进的代码优化和编译器推理的大型语言模型。
LLM Compiler-7b是Meta开发的一款专注于代码优化和编译器推理的大型语言模型。它基于Code Llama模型,通过深度学习优化代码,支持编译器中间表示、汇编语言和优化的理解。此模型在减少代码大小和从汇编到编译器中间表示的反编译方面展现出卓越的性能,是编译器研究人员和工程师的有力工具。
专为智能手机设计的高效大型语言模型推理框架
PowerInfer-2是一个为智能手机特别优化的推理框架,支持高达47B参数的MoE模型,实现了每秒11.68个token的推理速度,比其他框架快22倍。它通过异构计算和I/O-Compute流水线技术,显著减少了内存使用,并提高了推理速度。该框架适用于需要在移动设备上部署大型模型的场景,以增强数据隐私和性能。
高质量音频生成框架
AudioLM是由Google Research开发的一个框架,用于高质量音频生成,具有长期一致性。它将输入音频映射到离散标记序列,并将音频生成视为这一表示空间中的语言建模任务。AudioLM通过在大量原始音频波形上训练,学习生成自然且连贯的音频续篇,即使在没有文本或注释的情况下,也能生成语法和语义上合理的语音续篇,同时保持说话者的身份和韵律。此外,AudioLM还能生成连贯的钢琴音乐续篇,尽管它在训练时没有使用任何音乐的符号表示。
基于语言模型架构的预训练时间序列预测模型
Chronos是一系列基于语言模型架构的预训练时间序列预测模型。时间序列通过缩放和量化转换为一系列标记,然后使用交叉熵损失训练语言模型。训练完成后,通过给定历史上下文采样多个未来轨迹,获得概率性预测。Chronos模型已经在大量公开可用的时间序列数据和使用高斯过程生成的合成数据上进行了训练。
高效为大型语言模型提供服务
FP6-LLM是一种用于大型语言模型的全新支持方案,通过六位量化(FP6)有效地减小了模型大小,并在各种应用中始终保持模型质量。我们提出了TC-FPx,这是第一个完整的GPU内核设计方案,统一支持各种量化位宽的浮点权重。我们将TC-FPx内核集成到现有推理系统中,为量化的LLM推理提供了全新的端到端支持(称为FP6-LLM),实现了推理成本和模型质量之间更好的权衡。实验证明,FP6-LLM使得使用单个GPU进行LLaMA-70b推理成为可能,实现的规范化推理吞吐量比FP16基准高1.69倍至2.65倍。
AlphaMaze 是一款专注于视觉推理任务的解码器语言模型,旨在解决传统语言模型在视觉任务上的不足。
AlphaMaze 是一款专为解决视觉推理任务而设计的解码器语言模型。它通过针对迷宫解谜任务的训练,展示了语言模型在视觉推理方面的潜力。该模型基于 15 亿参数的 Qwen 模型构建,并通过监督微调(SFT)和强化学习(RL)进行训练。其主要优点在于能够将视觉任务转化为文本格式进行推理,从而弥补传统语言模型在空间理解上的不足。该模型的开发背景是提升 AI 在视觉任务上的表现,尤其是在需要逐步推理的场景中。目前,AlphaMaze 作为研究项目,暂未明确其商业化定价和市场定位。
开源时空基础模型,用于交通预测
OpenCity是一个开源的时空基础模型,专注于交通预测领域。该模型通过整合Transformer架构和图神经网络,有效捕捉和标准化交通数据中的复杂时空依赖关系,实现对不同城市环境的零样本泛化。它在大规模、异构的交通数据集上进行预训练,学习到丰富、可泛化的表示,能够无缝应用于多种交通预测场景。
双语开源数学推理大型语言模型。
InternLM-Math-Plus 是一个最新的双语(英文和中文)开源大型语言模型(LLM),专注于数学推理,具有解决、证明、验证和增强数学问题的能力。它在非正式数学推理(如思维链和代码解释)和正式数学推理(如LEAN 4翻译和证明)方面都有显著的性能提升。
前沿的多模态大型语言模型
NVLM-D-72B是NVIDIA推出的一款多模态大型语言模型,专注于视觉-语言任务,并且通过多模态训练提升了文本性能。该模型在视觉-语言基准测试中取得了与业界领先模型相媲美的成绩。
多模态语音大型语言模型
fixie-ai/ultravox-v0_4_1-llama-3_1-8b是一个基于预训练的Llama3.1-8B-Instruct和whisper-large-v3-turbo的大型语言模型,能够处理语音和文本输入,生成文本输出。该模型通过特殊的<|audio|>伪标记将输入音频转换为嵌入,并生成输出文本。未来版本计划扩展标记词汇以支持生成语义和声学音频标记,进而可以用于声码器产生语音输出。该模型在翻译评估中表现出色,且没有偏好调整,适用于语音代理、语音到语音翻译、语音分析等场景。
开放的大型语言模型排行榜
Open LLM Leaderboard是一个由Hugging Face提供的空间,旨在展示和比较各种大型语言模型的性能。它为开发者、研究人员和企业提供了一个平台,可以查看不同模型在特定任务上的表现,从而帮助用户选择最适合自己需求的模型。
将大型语言模型和聊天引入到 Web 浏览器中
Web LLM 是一个模块化、可定制的 JavaScript 包,可直接将语言模型聊天引入到 Web 浏览器中。一切都在浏览器内部运行,无需服务器支持,并且通过 WebGPU 进行加速。它可以为大家构建 AI 助手提供很多有趣的机会,并在享受 GPU 加速时保护隐私。此项目是 MLC LLM 的附属项目,MLC LLM 可以在 iPhone 和其他本地环境中本地运行 LLM。
Qwen1.5系列首个千亿参数开源模型,多语言支持,高效Transformer解码器架构。
Qwen1.5-110B是Qwen1.5系列中规模最大的模型,拥有1100亿参数,支持多语言,采用高效的Transformer解码器架构,并包含分组查询注意力(GQA),在模型推理时更加高效。它在基础能力评估中与Meta-Llama3-70B相媲美,在Chat评估中表现出色,包括MT-Bench和AlpacaEval 2.0。该模型的发布展示了在模型规模扩展方面的巨大潜力,并且预示着未来通过扩展数据和模型规模,可以获得更大的性能提升。
大模型重塑千行百业
盘古大模型是华为云推出的人工智能解决方案,通过 NLP 大模型、CV 大模型、多模态大模型、预测大模型和科学计算大模型等多个模型,实现对话问答、图像识别、多模态处理、预测分析和科学计算等多种功能。盘古大模型具有高效适配、高效标注和准确可控的特点,可广泛应用于各行各业。详情请访问官方网址。
开发中大规模模型系统的组织
LMSYS Org 是一个组织,旨在使大型模型及其系统基础设施的技术民主化。他们开发了 Vicuna 聊天机器人,其在 7B/13B/33B 规模下可以印象 GPT-4,实现了 90% ChatGPT 质量。同时,还提供 Chatbot Arena 以众包和 Elo 评级系统进行大规模、游戏化评估 LLMs。SGLang 提供了复杂 LLM 程序的高效接口和运行时环境。LMSYS-Chat-1M 是一个大规模真实世界 LLM 对话数据集。FastChat 是一个用于训练、提供服务和评估基于 LLM 的聊天机器人的开放平台。MT-Bench 是一个用于评估聊天机器人的一组具有挑战性、多回合、开放式问题。
© 2025 AIbase 备案号:闽ICP备08105208号-14