需求人群:
["图像理解","视觉问答","图像标注","图文生成"]
使用场景示例:
将图片描述成文字
回答关于图片的问题
理解图片中的文字信息
产品特色:
零样本图像描述
视觉问答
文本理解
图像地标定位
多语言支持
细粒度图像理解
浏览量:540
最新流量情况
月访问量
4.75m
平均访问时长
00:06:34
每次访问页数
6.10
跳出率
36.20%
流量来源
直接访问
52.19%
自然搜索
32.64%
邮件
0.04%
外链引荐
12.93%
社交媒体
2.02%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
14.32%
德国
3.68%
印度
9.04%
俄罗斯
3.92%
美国
19.25%
通用型视觉语言模型
Qwen-VL 是阿里云推出的通用型视觉语言模型,具有强大的视觉理解和多模态推理能力。它支持零样本图像描述、视觉问答、文本理解、图像地标定位等任务,在多个视觉基准测试中达到或超过当前最优水平。该模型采用 Transformer 结构,以 7B 参数规模进行预训练,支持 448x448 分辨率,可以端到端处理图像与文本的多模态输入与输出。Qwen-VL 的优势包括通用性强、支持多语种、细粒度理解等。它可以广泛应用于图像理解、视觉问答、图像标注、图文生成等任务。
MiniCPM-o 2.6:一款GPT-4o级别,可在手机上实现视觉、语音和多模态直播的MLLM。
MiniCPM-o 2.6 是OpenBMB团队开发的最新多模态大型语言模型(MLLM),具有8B参数,能够在手机等端侧设备上实现高质量的视觉、语音和多模态直播功能。该模型基于SigLip-400M、Whisper-medium-300M、ChatTTS-200M和Qwen2.5-7B构建,采用端到端的方式训练,性能与GPT-4o-202405相当。其主要优点包括领先的视觉能力、先进的语音能力、强大的多模态直播能力、强大的OCR能力以及优越的效率。该模型免费开源,适用于学术研究和商业用途。
高性能的英文学术基准语言模型
OLMo 2 13B是由Allen Institute for AI (Ai2)开发的一款基于Transformer的自回归语言模型,专注于英文学术基准测试。该模型在训练过程中使用了高达5万亿个token,展现出与同等规模的全开放模型相媲美或更优的性能,并在英语学术基准上与Meta和Mistral的开放权重模型竞争。OLMo 2 13B的发布包括所有代码、检查点、日志和相关的训练细节,旨在推动语言模型的科学研究。
Meta 开发的子十亿参数语言模型,适用于设备端应用。
Meta 开发的自回归语言模型,采用优化架构,适合资源受限设备。优点多,如集成多种技术,支持零样本推理等,价格免费,面向自然语言处理研究人员和开发者。
高效优化的600M参数语言模型,专为设备端应用设计。
MobileLLM-600M是由Meta开发的自回归语言模型,采用了优化的Transformer架构,专为资源受限的设备端应用而设计。该模型集成了SwiGLU激活函数、深度薄架构、嵌入共享和分组查询注意力等关键技术。MobileLLM-600M在零样本常识推理任务上取得了显著的性能提升,与之前的125M/350M SoTA模型相比,分别提高了2.7%/4.3%的准确率。该模型的设计理念可扩展至更大模型,如MobileLLM-1B/1.5B,均取得了SoTA结果。
高效优化的子十亿参数语言模型,专为设备端应用设计
MobileLLM-350M是由Meta开发的自回归语言模型,采用优化的Transformer架构,专为设备端应用设计,以满足资源受限的环境。该模型整合了SwiGLU激活函数、深层薄架构、嵌入共享和分组查询注意力等关键技术,实现了在零样本常识推理任务上的显著准确率提升。MobileLLM-350M在保持较小模型尺寸的同时,提供了与更大模型相媲美的性能,是设备端自然语言处理应用的理想选择。
7亿参数的语言模型,展示数据整理技术的有效性。
DCLM-Baseline-7B是一个7亿参数的语言模型,由DataComp for Language Models (DCLM)团队开发,主要使用英语。该模型旨在通过系统化的数据整理技术来提高语言模型的性能。模型训练使用了PyTorch与OpenLM框架,优化器为AdamW,学习率为2e-3,权重衰减为0.05,批次大小为2048序列,序列长度为2048个token,总训练token数达到了2.5T。模型训练硬件使用了H100 GPU。
分析Transformer语言模型的内部工作机制
LLM Transparency Tool(LLM-TT)是一个开源的交互式工具包,用于分析基于Transformer的语言模型的内部工作机制。它允许用户选择模型、添加提示并运行推理,通过可视化的方式展示模型的注意力流动和信息传递路径。该工具旨在提高模型的透明度,帮助研究人员和开发者更好地理解和改进语言模型。
Lepton是一个开源的语言模型搜索平台
Lepton是一个开源的自然语言处理平台,提供语言理解、生成和推理能力。它采用Transformer模型架构,能够进行多轮对话、问答、文本生成等任务。Lepton具有高效、可扩展的特点,可以在多个领域部署使用。
一款强大的小型视觉语言模型,无处不在
moondream是一个使用SigLIP、Phi-1.5和LLaVA训练数据集构建的16亿参数模型。由于使用了LLaVA数据集,权重受CC-BY-SA许可证保护。您可以在Huggingface Spaces上尝试使用它。该模型在VQAv2、GQA、VizWiz和TextVQA基准测试中表现如下:LLaVA-1.5(13.3B参数):80.0、63.3、53.6、61.3;LLaVA-1.5(7.3B参数):78.5、62.0、50.0、58.2;MC-LLaVA-3B(3B参数):64.2、49.6、24.9、38.6;LLaVA-Phi(3B参数):71.4、-、35.9、48.6;moondream1(1.6B参数):74.3、56.3、30.3、39.8。
多模态语言模型预测网络
Honeybee是一个适用于多模态语言模型的局部性增强预测器。它能够提高多模态语言模型在不同下游任务上的性能,如自然语言推理、视觉问答等。Honeybee的优势在于引入了局部性感知机制,可以更好地建模输入样本之间的依赖关系,从而增强多模态语言模型的推理和问答能力。
学习模型间字符串关系,检查视觉世界
这篇论文系统评估了大型语言模型(LLMs)生成和识别逐渐复杂的视觉概念的能力,并展示了如何使用文本模型训练初步的视觉表示学习系统。虽然语言模型不能直接处理像素级的视觉信息,但使用代码表示图像进行研究。LLM 生成的图像虽然不像自然图像,但在图像生成和纠正方面的结果表明,准确建模字符串可以教会语言模型许多关于视觉世界的方面。此外,利用文本模型生成的图像进行自监督视觉表示学习的实验,突出了只使用 LLMs 就能训练能够对自然图像进行语义评估的视觉模型的潜力。
开源视觉基础模型
InternVL通过将ViT模型扩展到60亿参数并与语言模型对齐,构建出目前最大的14B开源视觉基础模型,在视觉感知、跨模态检索、多模态对话等广泛任务上取得了32项state-of-the-art性能。
大规模训练 Transformer 模型的持续研究
Megatron-LM 是由 NVIDIA 应用深度学习研究团队开发的一种强大的大规模 Transformer 模型。该产品用于大规模训练 Transformer 语言模型的持续研究。我们使用混合精度,高效的模型并行和数据并行,以及多节点的 Transformer 模型(如 GPT、BERT 和 T5)的预训练。
通过强化学习驱动的金融推理大模型。
Fin-R1 是一个专为金融领域设计的大型语言模型,旨在提升金融推理能力。由上海财经大学和财跃星辰联合研发,基于 Qwen2.5-7B-Instruct 进行微调和强化学习,具有高效的金融推理能力,适用于银行、证券等核心金融场景。该模型免费开源,便于用户使用和改进。
AI21推出的Jamba 1.6模型,专为企业私有部署设计,具备卓越的长文本处理能力。
Jamba 1.6 是 AI21 推出的最新语言模型,专为企业私有部署而设计。它在长文本处理方面表现出色,能够处理长达 256K 的上下文窗口,采用混合 SSM-Transformer 架构,可高效准确地处理长文本问答任务。该模型在质量上超越了 Mistral、Meta 和 Cohere 等同类模型,同时支持灵活的部署方式,包括在本地或 VPC 中私有部署,确保数据安全。它为企业提供了一种无需在数据安全和模型质量之间妥协的解决方案,适用于需要处理大量数据和长文本的场景,如研发、法律和金融分析等。目前,Jamba 1.6 已在多个企业中得到应用,如 Fnac 使用其进行数据分类,Educa Edtech 利用其构建个性化聊天机器人等。
Inception Labs 推出新一代扩散式大语言模型,提供极速、高效和高质量的语言生成能力。
Inception Labs 是一家专注于开发扩散式大语言模型(dLLMs)的公司。其技术灵感来源于先进的图像和视频生成系统,如 Midjourney 和 Sora。通过扩散模型,Inception Labs 提供了比传统自回归模型快 5-10 倍的速度、更高的效率和更强的生成控制能力。其模型支持并行文本生成,能够纠正错误和幻觉,适合多模态任务,并且在推理和结构化数据生成方面表现出色。公司由斯坦福、UCLA 和康奈尔大学的研究人员和工程师组成,是扩散模型领域的先驱。
OpenManus 是一个无需邀请码即可使用的开源智能代理项目。
OpenManus 是一个开源的智能代理项目,旨在通过开源的方式实现类似于 Manus 的功能,但无需邀请码即可使用。该项目由多个开发者共同开发,基于强大的语言模型和灵活的插件系统,能够快速实现各种复杂的任务。OpenManus 的主要优点是开源、免费且易于扩展,适合开发者和研究人员进行二次开发和研究。项目背景源于对现有智能代理工具的改进需求,目标是打造一个完全开放且易于使用的智能代理平台。
Instella 是由 AMD 开发的高性能开源语言模型,专为加速开源语言模型的发展而设计。
Instella 是由 AMD GenAI 团队开发的一系列高性能开源语言模型,基于 AMD Instinct™ MI300X GPU 训练而成。该模型在性能上显著优于同尺寸的其他开源语言模型,并且在功能上与 Llama-3.2-3B 和 Qwen2.5-3B 等模型相媲美。Instella 提供模型权重、训练代码和训练数据,旨在推动开源语言模型的发展。其主要优点包括高性能、开源开放以及对 AMD 硬件的优化支持。
QwQ-32B 是一款强大的推理模型,专为复杂问题解决和文本生成设计,性能卓越。
QwQ-32B 是 Qwen 系列的推理模型,专注于复杂问题的思考和推理能力。它在下游任务中表现出色,尤其是在解决难题方面。该模型基于 Qwen2.5 架构,经过预训练和强化学习优化,具有 325 亿参数,支持 131072 个完整上下文长度的处理能力。其主要优点包括强大的推理能力、高效的长文本处理能力和灵活的部署选项。该模型适用于需要深度思考和复杂推理的场景,如学术研究、编程辅助和创意写作等。
一种用于可变多层透明图像生成的匿名区域变换器技术。
ART 是一种基于深度学习的图像生成技术,专注于生成可变多层透明图像。它通过匿名区域布局和 Transformer 架构,实现了高效的多层图像生成。该技术的主要优点包括高效性、灵活性以及对多层图像生成的支持。它适用于需要精确控制图像层的场景,如图形设计、视觉特效等领域。目前未明确提及价格和具体定位,但其技术特性表明它可能面向专业用户和企业级应用。
OpenAI推出的最新语言模型GPT-4.5,专注于提升无监督学习能力,提供更自然的交互体验。
GPT-4.5是OpenAI发布的最新语言模型,代表了当前无监督学习技术的前沿水平。该模型通过大规模计算和数据训练,提升了对世界知识的理解和模式识别能力,减少了幻觉现象,能够更自然地与人类进行交互。它在写作、编程、解决问题等任务上表现出色,尤其适合需要高创造力和情感理解的场景。GPT-4.5目前处于研究预览阶段,面向Pro用户和开发者开放,旨在探索其潜在能力。
Gemini 2.0 Flash-Lite 是高效的语言模型,专为长文本处理和多种应用场景优化。
Gemini 2.0 Flash-Lite 是 Google 推出的高效语言模型,专为长文本处理和复杂任务优化。它在推理、多模态、数学和事实性基准测试中表现出色,具备简化的价格策略,使得百万级上下文窗口更加经济实惠。Gemini 2.0 Flash-Lite 已在 Google AI Studio 和 Vertex AI 中全面开放,适合企业级生产使用。
Phi-4-mini-instruct 是一款轻量级的开源语言模型,专注于高质量推理密集型数据。
Phi-4-mini-instruct 是微软推出的一款轻量级开源语言模型,属于 Phi-4 模型家族。它基于合成数据和经过筛选的公开网站数据进行训练,专注于高质量、推理密集型数据。该模型支持 128K 令牌上下文长度,并通过监督微调和直接偏好优化来增强指令遵循能力和安全性。Phi-4-mini-instruct 在多语言支持、推理能力(尤其是数学和逻辑推理)以及低延迟场景下表现出色,适用于资源受限的环境。该模型于 2025 年 2 月发布,支持多种语言,包括英语、中文、日语等。
DeepSeek 是一款先进的 AI 语言模型,擅长逻辑推理、数学和编程任务,提供免费使用。
DeepSeek 是由 High-Flyer 基金支持的中国 AI 实验室开发的先进语言模型,专注于开源模型和创新训练方法。其 R1 系列模型在逻辑推理和问题解决方面表现出色,采用强化学习和混合专家框架优化性能,以低成本实现高效训练。DeepSeek 的开源策略推动了社区创新,同时引发了关于 AI 竞争和开源模型影响力的行业讨论。其免费且无需注册的使用方式进一步降低了用户门槛,适合广泛的应用场景。
一种通过文本迷宫解决任务来增强大型语言模型视觉推理能力的创新方法
AlphaMaze 是一个专注于提升大型语言模型(LLM)视觉推理能力的项目。它通过文本形式描述的迷宫任务来训练模型,使其能够理解和规划空间结构。这种方法不仅避免了复杂的图像处理,还通过文本描述直接评估模型的空间理解能力。其主要优点是能够揭示模型如何思考空间问题,而不仅仅是能否解决问题。该模型基于开源框架,旨在推动语言模型在视觉推理领域的研究和发展。
AlphaMaze 是一款专注于视觉推理任务的解码器语言模型,旨在解决传统语言模型在视觉任务上的不足。
AlphaMaze 是一款专为解决视觉推理任务而设计的解码器语言模型。它通过针对迷宫解谜任务的训练,展示了语言模型在视觉推理方面的潜力。该模型基于 15 亿参数的 Qwen 模型构建,并通过监督微调(SFT)和强化学习(RL)进行训练。其主要优点在于能够将视觉任务转化为文本格式进行推理,从而弥补传统语言模型在空间理解上的不足。该模型的开发背景是提升 AI 在视觉任务上的表现,尤其是在需要逐步推理的场景中。目前,AlphaMaze 作为研究项目,暂未明确其商业化定价和市场定位。
通过Model Context Protocol服务器扩展语言模型的能力。
Smithery是一个基于Model Context Protocol的平台,允许用户通过连接各种服务器来扩展语言模型的功能。它为用户提供了一个灵活的工具集,能够根据需求动态增强语言模型的能力,从而更好地完成各种任务。该平台的核心优势在于其模块化和可扩展性,用户可以根据自己的需求选择合适的服务器进行集成。
© 2025 AIbase 备案号:闽ICP备08105208号-14