需求人群:
"SEED-Story的目标受众主要是人工智能研究人员、数据科学家、创意产业专业人士以及对人工智能创作感兴趣的开发者。该模型能够帮助他们探索和实现创意写作和视觉艺术的新形式,提供一种全新的内容生成方式。"
使用场景示例:
使用SEED-Story生成基于特定历史事件的多模态故事。
结合用户上传的图片,生成个性化的儿童故事书。
为电影或游戏创作提供初始的故事概念和视觉设计。
产品特色:
生成多模态长篇故事:结合文本和图片生成连贯的故事。
基于用户输入的图片和文本:作为故事的起点。
支持最多25个多模态序列的故事生成:尽管训练时最多使用10个序列。
图像风格和角色一致性:确保生成的图片在风格和角色上与故事文本一致。
大规模数据集StoryStream:为训练和基准测试多模态故事生成而设计。
模型权重和训练代码的发布:提供预训练的Tokenizer、De-Tokenizer和基础模型SEED-X。
支持指令调整:通过指令调整进一步优化模型性能。
使用教程:
1. 克隆SEED-Story仓库到本地环境。
2. 安装依赖包,根据requirements.txt配置Python环境。
3. 下载并准备StoryStream数据集,用于训练和测试。
4. 使用提供的脚本进行数据集的分块处理,以提高训练效率。
5. 下载并保存预训练的模型权重到指定文件夹。
6. 运行inference脚本进行多模态故事生成。
7. 利用可视化脚本展示生成的故事和多模态注意力。
8. 通过GPT4 API进行生成结果的评估。
浏览量:52
最新流量情况
月访问量
5.03m
平均访问时长
00:06:29
每次访问页数
5.88
跳出率
37.10%
流量来源
直接访问
52.07%
自然搜索
32.84%
邮件
0.04%
外链引荐
12.88%
社交媒体
2.04%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.85%
德国
3.90%
印度
9.41%
俄罗斯
4.16%
美国
18.95%
多模态长篇故事生成模型
SEED-Story是一个基于大型语言模型(MLLM)的多模态长篇故事生成模型,能够根据用户提供的图片和文本生成丰富、连贯的叙事文本和风格一致的图片。它代表了人工智能在创意写作和视觉艺术领域的前沿技术,具有生成高质量、多模态故事内容的能力,为创意产业提供了新的可能性。
多模态大型语言模型,优化图像与文本交互能力
InternVL2_5-4B-MPO-AWQ是一个多模态大型语言模型(MLLM),专注于提升模型在图像和文本交互任务中的表现。该模型基于InternVL2.5系列,并通过混合偏好优化(MPO)进一步提升性能。它能够处理包括单图像和多图像、视频数据在内的多种输入,适用于需要图像和文本交互理解的复杂任务。InternVL2_5-4B-MPO-AWQ以其卓越的多模态能力,为图像-文本到文本的任务提供了一个强大的解决方案。
多模态大型语言模型,提升文本、图像和视频数据处理能力。
Valley是由字节跳动开发的多模态大型模型(MLLM),旨在处理涉及文本、图像和视频数据的多种任务。该模型在内部电子商务和短视频基准测试中取得了最佳结果,远超过其他开源模型,并在OpenCompass多模态模型评估排行榜上展现了出色的性能,平均得分67.40,位列已知开源MLLMs(<10B)中的前两名。
开源多模态大型语言模型系列
InternVL 2.5是基于InternVL 2.0的高级多模态大型语言模型系列,它在保持核心模型架构的同时,在训练和测试策略以及数据质量方面引入了显著的增强。该模型深入探讨了模型扩展与性能之间的关系,系统地探索了视觉编码器、语言模型、数据集大小和测试时配置的性能趋势。通过在包括多学科推理、文档理解、多图像/视频理解、现实世界理解、多模态幻觉检测、视觉定位、多语言能力和纯语言处理在内的广泛基准测试中进行的广泛评估,InternVL 2.5展现出了与GPT-4o和Claude-3.5-Sonnet等领先商业模型相媲美的竞争力。特别是,该模型是第一个在MMMU基准测试中超过70%的开源MLLM,通过链式思考(CoT)推理实现了3.7个百分点的提升,并展示了测试时扩展的强大潜力。
Amazon Nova是亚马逊新一代的基础模型,提供前沿智能和行业领先的性价比。
Amazon Nova是亚马逊推出的新一代基础模型,能够处理文本、图像和视频提示,使客户能够使用Amazon Nova驱动的生成性AI应用程序理解视频、图表和文档,或生成视频和其他多媒体内容。Amazon Nova模型在亚马逊内部约有1000个生成性AI应用正在运行,旨在帮助内部和外部构建者应对挑战,并在延迟、成本效益、定制化、信息接地和代理能力方面取得有意义的进展。
现代Python数据框库,专为人工智能设计。
DataChain是一个现代的Python数据框库,专为人工智能设计。它旨在将非结构化数据组织成数据集,并在本地机器上大规模处理数据。DataChain不抽象或隐藏AI模型和API调用,而是帮助将它们集成到后现代数据堆栈中。该产品以其高效性、易用性和强大的数据处理能力为主要优点,支持多种数据存储和处理方式,包括图像、视频、文本等多种数据类型,并且能够与PyTorch和TensorFlow等深度学习框架无缝对接。DataChain是开源的,遵循Apache-2.0许可协议,免费供用户使用。
统一文本、音乐和动作生成模型
UniMuMo是一个多模态模型,能够将任意文本、音乐和动作数据作为输入条件,生成跨所有三种模态的输出。该模型通过将音乐、动作和文本转换为基于令牌的表示,通过统一的编码器-解码器转换器架构桥接这些模态。它通过微调现有的单模态预训练模型,显著降低了计算需求。UniMuMo在音乐、动作和文本模态的所有单向生成基准测试中都取得了有竞争力的结果。
情商智商俱佳的多模态大模型
西湖大模型是心辰智能云推出的一款具有高情商和智商的多模态大模型,它能够处理包括文本、图像、声音等多种数据类型,为用户提供智能对话、写作、绘画、语音等AI服务。该模型通过先进的人工智能算法,能够理解和生成自然语言,适用于多种场景,如心理咨询、内容创作、客户服务等,具有高度的定制性和灵活性。西湖大模型的推出,标志着心辰智能云在AI领域的技术实力和创新能力,为用户提供了更加丰富和高效的智能服务体验。
实时更新的多模态模型性能排行榜
OpenCompass多模态排行榜是一个实时更新的平台,用于评估和排名不同的多模态模型(VLMs)。它通过8个多模态基准测试来计算模型的平均得分,并提供详细的性能数据。该平台仅包含开源的VLMs或公开可用的APIs,旨在帮助研究人员和开发者了解当前多模态模型的最新进展和性能表现。
VideoRAG 是一个用于处理极长上下文视频的检索增强型生成框架。
VideoRAG 是一种创新的检索增强型生成框架,专门用于理解和处理极长上下文视频。它通过结合图驱动的文本知识锚定和层次化多模态上下文编码,实现了对无限制长度视频的理解。该框架能够动态构建知识图谱,保持多视频上下文的语义连贯性,并通过自适应多模态融合机制优化检索效率。VideoRAG 的主要优点包括高效的极长上下文视频处理能力、结构化的视频知识索引以及多模态检索能力,使其能够为复杂查询提供全面的回答。该框架在长视频理解领域具有重要的技术价值和应用前景。
OmniHuman-1 是一种基于单张人像和运动信号生成人类视频的多模态框架。
OmniHuman-1 是一个端到端的多模态条件人类视频生成框架,能够基于单张人像和运动信号(如音频、视频或其组合)生成人类视频。该技术通过混合训练策略克服了高质量数据稀缺的问题,支持任意宽高比的图像输入,生成逼真的人类视频。它在弱信号输入(尤其是音频)方面表现出色,适用于多种场景,如虚拟主播、视频制作等。
LLMs 无需任何培训就能看见和听见
MILS是一个由Facebook Research发布的开源项目,旨在展示大型语言模型(LLMs)在未经过任何训练的情况下,能够处理视觉和听觉任务的能力。该技术通过利用预训练的模型和优化算法,实现了对图像、音频和视频的自动描述生成。这一技术突破为多模态人工智能的发展提供了新的思路,展示了LLMs在跨模态任务中的潜力。该模型主要面向研究人员和开发者,为他们提供了一个强大的工具来探索多模态应用。目前该项目是免费开源的,旨在推动学术研究和技术发展。
Janus-Pro-7B 是一个新型的自回归框架,统一多模态理解和生成。
Janus-Pro-7B 是一个强大的多模态模型,能够同时处理文本和图像数据。它通过分离视觉编码路径,解决了传统模型在理解和生成任务中的冲突,提高了模型的灵活性和性能。该模型基于 DeepSeek-LLM 架构,使用 SigLIP-L 作为视觉编码器,支持 384x384 的图像输入,并在多模态任务中表现出色。其主要优点包括高效性、灵活性和强大的多模态处理能力。该模型适用于需要多模态交互的场景,例如图像生成和文本理解。
Humanity's Last Exam 是一个用于衡量大型语言模型能力的多模态基准测试。
Humanity's Last Exam 是一个由全球专家合作开发的多模态基准测试,旨在衡量大型语言模型在学术领域的表现。它包含来自 50 个国家超过 500 个机构的近 1000 名专家贡献的 3000 个问题,覆盖超过 100 个学科。该测试旨在成为最终的封闭式学术基准,通过挑战模型的极限来推动人工智能技术的发展。其主要优点是难度高,能够有效评估模型在复杂学术问题上的表现。
UI-TARS 是一个用于自动化图形用户界面交互的下一代原生 GUI 代理模型。
UI-TARS 是由字节跳动开发的一种新型 GUI 代理模型,专注于通过类似人类的感知、推理和行动能力与图形用户界面进行无缝交互。该模型将感知、推理、定位和记忆等关键组件集成到单一的视觉语言模型中,能够实现无需预定义工作流程或手动规则的端到端任务自动化。其主要优点包括强大的跨平台交互能力、多步任务执行能力以及从合成和真实数据中学习的能力,适用于多种自动化场景,如桌面、移动和网页环境。
MinMo是一款多模态大型语言模型,用于无缝语音交互。
MinMo是阿里巴巴集团通义实验室开发的一款多模态大型语言模型,拥有约80亿参数,专注于实现无缝语音交互。它通过多个阶段的训练,包括语音到文本对齐、文本到语音对齐、语音到语音对齐和全双工交互对齐,在140万小时的多样化语音数据和广泛的语音任务上进行训练。MinMo在语音理解和生成的各种基准测试中达到了最先进的性能,同时保持了文本大型语言模型的能力,并支持全双工对话,即用户和系统之间的同时双向通信。此外,MinMo还提出了一种新颖且简单的语音解码器,在语音生成方面超越了以往的模型。MinMo的指令遵循能力得到了增强,支持根据用户指令控制语音生成,包括情感、方言和语速等细节,并模仿特定的声音。MinMo的语音到文本延迟约为100毫秒,全双工延迟理论上约为600毫秒,实际约为800毫秒。MinMo的开发旨在克服以往对齐多模态模型的主要限制,为用户提供更自然、流畅和人性化的语音交互体验。
全能AI工作空间,实时语音助手搭配多模态画布,助力高效创作与思考。
Albus AI是一个由人工智能驱动的平台,旨在为知识和创意专业人士提供高效的工作空间。通过实时语音助手和多模态画布,用户可以快速处理大量信息,激发新想法,节省宝贵的时间和注意力。该平台利用大型语言模型和机器学习服务,能够连接不同思想,避免用户在多个标签和应用之间来回切换。Albus AI的出现,为创意工作者、记者、研究人员等专业人士提供了强大的辅助工具,帮助他们更好地发挥人类智慧,为社会创造价值。目前,Albus AI提供有限的早期访问价格,订阅价格为9美元。
开源的视觉语言模型,可在多种设备上运行。
Moondream AI是一个开源的视觉语言模型,具有强大的多模态处理能力。它支持多种量化格式,如fp16、int8、int4,能够在服务器、PC、移动设备等多种目标设备上进行GPU和CPU优化推理。其主要优点包括快速、高效、易于部署,且采用Apache 2.0许可证,允许用户自由使用和修改。Moondream AI的定位是为开发者提供一个灵活、高效的人工智能解决方案,适用于需要视觉和语言处理能力的各种应用场景。
Sonus-1:开启大型语言模型(LLMs)的新时代
Sonus-1是Sonus AI推出的一系列大型语言模型(LLMs),旨在推动人工智能的边界。这些模型以其高性能和多应用场景的多功能性而设计,包括Sonus-1 Mini、Sonus-1 Air、Sonus-1 Pro和Sonus-1 Pro (w/ Reasoning)等不同版本,以满足不同需求。Sonus-1 Pro (w/ Reasoning)在多个基准测试中表现突出,特别是在推理和数学问题上,展现了其超越其他专有模型的能力。Sonus AI致力于开发高性能、可负担、可靠且注重隐私的大型语言模型。
多模态大型语言模型,展示卓越的整体性能。
InternVL2.5-MPO是一个先进的多模态大型语言模型系列,它基于InternVL2.5和混合偏好优化构建。该模型整合了新增量预训练的InternViT与各种预训练的大型语言模型,包括InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。InternVL2.5-MPO在新版本中保留了与InternVL 2.5及其前身相同的模型架构,遵循“ViT-MLP-LLM”范式。该模型支持多图像和视频数据,通过混合偏好优化(MPO)进一步提升模型性能,使其在多模态任务中表现更优。
定制化漫画生成模型,连接多模态LLMs和扩散模型。
DiffSensei是一个结合了多模态大型语言模型(LLMs)和扩散模型的定制化漫画生成模型。它能够根据用户提供的文本提示和角色图像,生成可控制的黑白漫画面板,并具有灵活的角色适应性。这项技术的重要性在于它将自然语言处理与图像生成相结合,为漫画创作和个性化内容生成提供了新的可能性。DiffSensei模型以其高质量的图像生成、多样化的应用场景以及对资源的高效利用而受到关注。目前,该模型在GitHub上公开,可以免费下载使用,但具体的使用可能需要一定的计算资源。
知识增强型故事角色定制的统一世界模型
StoryWeaver是一个为知识增强型故事角色定制而设计的统一世界模型,旨在实现单一和多角色故事可视化。该模型基于AAAI 2025论文,能够通过统一的框架处理故事中角色的定制和可视化,这对于自然语言处理和人工智能领域具有重要意义。StoryWeaver的主要优点包括其能够处理复杂故事情境的能力,以及能够持续更新和扩展其功能。产品背景信息显示,该模型将不断更新arXiv论文,并添加更多实验结果。
商业领域基础模型与代理
shoonya是一个专注于现代商业领域的基础模型与代理,提供多语言支持、本地化服务和针对特定商业垂直领域的优化。它通过为电子商务用例特别调整的基础模型,支持多种语言和本地上下文,以推动下一代零售业务的发展。shoonya的技术背景是基于人工智能和机器学习,旨在理解和优化区域商业模式、术语和偏好,为用户提供更加个性化和高效的购物体验。
多模态大型模型,处理文本、图像和视频数据
Valley是由字节跳动开发的尖端多模态大型模型,能够处理涉及文本、图像和视频数据的多种任务。该模型在内部电子商务和短视频基准测试中取得了最佳结果,比其他开源模型表现更优。在OpenCompass测试中,与同规模模型相比,平均得分大于等于67.40,在小于10B模型中排名第二。Valley-Eagle版本参考了Eagle,引入了一个可以灵活调整令牌数量并与原始视觉令牌并行的视觉编码器,增强了模型在极端场景下的性能。
一站式大模型算法、模型及优化工具开源项目
FlagAI是由北京智源人工智能研究院推出的一站式、高质量开源项目,集成了全球各种主流大模型算法技术以及多种大模型并行处理和训练加速技术。它支持高效训练和微调,旨在降低大模型开发和应用的门槛,提高开发效率。FlagAI涵盖了多个领域明星模型,如语言大模型OPT、T5,视觉大模型ViT、Swin Transformer,多模态大模型CLIP等。智源研究院也持续将“悟道2.0”“悟道3.0”大模型项目成果开源至FlagAI,目前该项目已经加入Linux基金会,吸引全球科研力量共同创新、共同贡献。
开源图像到视频生成模型
Ruyi-Mini-7B是由CreateAI团队开发的开源图像到视频生成模型,具有约71亿参数,能够从输入图像生成360p到720p分辨率的视频帧,最长5秒。模型支持不同宽高比,并增强了运动和相机控制功能,提供更大的灵活性和创造力。该模型在Apache 2.0许可下发布,意味着用户可以自由使用和修改。
Astris AI是洛克希德·马丁公司推出的专注于安全的人工智能解决方案。
Astris AI是洛克希德·马丁公司成立的子公司,旨在推动美国国防工业基地和商业行业领域中对高保证要求的人工智能解决方案的采用。Astris AI通过提供洛克希德·马丁公司在人工智能和机器学习领域的领先技术和专业团队,帮助客户开发和部署安全、弹性和可扩展的AI解决方案。Astris AI的成立体现了洛克希德·马丁公司在推进21世纪安全、加强国防工业基础和国家安全方面的承诺,同时也展示了其在整合商业技术以帮助客户应对日益增长的威胁环境方面的领导力。
让人工智能触手可及
Recursal AI致力于使人工智能技术对所有人开放,无论语言或国家。他们的产品包括featherless.ai、RWKV和recursal cloud。featherless.ai提供即时且无需服务器的Hugging Face模型推理服务;RWKV是一个下一代基础模型,支持100多种语言,推理成本降低100倍;recursal cloud则让用户能够轻松地微调和部署RWKV模型。这些产品和技术的主要优点在于它们能够降低AI技术的门槛,提高效率,并支持多语言,这对于全球化背景下的企业和开发者来说至关重要。
大型多模态模型中视频理解的探索
Apollo是一个专注于视频理解的先进大型多模态模型家族。它通过系统性地探索视频-LMMs的设计空间,揭示了驱动性能的关键因素,提供了优化模型性能的实用见解。Apollo通过发现'Scaling Consistency',使得在较小模型和数据集上的设计决策能够可靠地转移到更大的模型上,大幅降低计算成本。Apollo的主要优点包括高效的设计决策、优化的训练计划和数据混合,以及一个新型的基准测试ApolloBench,用于高效评估。
端侧全模态理解模型,软硬协同释放无穹端侧智能
Infini-Megrez是一个由无问芯穹研发的端侧全模态理解模型,它基于Megrez-3B-Instruct扩展,具备图片、文本、音频三种模态数据的理解分析能力,并在图像理解、语言理解和语音理解三个方面均取得最优精度。该模型通过软硬协同优化,确保了各结构参数与主流硬件高度适配,推理速度领先同精度模型最大300%。它简单易用,采用最原始的LLaMA结构,开发者无需任何修改便可将模型部署于各种平台,最小化二次开发复杂度。此外,Infini-Megrez还提供了完整的WebSearch方案,使模型可以自动决策搜索调用时机,在搜索和对话中自动切换,并提供更好的总结效果。
© 2025 AIbase 备案号:闽ICP备08105208号-14