需求人群:
"GameNGen的目标受众包括游戏开发者、人工智能研究人员和图形设计师。它为游戏开发者提供了一种新的工具,可以快速生成高质量的游戏环境和动画;对于人工智能研究人员,它提供了一个研究实时互动和环境模拟的平台;而对于图形设计师,它提供了一种创新的方式来创造和展示视觉内容。"
使用场景示例:
游戏开发者使用GameNGen快速生成游戏环境和动画
AI研究人员利用GameNGen进行实时互动和环境模拟的研究
图形设计师使用GameNGen创造独特的视觉展示内容
产品特色:
使用神经模型实时模拟复杂环境
在单个TPU上以超过20帧/秒的速度模拟《DOOM》游戏
下一帧预测达到29.4的PSNR,与有损JPEG压缩相当
人类评估者难以区分真实游戏片段与模拟片段
通过RL-agent学习玩游戏并记录训练数据
扩散模型训练,用于预测下一帧
条件增强技术,保持长时间轨迹的视觉稳定性
使用教程:
1. 访问GameNGen的官方网站以获取模型和相关文档
2. 理解模型的工作原理和训练过程
3. 根据需要设置和配置模型参数
4. 利用RL-agent进行游戏训练,收集数据
5. 使用扩散模型进行下一帧的预测
6. 应用条件增强技术以保持视觉稳定性
7. 根据反馈调整模型,优化性能
浏览量:56
最新流量情况
月访问量
73.76k
平均访问时长
00:00:22
每次访问页数
1.52
跳出率
49.10%
流量来源
直接访问
42.02%
自然搜索
13.85%
邮件
0.13%
外链引荐
24.60%
社交媒体
18.78%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
澳大利亚
4.12%
英国
7.44%
印度
4.77%
荷兰
3.59%
美国
38.34%
神经模型驱动的实时游戏引擎
GameNGen是一个完全由神经模型驱动的游戏引擎,能够实现与复杂环境的实时互动,并在长时间轨迹上保持高质量。它能够以每秒超过20帧的速度交互式模拟经典游戏《DOOM》,并且其下一帧预测的PSNR达到29.4,与有损JPEG压缩相当。人类评估者在区分游戏片段和模拟片段方面仅略优于随机机会。GameNGen通过两个阶段的训练:(1)一个RL-agent学习玩游戏并记录训练会话的动作和观察结果,成为生成模型的训练数据;(2)一个扩散模型被训练来预测下一帧,条件是过去的动作和观察序列。条件增强允许在长时间轨迹上稳定自回归生成。
大规模视频生成扩散模型
Sora是一个基于大规模训练的文本控制视频生成扩散模型。它能够生成长达1分钟的高清视频,涵盖广泛的视觉数据类型和分辨率。Sora通过在视频和图像的压缩潜在空间中训练,将其分解为时空位置补丁,实现了可扩展的视频生成。Sora还展现出一些模拟物理世界和数字世界的能力,如三维一致性和交互,揭示了继续扩大视频生成模型规模来发展高能力模拟器的前景。
基于扩散的混合运动动态角色艺术动画生成工具
MikuDance是一个基于扩散的动画生成管道,它结合了混合运动动态来动画化风格化的角色艺术。该技术通过混合运动建模和混合控制扩散两大关键技术,解决了高动态运动和参考引导错位在角色艺术动画中的挑战。MikuDance通过场景运动跟踪策略显式地在像素级空间中建模动态相机,实现统一的角色场景运动建模。在此基础上,混合控制扩散隐式地对不同角色的尺度和体型进行对齐,允许灵活控制局部角色运动。此外,还加入了运动自适应归一化模块,有效注入全局场景运动,为全面的角色艺术动画铺平了道路。通过广泛的实验,MikuDance在各种角色艺术和运动引导下展示了其有效性和泛化能力,始终如一地产生具有显著运动动态的高质量动画。
LLM驱动的多代理角色模拟,增强想象力和商业洞察。
TinyTroupe是一个实验性的Python库,利用大型语言模型(LLMs)如GPT-4来模拟具有特定个性、兴趣和目标的人物。这些人工代理可以在模拟环境中进行交互,帮助我们研究各种令人信服的互动和消费者类型,具有高度可定制的角色。与游戏类LLM基础模拟方法不同,TinyTroupe旨在启发生产力和商业场景,为更成功的项目和产品做出贡献。
视频扩散模型,用于虚拟试穿。
Fashion-VDM是一个视频扩散模型(VDM),用于生成虚拟试穿视频。该模型接受一件衣物图片和人物视频作为输入,旨在生成人物穿着给定衣物的高质量试穿视频,同时保留人物的身份和动作。与传统的基于图像的虚拟试穿相比,Fashion-VDM在衣物细节和时间一致性方面表现出色。该技术的主要优点包括:扩散式架构、分类器自由引导增强控制、单次64帧512px视频生成的渐进式时间训练策略,以及联合图像-视频训练的有效性。Fashion-VDM在视频虚拟试穿领域树立了新的行业标准。
基于文本提示修订图像的大型扩散模型
SeedEdit是Doubao Team推出的大型扩散模型,用于根据任何文本提示修订图像。它通过逐步将图像生成器与强大的图像编辑器对齐,实现了图像重建和图像再生之间的最佳平衡。SeedEdit能够实现高审美/分辨率图像的零样本稳定编辑,并支持图像的连续修订。该技术的重要性在于其能够解决图像编辑问题中成对图像数据稀缺的核心难题,通过将文本到图像(T2I)生成模型视为弱编辑模型,并通过生成带有新提示的新图像来实现“编辑”,然后将其蒸馏并与之对齐到图像条件编辑模型中。
盲图像恢复技术,利用即时生成参考图像恢复破损图像
InstantIR是一种基于扩散模型的盲图像恢复方法,能够在测试时处理未知退化问题,提高模型的泛化能力。该技术通过动态调整生成条件,在推理过程中生成参考图像,从而提供稳健的生成条件。InstantIR的主要优点包括:能够恢复极端退化的图像细节,提供逼真的纹理,并且通过文本描述调节生成参考,实现创造性的图像恢复。该技术由北京大学、InstantX团队和香港中文大学的研究人员共同开发,得到了HuggingFace和fal.ai的赞助支持。
根据人类指令修复和编辑照片的框架
PromptFix是一个综合框架,能够使扩散模型遵循人类指令执行各种图像处理任务。该框架通过构建大规模的指令遵循数据集,提出了高频引导采样方法来控制去噪过程,并设计了辅助提示适配器,利用视觉语言模型增强文本提示,提高模型的任务泛化能力。PromptFix在多种图像处理任务中表现优于先前的方法,并在盲恢复和组合任务中展现出优越的零样本能力。
基于Transformer的实时开放世界AI模型
Oasis是由Decart AI开发的首个可玩、实时、开放世界的AI模型,它是一个互动视频游戏,由Transformer端到端生成,基于逐帧生成。Oasis能够接收用户键盘和鼠标输入,实时生成游戏玩法,内部模拟物理、游戏规则和图形。该模型通过直接观察游戏玩法学习,允许用户移动、跳跃、拾取物品、破坏方块等。Oasis被视为研究更复杂交互世界的基础模型的第一步,未来可能取代传统的游戏引擎。Oasis的实现需要模型架构的改进和模型推理技术的突破,以实现用户与模型的实时交互。Decart AI采用了最新的扩散训练和Transformer模型方法,并结合了大型语言模型(LLMs)来训练一个自回归模型,该模型可以根据用户即时动作生成视频。此外,Decart AI还开发了专有的推理框架,以提供NVIDIA H100 Tensor Core GPU的峰值利用率,并支持Etched即将推出的Sohu芯片。
提高转化率的AI助手
Conversion Agent AI是一个利用人工智能技术提供在线客服助手的平台,旨在提高网站的转化率和改善客户体验。产品背景信息显示,大型公司通过实时客服提升了转化率,而Conversion Agent AI使得中小企业也能以较低成本享受到类似服务。其主要优点包括低成本、即时知识获取、无等待时间等,相较于传统人工客服,AI助手在成本和效率上有明显优势。
大规模视频生成的自回归扩散模型
MarDini是Meta AI Research推出的一款视频扩散模型,它将掩码自回归(MAR)的优势整合到统一的扩散模型(DM)框架中。该模型能够根据任意数量的掩码帧在任意帧位置进行视频生成,支持视频插值、图像到视频生成以及视频扩展等多种视频生成任务。MarDini的设计高效,将大部分计算资源分配给低分辨率规划模型,使得在大规模上进行空间-时间注意力成为可能。MarDini在视频插值方面树立了新的标杆,并且在几次推理步骤内,就能高效生成与更昂贵的高级图像到视频模型相媲美的视频。
视频扩散模型加速工具,无需训练即可生成高质量视频内容。
FasterCache是一种创新的无需训练的策略,旨在加速视频扩散模型的推理过程,并生成高质量的视频内容。这一技术的重要性在于它能够显著提高视频生成的效率,同时保持或提升内容的质量,这对于需要快速生成视频内容的行业来说是非常有价值的。FasterCache由来自香港大学、南洋理工大学和上海人工智能实验室的研究人员共同开发,项目页面提供了更多的视觉结果和详细信息。产品目前免费提供,主要面向视频内容生成、AI研究和开发等领域。
开源视频生成模型
genmoai/models 是一个开源的视频生成模型,代表了视频生成技术的最新进展。该模型名为 Mochi 1,是一个基于 Asymmetric Diffusion Transformer (AsymmDiT) 架构的10亿参数扩散模型,从零开始训练,是迄今为止公开发布的最大的视频生成模型。它具有高保真运动和强提示遵循性,显著缩小了封闭和开放视频生成系统之间的差距。该模型在 Apache 2.0 许可下发布,用户可以在 Genmo 的 playground 上免费试用此模型。
高效能的文本到图像生成模型
Stable Diffusion 3.5 Large Turbo 是一个基于文本生成图像的多模态扩散变换器(MMDiT)模型,采用了对抗性扩散蒸馏(ADD)技术,提高了图像质量、排版、复杂提示理解和资源效率,特别注重减少推理步骤。该模型在生成图像方面表现出色,能够理解和生成复杂的文本提示,适用于多种图像生成场景。它在Hugging Face平台上发布,遵循Stability Community License,适合研究、非商业用途以及年收入少于100万美元的组织或个人免费使用。
高性能的文本到图像生成模型
Stable Diffusion 3.5 Large 是一个基于文本生成图像的多模态扩散变换器(MMDiT)模型,由 Stability AI 开发。该模型在图像质量、排版、复杂提示理解和资源效率方面都有显著提升。它使用三个固定的预训练文本编码器,并通过 QK 归一化技术提高训练稳定性。此外,该模型在训练数据和策略上使用了包括合成数据和过滤后的公开可用数据。Stable Diffusion 3.5 Large 模型在遵守社区许可协议的前提下,可以免费用于研究、非商业用途,以及年收入少于100万美元的组织或个人的商业用途。
AI驱动的辩论模拟,比较两位候选人的领导能力。
这是一个由人工智能技术驱动的辩论模拟网站,通过模拟Kamala Harris和Donald Trump的辩论,展示他们的个性、选举宣言和决策过程。这个实验性项目利用AI生成内容,旨在娱乐和教育,让用户了解不同政治观点和决策风格。网站声明内容可能不准确,提醒用户不要完全依赖网站上的信息。
模拟不同投资策略的表现,辅助投资决策。
投资策略模拟器是一个在线工具,它通过模拟不同的股价模型和投资策略,帮助用户理解各种投资策略在不同市场条件下的表现。该产品使用几何布朗运动模型来模拟股价的连续随机波动,适合相对稳定的大盘股。用户可以设置不同的投资周期和策略,比如买入持有、定投等,来观察投资收益的变化。这个工具的主要优点是简单易懂,能够帮助投资者在不承担实际风险的情况下,学习和比较不同的投资策略。它适合心态平和、不为短期波动所动的长线投资者。目前,该产品是免费的,主要面向教育和娱乐目的,不构成实际的投资建议。
多模型对话,文生图
Silo是一个专注于多模型对话的平台,它通过整合不同的对话模型,为用户提供丰富、深入的交流体验。该平台不仅能够处理文本对话,还能生成图像,为用户提供视觉化的交流方式。Silo的背景信息显示,它是一个创新的尝试,旨在通过技术手段打破传统对话的局限,让交流更加生动和有趣。目前,Silo提供免费试用,具体价格和定位尚未明确。
深度推理AI搜索功能,像人类一样思考和解决问题。
Kimi探索版是Kimi新增的深度推理AI搜索功能,通过理解、拆解问题,再进行搜索和推理给出答案,一次搜索即可精读500个页面。新功能让Kimi能像人类一样思考,提供更准确、实用的搜索结果。还能使用数学模型和编程处理复杂问题,并在必要时进行自我反思以优化答案。简而言之,Kimi探索版让AI搜索更智能,更接近人脑的工作方式。
全能的创造者和编辑器,通过扩散变换遵循指令
ACE是一个基于扩散变换的全能创造者和编辑器,它能够通过统一的条件格式Long-context Condition Unit (LCU)输入,实现多种视觉生成任务的联合训练。ACE通过高效的数据收集方法解决了训练数据缺乏的问题,并通过多模态大型语言模型生成准确的文本指令。ACE在视觉生成领域具有显著的性能优势,可以轻松构建响应任何图像创建请求的聊天系统,避免了视觉代理通常采用的繁琐流程。
逆向绘画技术,重现绘画过程
Inverse Painting 是一种基于扩散模型的方法,能够从一幅目标画作生成绘画过程的时间流逝视频。该技术通过训练学习真实艺术家的绘画过程,能够处理多种艺术风格,并生成类似人类艺术家的绘画过程视频。它结合了文本和区域理解,定义了一组绘画指令,并使用新颖的扩散基础渲染器更新画布。该技术不仅能够处理训练中有限的丙烯画风格,还能为广泛的艺术风格和流派提供合理的结果。
集成空间编织注意力,提升扩散模型的高保真条件
HelloMeme是一个集成了空间编织注意力的扩散模型,旨在将高保真和丰富的条件嵌入到图像生成过程中。该技术通过提取驱动视频中的每一帧特征,并将其作为输入到HMControlModule,从而生成视频。通过进一步优化Animatediff模块,提高了生成视频的连续性和保真度。此外,HelloMeme还支持通过ARKit面部混合形状控制生成的面部表情,以及基于SD1.5的Lora或Checkpoint,实现了框架的热插拔适配器,不会影响T2I模型的泛化能力。
使用扩散模型进行图像外延
Diffusers Image Outpaint 是一个基于扩散模型的图像外延技术,它能够根据已有的图像内容,生成图像的额外部分。这项技术在图像编辑、游戏开发、虚拟现实等领域具有广泛的应用前景。它通过先进的机器学习算法,使得图像生成更加自然和逼真,为用户提供了一种创新的图像处理方式。
通过个性化体验,最大化每个用户的收益。
Coho AI 是一款专注于用户旅程优化和客户留存管理的人工智能平台。它通过分析用户数据,自动发现最有价值的客户,个性化他们的体验,并自动增加每个用户的收入。该平台能够无缝集成到企业的数据中,自动对用户进行细分,识别最佳行动方案,并实时与用户互动,同时跟踪成功并持续优化增长策略。Coho AI 以其无需编码设置、实时行动、简单易用、智能自动化和快速见效等特点,帮助企业提升客户参与度和生命周期价值。
提升基于拖拽的图像编辑的交互性和速度
InstantDrag是一个优化自由的流程,它通过仅使用图像和拖拽指令作为输入,增强了交互性和速度。该技术由两个精心设计的网络组成:拖拽条件的光流生成器(FlowGen)和光流条件的扩散模型(FlowDiffusion)。InstantDrag通过将任务分解为运动生成和运动条件图像生成,学习了基于真实世界视频数据集的拖拽图像编辑的运动动态。它能够在不需要掩码或文本提示的情况下,快速执行逼真的编辑,这使得它成为交互式、实时应用的有前景的解决方案。
统一的图像生成框架,简化多任务图像生成。
OmniGen是一个创新的扩散框架,它将多种图像生成任务统一到单一模型中,无需特定任务的网络或微调。这一技术简化了图像生成流程,提高了效率,降低了开发和维护成本。
用于精确控制扩散模型中概念的低秩适配器
Concept Sliders 是一种用于精确控制扩散模型中概念的技术,它通过低秩适配器(LoRA)在预训练模型之上进行应用,允许艺术家和用户通过简单的文本描述或图像对来训练控制特定属性的方向。这种技术的主要优点是能够在不改变图像整体结构的情况下,对生成的图像进行细微调整,如眼睛大小、光线等,从而实现更精细的控制。它为艺术家提供了一种新的创作表达方式,同时解决了生成模糊或扭曲图像的问题。
利用预训练的图像到视频扩散模型生成连贯中间帧
该产品是一个图像到视频的扩散模型,通过轻量级的微调技术,能够从一对关键帧生成具有连贯运动的连续视频序列。这种方法特别适用于需要在两个静态图像之间生成平滑过渡动画的场景,如动画制作、视频编辑等。它利用了大规模图像到视频扩散模型的强大能力,通过微调使其能够预测两个关键帧之间的视频,从而实现前向和后向的一致性。
© 2024 AIbase 备案号:闽ICP备08105208号-14