Qwen Image AI是阿里巴巴Qwen团队推出的开源图像生成和编辑基础模型,用于准确的图像文本渲染和高级编辑。
Qwen Image AI是一款革命性的20B MMDiT多模态扩散变换器模型,彻底改变了文本到图像生成,具有出色的文本渲染能力。它是第一个成功处理复杂多行文本布局和段落级内容的模型,无论是英文还是中文。建立在先进的扩散技术上,Qwen Image AI在多个基准测试中表现卓越,特别擅长于文本渲染准确性,在这方面其他模型难以匹敌。
Qwen Image是阿里巴巴的免费开源AI图像生成器,擅长在图像中进行文本渲染。
Qwen Image是阿里巴巴推出的免费AI图像生成器,专注于在图像中准确渲染文本,适用于营销人员和内容创作者。它通过生成营销素材、社交媒体内容和多语言视觉图像,准确放置文本,为用户提供高效的营销工具。
实时生成逼真的全身虚拟人头像。
TaoAvatar 是一种高保真、轻量级的 3D 高斯喷溅技术(3DGS)全身虚拟人头像,能够生成个性化的全身动态头像,广泛应用于增强现实等场景。它的主要优点是能够在各种移动设备上以 90 FPS 的高帧率实时渲染,适配 Apple Vision Pro 等高分辨率设备,为用户提供沉浸式体验。
一个高效的无边界3D城市生成框架,使用3D高斯绘制技术实现快速生成。
GaussianCity是一个专注于高效生成无边界3D城市的框架,基于3D高斯绘制技术。该技术通过紧凑的3D场景表示和空间感知的高斯属性解码器,解决了传统方法在生成大规模城市场景时面临的内存和计算瓶颈。其主要优点是能够在单次前向传递中快速生成大规模3D城市,显著优于现有技术。该产品由南洋理工大学S-Lab团队开发,相关论文发表于CVPR 2025,代码和模型已开源,适用于需要高效生成3D城市环境的研究人员和开发者。
专为中小团队设计的AI聊天应用,支持多种AI模型,如Deepseek、Open AI、Claude和Gemini。
HiveChat是一款面向中小团队的AI聊天应用,支持多种主流AI模型,如Deepseek、Open AI、Claude和Gemini等。其核心功能是为团队提供高效、灵活的AI交互体验,支持LaTeX和Markdown渲染、图像理解、AI智能体等功能。该产品通过管理员配置,可实现全团队轻松使用,适用于公司、学校、组织等小型团队。其技术栈包括Next.js、Tailwindcss、Auth.js、PostgreSQL等,支持本地部署、Docker部署和Vercel部署,具有较高的灵活性和可扩展性。
GenColor AI 是一款 AI 智能线稿生成器在线免费版,可将照片或文字描述转换为线稿。
GenColor AI 采用先进的人工智能技术,能够将用户上传的照片或输入的文字描述快速转换为精美的线稿。其技术的重要性在于为绘画爱好者、艺术创作者以及教育工作者等提供了便捷高效的创作工具,降低了线稿创作的门槛,激发了更多人的创意和想象力。该产品定位为面向广大用户的在线免费工具,旨在满足不同用户群体的个性化需求,无论是儿童的涂色活动、成人的艺术创作,还是教育领域的艺术教学等场景都能适用。其免费使用的特点也使得更多人能够轻松体验和使用该工具,进一步拓展了其应用范围。
Pressdeck 是一个专业的新闻稿和媒体资料包托管平台,帮助用户创建和管理新闻稿。
Pressdeck 是一个专注于帮助企业和创作者创建、管理和分发新闻稿和媒体资料包的平台。它通过提供一个简单易用的界面,让用户能够快速搭建一个专业的新闻稿网站,展示产品信息、媒体资源、团队成员等内容。Pressdeck 的主要优点包括高度可定制性、SEO 优化、快速加载速度以及支持团队协作。它适用于各种规模的企业和初创公司,尤其是那些需要频繁与媒体和公众沟通的组织。Pressdeck 提供免费试用,并收取每年 50 美元的费用,以支持持续的服务和更新。
MangaNinja 是一种基于参考的线稿上色方法,可实现精确匹配和细粒度交互控制。
MangaNinja 是一种参考引导的线稿上色方法,它通过独特的设计确保精确的人物细节转录,包括用于促进参考彩色图像和目标线稿之间对应学习的块洗牌模块,以及用于实现细粒度颜色匹配的点驱动控制方案。该模型在自收集的基准测试中表现出色,超越了当前解决方案的精确上色能力。此外,其交互式点控制在处理复杂情况(如极端姿势和阴影)、跨角色上色、多参考协调等方面展现出巨大潜力,这些是现有算法难以实现的。MangaNinja 由来自香港大学、香港科技大学、通义实验室和蚂蚁集团的研究人员共同开发,相关论文已发表在 arXiv 上,代码也已开源。
将图像转换为3D模型,可用于渲染、动画或3D打印。
Shapen是一款创新的在线工具,它利用先进的图像处理和3D建模技术,将2D图像转化为详细的3D模型。这一技术对于设计师、艺术家和创意工作者来说是一个巨大的突破,因为它极大地简化了3D模型的创建过程,降低了3D建模的门槛。用户无需深厚的3D建模知识,只需上传图片,即可快速生成可用于渲染、动画制作或3D打印的模型。Shapen的出现,为创意表达和产品设计带来了全新的可能性,其定价策略和市场定位也使其成为个人创作者和小型工作室的理想选择。
快速创建并分享引人注目的媒体丰富新闻稿。
Releaseify是一个现代新闻稿创建平台,专为数字时代设计。用户可以轻松地在几分钟内创建并分享包含图片、视频、图表、YouTube链接、社交媒体帖子等媒体元素的新闻稿,以吸引注意力。该平台以其简单、透明的定价策略和无需信用卡即可开始使用的免费计划而受到欢迎。它还提供了一个拖放式的现代编辑器,使得创建新闻稿变得简单快捷。
动画创作辅助工具,简化线稿上色流程。
AniDoc是一个自动化线稿上色模型,旨在简化动画制作工作流程并降低劳动成本。该模型利用视频扩散模型的先验知识,通过显式对应机制和注入模块将参考图像的颜色信息对齐到输入草图中,提高颜色准确性。采用两阶段训练策略,减少绘制中间帧的需求。通过二值化草图和数据增强技术,提高训练稳定性。AniDoc在定量和定性结果上均表现出色,为自动线稿视频上色提供了有效的解决方案,提高了动画生产的效率。
创建可动的4D人像化身模型
CAP4D是一种利用可变形多视图扩散模型(Morphable Multi-View Diffusion Models)来创建4D人像化身的技术。它能够从任意数量的参考图像生成不同视角和表情的图像,并将其适配到一个4D化身上,该化身可以通过3DMM控制并实时渲染。这项技术的主要优点包括高度逼真的图像生成、多视角的适应性以及实时渲染的能力。CAP4D的技术背景是基于深度学习和图像生成领域的最新进展,尤其是在扩散模型和3D面部建模方面。由于其高质量的图像生成和实时渲染能力,CAP4D在娱乐、游戏开发、虚拟现实等领域具有广泛的应用前景。目前,该技术是免费提供代码的,但具体的商业化应用可能需要进一步的授权和定价。
高效处理分钟级体素视频数据的新技术
Long Volumetric Video是一种用于重建多视角RGB视频中的长体素视频的新技术。该技术通过Temporal Gaussian Hierarchy这种新颖的4D表示方法,紧凑地模拟长体素视频,解决了传统动态视图合成方法在处理长视频时内存占用大、渲染速度慢的问题。这项技术的主要优点包括训练成本低、渲染速度快和存储使用少,是首个能够高效处理分钟级体素视频数据同时保持高质量渲染的技术。
AI系统从单张图片生成3D世界
这是一个能够从单张图片生成3D世界的AI系统,它允许用户进入任何图片并进行3D探索。这项技术改善了控制和一致性,将改变我们制作电影、游戏、模拟器以及其他数字表现形式的方式。它代表了空间智能的第一步,通过在浏览器中实时渲染生成的世界,用户可以体验不同的相机效果、3D效果,并深入探索经典画作。
实时AI视频生成开源模型
LTXV是Lightricks推出的一个实时AI视频生成开源模型,它代表了视频生成技术的最新发展。LTXV能够提供可扩展的长视频制作能力,优化了GPU和TPU系统,大幅减少了视频生成时间,同时保持了高视觉质量。LTXV的独特之处在于其帧到帧学习技术,确保了帧之间的连贯性,消除了闪烁和场景内的不一致问题。这一技术对于视频制作行业来说是一个巨大的进步,因为它不仅提高了效率,还提升了视频内容的质量。
新媒体投放营销平台,提供新闻稿发布和软文推广服务。
宣小二是一家专注于新媒体投放营销的平台,提供新闻稿发布、软文推广、短视频矩阵发布等服务,旨在帮助广告主、媒体主和编辑记者实现一站式的媒体发稿和内容营销。平台通过汇聚多方资源,打通内容创作与发布全链路,共创价值新高度。宣小二以其全面覆盖热门渠道、精准定位目标受众、高效提升品牌影响力等特点,开启了数字化营销的新篇章。
使用手机扫描创建逼真可重新照明的头像模型
URAvatar是一种新型的头像生成技术,它能够通过手机扫描在未知光照条件下创建出逼真的、可重新照明的头部头像。与传统的通过逆向渲染估计参数反射率参数的方法不同,URAvatar直接模拟学习辐射传递,将全局光照传输有效地整合到实时渲染中。这项技术的重要性在于它能够从单一环境的手机扫描中重建出在多种环境中看起来都逼真的头部模型,并且能够实时驱动和重新照明。
基于AI生成图像的3D渲染模型
Toy Box Flux是一个基于AI生成图像训练的3D渲染模型,它结合了现有的3D LoRA模型和Coloring Book Flux LoRA的权重,形成了独特的风格。该模型特别适合生成具有特定风格的玩具设计图像。它在物体和人物主体上表现最佳,动物的表现则因训练图像中的数据不足而不稳定。此外,该模型还能提高室内3D渲染的真实感。计划在v2版本中通过混合更多生成的输出和预先存在的输出来加强这种风格的一致性。
从单目视频重建时间一致的4D人体模型
DressRecon是一个用于从单目视频重建时间一致的4D人体模型的方法,专注于处理非常宽松的服装或手持物体交互。该技术结合了通用的人体先验知识(从大规模训练数据中学习得到)和针对单个视频的特定“骨骼袋”变形(通过测试时优化进行拟合)。DressRecon通过学习一个神经隐式模型来分离身体与服装变形,作为单独的运动模型层。为了捕捉服装的微妙几何形状,它利用基于图像的先验知识,如人体姿势、表面法线和光流,在优化过程中进行调整。生成的神经场可以提取成时间一致的网格,或者进一步优化为显式的3D高斯,以提高渲染质量和实现交互式可视化。DressRecon在包含高度挑战性服装变形和物体交互的数据集上,提供了比以往技术更高的3D重建保真度。
文本驱动的3D头像生成与全身动画表达
DreamWaltz-G是一个创新的框架,用于从文本驱动生成3D头像和表达性的全身动画。它的核心是骨架引导的评分蒸馏和混合3D高斯头像表示。该框架通过整合3D人类模板的骨架控制到2D扩散模型中,提高了视角和人体姿势的一致性,从而生成高质量的头像,解决了多重面孔、额外肢体和模糊等问题。此外,混合3D高斯头像表示通过结合神经隐式场和参数化3D网格,实现了实时渲染、稳定的SDS优化和富有表现力的动画。DreamWaltz-G在生成和动画3D头像方面非常有效,无论是视觉质量还是动画表现力都超越了现有方法。此外,该框架还支持多种应用,包括人类视频重演和多主题场景组合。
© 2025 AIbase 备案号:闽ICP备08105208号-14