浏览量:786
最新流量情况
月访问量
4.75m
平均访问时长
00:06:34
每次访问页数
6.10
跳出率
36.20%
流量来源
直接访问
52.19%
自然搜索
32.64%
邮件
0.04%
外链引荐
12.93%
社交媒体
2.02%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
14.32%
德国
3.68%
印度
9.04%
俄罗斯
3.92%
美国
19.25%
一种用于逆渲染的先进学习扩散先验方法,能够从任意图像中恢复物体材质并实现单视图图像重照明。
IntrinsicAnything 是一种先进的图像逆渲染技术,它通过学习扩散模型来优化材质恢复过程,解决了在未知静态光照条件下捕获的图像中物体材质恢复的问题。该技术通过生成模型学习材质先验,将渲染方程分解为漫反射和镜面反射项,利用现有丰富的3D物体数据进行训练,有效地解决了逆渲染过程中的歧义问题。此外,该技术还开发了一种从粗到细的训练策略,利用估计的材质引导扩散模型产生多视图一致性约束,从而获得更稳定和准确的结果。
通过多实例扩散模型将单张图像生成高保真度的3D场景。
MIDI是一种创新的图像到3D场景生成技术,它利用多实例扩散模型,能够从单张图像中直接生成具有准确空间关系的多个3D实例。该技术的核心在于其多实例注意力机制,能够有效捕捉物体间的交互和空间一致性,无需复杂的多步骤处理。MIDI在图像到场景生成领域表现出色,适用于合成数据、真实场景数据以及由文本到图像扩散模型生成的风格化场景图像。其主要优点包括高效性、高保真度和强大的泛化能力。
将图像转换为3D模型,可用于渲染、动画或3D打印。
Shapen是一款创新的在线工具,它利用先进的图像处理和3D建模技术,将2D图像转化为详细的3D模型。这一技术对于设计师、艺术家和创意工作者来说是一个巨大的突破,因为它极大地简化了3D模型的创建过程,降低了3D建模的门槛。用户无需深厚的3D建模知识,只需上传图片,即可快速生成可用于渲染、动画制作或3D打印的模型。Shapen的出现,为创意表达和产品设计带来了全新的可能性,其定价策略和市场定位也使其成为个人创作者和小型工作室的理想选择。
从自然语言提示创建B-Rep CAD文件和网格
Text-to-CAD UI是一个利用自然语言提示生成B-Rep CAD文件和网格的平台。它通过ML-ephant API,由Zoo提供支持,能够将用户的自然语言描述直接转化为精确的CAD模型。这项技术的重要性在于它极大地简化了设计过程,使得非专业人士也能轻松创建复杂的CAD模型,从而推动了设计的民主化和创新。产品背景信息显示,它是由Zoo开发的,旨在通过机器学习技术提升设计效率。关于价格和定位,用户需要登录后才能获取更多信息。
多模态大型语言模型,展示卓越的整体性能。
InternVL2.5-MPO是一个先进的多模态大型语言模型系列,它基于InternVL2.5和混合偏好优化构建。该模型整合了新增量预训练的InternViT与各种预训练的大型语言模型,包括InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。InternVL2.5-MPO在新版本中保留了与InternVL 2.5及其前身相同的模型架构,遵循“ViT-MLP-LLM”范式。该模型支持多图像和视频数据,通过混合偏好优化(MPO)进一步提升模型性能,使其在多模态任务中表现更优。
灵活调整光源位置和强度的AI光照编辑工具
IC-Light V2-Vary是一款基于扩散模型的光照编辑工具,主要针对复杂光照场景中的图像生成和编辑问题,提供了光照一致性约束、大规模数据支持、精确光照编辑等功能。它通过物理光传输理论确保物体在不同光照条件下的表现可以线性组合,减少图像伪影,保持输出结果与实际物理光照条件一致。适用于摄影师、设计师及3D建模专业人士,同时为艺术创作者提供了更多可能性。
ComfyUI去水印工作流,一键去除水印。
ComfyUI Watermark Removal Workflow是一个专门设计用于去除图像水印的插件,它通过高效的算法帮助用户快速清除图片中的水印,恢复图片的原始美观。该插件由Exaflop Labs开发,结合了商业洞察和技术专长,旨在帮助企业实现具体的业务目标。产品背景信息显示,该团队由来自Google和Microsoft的软件工程师以及Intuit Credit Karma的产品经理组成,他们在机器学习系统方面拥有丰富的经验。产品的主要优点包括高效的水印去除能力、易用性以及对企业业务流程的优化。目前,该产品的具体价格和定位信息未在页面中提供。
AI技术预览纹身去除效果,辅助决策
AI Tattoo Removal是一个利用人工智能技术展示纹身去除效果的先进工具。它提供了多种可视化选项和用户友好的界面,适用于考虑纹身去除的个人和专业纹身去除专家。该平台使用尖端的机器学习算法分析并展示纹身去除进度,用户可以查看不同的去除阶段、结果和治疗方案,以更好地理解去除过程。产品的主要优点包括即时可视化、个性化体验和免费的基础功能,同时提供高级功能订阅服务。
8B参数变分自编码器模型,用于高效的文本到图像生成。
Flux.1 Lite是一个由Freepik发布的8B参数的文本到图像生成模型,它是从FLUX.1-dev模型中提取出来的。这个版本相较于原始模型减少了7GB的RAM使用,并提高了23%的运行速度,同时保持了与原始模型相同的精度(bfloat16)。该模型的发布旨在使高质量的AI模型更加易于获取,特别是对于消费级GPU用户。
高效3D高斯重建模型,实现大场景快速重建
Long-LRM是一个用于3D高斯重建的模型,能够从一系列输入图像中重建出大场景。该模型能在1.3秒内处理32张960x540分辨率的源图像,并且仅在单个A100 80G GPU上运行。它结合了最新的Mamba2模块和传统的transformer模块,通过高效的token合并和高斯修剪步骤,在保证质量的同时提高了效率。与传统的前馈模型相比,Long-LRM能够一次性重建整个场景,而不是仅重建场景的一小部分。在大规模场景数据集上,如DL3DV-140和Tanks and Temples,Long-LRM的性能可与基于优化的方法相媲美,同时效率提高了两个数量级。
使用多照明合成的扩散方法重新照明辐射场
这是一种通过利用从2D图像扩散模型提取的先验来创建可重新照明的辐射场的方法。该方法能够将单照明条件下捕获的多视图数据转换为具有多照明效果的数据集,并通过3D高斯splats表示可重新照明的辐射场。这种方法不依赖于精确的几何形状和表面法线,因此更适合处理具有复杂几何形状和反射BRDF的杂乱场景。
开源计算机视觉库
OpenCV是一个跨平台的开源计算机视觉和机器学习软件库,它提供了一系列编程功能,包括但不限于图像处理、视频分析、特征检测、机器学习等。该库广泛应用于学术研究和商业项目中,因其强大的功能和灵活性而受到开发者的青睐。
首个多模态 Mistral 模型,支持图像和文本的混合任务处理。
Pixtral 12B 是 Mistral AI 团队开发的一款多模态 AI 模型,它能够理解自然图像和文档,具备出色的多模态任务处理能力,同时在文本基准测试中也保持了最先进的性能。该模型支持多种图像尺寸和宽高比,能够在长上下文窗口中处理任意数量的图像,是 Mistral Nemo 12B 的升级版,专为多模态推理而设计,不牺牲关键文本处理能力。
构建大型世界模型,感知、生成和与3D世界互动
World Labs 是一家专注于空间智能的公司,致力于构建大型世界模型(Large World Models),以感知、生成和与3D世界进行互动。公司由AI领域的知名科学家、教授、学者和行业领导者共同创立,包括斯坦福大学的Fei-Fei Li教授、密歇根大学的Justin Johnson教授等。他们通过创新的技术和方法,如神经辐射场(NeRF)技术,推动了3D场景重建和新视角合成的发展。World Labs 得到了包括Marc Benioff、Jim Breyer等知名投资者的支持,其技术在AI领域具有重要的应用价值和商业潜力。
专注于计算机视觉和机器学习领域的研究与创新的博客网站
Shangchen Zhou 是一位在计算机视觉和机器学习领域有着深厚研究背景的博士生,他的工作主要集中在视觉内容增强、编辑和生成AI(2D和3D)上。他的研究成果广泛应用于图像和视频的超分辨率、去模糊、低光照增强等领域,为提升视觉内容的质量和用户体验做出了重要贡献。
多模态大型语言模型,支持图像和文本理解。
Pixtral-12b-240910是由Mistral AI团队发布的多模态大型语言模型,它能够处理和理解图像以及文本信息。该模型采用了先进的神经网络架构,能够通过图像和文本的结合输入,提供更加丰富和准确的输出结果。它在图像识别、自然语言处理和多模态交互方面展现出卓越的性能,对于需要图像和文本同时处理的应用场景具有重要意义。
使用Gemini API进行图像物体检测的Streamlit应用
bonding_w_geimini是一个基于Streamlit框架开发的图像处理应用,它允许用户上传图片,通过Gemini API进行物体检测,并在图片上直接绘制出物体的边界框。这个应用利用了机器学习模型来识别和定位图片中的物体,对于图像分析、数据标注和自动化图像处理等领域具有重要意义。
开源数据标注工具,提升机器学习模型性能。
LabelU是一个开源的数据标注工具,适用于需要对图像、视频、音频等数据进行高效标注的场景,以提升机器学习模型的性能和质量。它支持多种标注类型,包括标签分类、文本描述、拉框等,满足不同场景的标注需求。
快速生成带纹理的3D模型
SF3D是一个基于深度学习的3D资产生成模型,它能够从单张图片中快速生成具有UV展开和材质参数的带纹理3D模型。与传统方法相比,SF3D特别针对网格生成进行了训练,集成了快速UV展开技术,能够迅速生成纹理而不是依赖顶点颜色。此外,该模型还能学习材质参数和法线贴图,以提高重建模型的视觉质量。SF3D还引入了一个去照明步骤,有效去除低频照明效果,确保重建的网格在新的照明条件下易于使用。
从单张图片生成3D角色模型
CharacterGen是一个高效的3D角色生成框架,能够从单张输入图片生成具有高质量和一致外观的3D姿势统一的角色网格。它通过流线化的生成管道和图像条件多视图扩散模型,有效校准输入姿势到规范形式,同时保留输入图像的关键属性,解决了多样化姿势带来的挑战。它还采用了基于变换器的通用稀疏视图重建模型,以及纹理反投影策略,生成高质量的纹理图。
先进的视觉基础模型,支持多种视觉和视觉-语言任务。
Florence-2-large-ft是由微软开发的高级视觉基础模型,使用基于提示的方法来处理广泛的视觉和视觉-语言任务。该模型能够通过简单的文本提示执行诸如图像描述、目标检测和分割等任务。它利用FLD-5B数据集,包含54亿个注释,覆盖1.26亿张图像,实现多任务学习。模型的序列到序列架构使其在零样本和微调设置中均表现出色,证明其为有竞争力的视觉基础模型。
先进的单目深度估计模型
Depth Anything V2 是一个经过改进的单目深度估计模型,它通过使用合成图像和大量未标记的真实图像进行训练,提供了比前一版本更精细、更鲁棒的深度预测。该模型在效率和准确性方面都有显著提升,速度比基于Stable Diffusion的最新模型快10倍以上。
从单张图片生成高质量3D网格模型
Unique3D是由清华大学团队开发的一项技术,能够从单张图片中生成高保真度的纹理3D网格模型。这项技术在图像处理和3D建模领域具有重要意义,它使得用户能够快速将2D图像转化为3D模型,为游戏开发、动画制作、虚拟现实等领域提供了强大的技术支持。
从多视角图像创建3D场景
CAT3D是一个利用多视角扩散模型从任意数量的输入图像生成新视角的3D场景的网站。它通过一个强大的3D重建管道,将生成的视图转化为可交互渲染的3D表示。整个处理时间(包括视图生成和3D重建)仅需一分钟。
一个多功能且强大的SDXL-ControlNet模型,适用于各种线条艺术的调节。
MistoLine是一个SDXL-ControlNet模型,能够适应任何类型的线条艺术输入,展示出高精度和出色的稳定性。它基于用户提供的线条艺术生成高质量图像,适用于手绘草图、不同ControlNet线条预处理器和模型生成的轮廓。MistoLine通过采用新颖的线条预处理算法(Anyline)和基于stabilityai/stable-diffusion-xl-base-1.0的Unet模型的重新训练,以及在大型模型训练工程中的创新,展现出在复杂场景下超越现有ControlNet模型的细节恢复、提示对齐和稳定性的优越性能。
IC-Light是一个用于图像照明操纵的项目。
IC-Light项目旨在通过先进的机器学习技术,对图像的照明条件进行操纵,从而实现一致的光照效果。它提供了两种类型的模型:文本条件重照明模型和背景条件模型,两者均以前景图像作为输入。该技术的重要性在于它能够在不依赖复杂提示的情况下,通过简单的文本描述或背景条件,实现对图像照明的精确控制,这对于图像编辑、增强现实、虚拟现实等领域具有重要意义。
一款可以将图像转化为不适合进行机器学习模型训练的"毒药"样本的工具
Nightshade是一款用于保护版权的工具。它可以将图像转化为不适合进行机器学习模型训练的"毒药"样本,从而避免内容被无授权使用。Nightshade不依赖于训练者的善意,而是增加了训练未经授权数据的成本,促使训练者选择从创作者处获得授权。相比于水印等传统方法,Nightshade更加鲁棒,能抵抗各种图像处理,同时对原图的视觉效果影响较小。Nightshade目前作为独立工具提供,未来将与Glaze工具整合发布。
© 2025 AIbase 备案号:闽ICP备08105208号-14