需求人群:
["虚拟试衣","虚拟社交","数字化身","元宇宙场景"]
使用场景示例:
使用单张侧视图像重建高质量3D虚拟人物
实现复杂服装的精准模拟
可直接用于3D打印
可用于动画和数字娱乐内容创作
产品特色:
应用于虚拟场景创建
支持3D打印
实现纹理编辑
可用于动画制作
支持野外场景重建
浏览量:123
最新流量情况
月访问量
5.21m
平均访问时长
00:06:29
每次访问页数
6.12
跳出率
35.96%
流量来源
直接访问
52.10%
自然搜索
32.78%
邮件
0.05%
外链引荐
12.82%
社交媒体
2.16%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.96%
德国
3.65%
印度
9.02%
俄罗斯
4.03%
美国
19.10%
一种利用侧视图像重建3D服装虚拟人物的方法
SIFU是一个利用侧视图像重建高质量3D服装虚拟人物模型的方法。它的核心创新点是提出了一种新的基于侧视图像的隐式函数,可以增强特征提取和提高几何精度。此外,SIFU还引入了一种3D一致的纹理优化过程,可大大提升纹理质量,借助文本到图像的diffusion模型实现纹理编辑。SIFU擅长处理复杂姿势和宽松衣物,是实际应用中理想的解决方案。
用于微调Meta Llama模型的库和示例脚本集合
llama-recipes是Meta Llama模型的配套仓库,旨在提供一个可扩展的库,用于微调Meta Llama模型,并提供一些示例脚本和笔记本,以便快速开始使用模型在各种用例中,包括领域适应的微调和构建基于LLM的应用程序。
一个统一的用于图像和视频对象分割的模型
UniRef是一个统一的用于图像和视频参考对象分割的模型。它支持语义参考图像分割(RIS)、少样本分割(FSS)、语义参考视频对象分割(RVOS)和视频对象分割(VOS)等多种任务。UniRef的核心是UniFusion模块,它可以高效地将各种参考信息注入到基础网络中。 UniRef可以作为SAM等基础模型的插件组件使用。UniRef提供了在多个基准数据集上训练好的模型,同时也开源了代码以供研究使用。
一款用于训练PyTorch计算机视觉模型的开源库。
YOLO-NAS Pose是一款免费的、开源的库,用于训练基于PyTorch的计算机视觉模型。它提供了训练脚本和快速简单复制模型结果的示例。内置SOTA模型,可以轻松加载和微调生产就绪的预训练模型,包括最佳实践和验证的超参数,以实现最佳的准确性。可以缩短训练生命周期,消除不确定性。提供分类、检测、分割等不同任务的模型,可以轻松集成到代码库中。
为 Diffusion Transformer 提供高效灵活的控制框架。
EasyControl 是一个为 Diffusion Transformer(扩散变换器)提供高效灵活控制的框架,旨在解决当前 DiT 生态系统中存在的效率瓶颈和模型适应性不足等问题。其主要优点包括:支持多种条件组合、提高生成灵活性和推理效率。该产品是基于最新研究成果开发的,适合在图像生成、风格转换等领域使用。
高保真可动画 3D 人类重建模型,快速生成动画角色。
LHM(大规模可动画人类重建模型)利用多模态变压器架构进行高保真 3D 头像重建,支持从单张图像生成可动画的 3D 人类形象。该模型能够详细保留服装几何和纹理,尤其是在面部身份和细节恢复方面表现优异,适合对 3D 重建精度有较高要求的应用场景。
一种无混叠的任意尺度超分辨率方法。
Thera 是一种先进的超分辨率技术,能够在不同尺度下生成高质量图像。其主要优点在于内置物理观察模型,有效避免了混叠现象。该技术由 ETH Zurich 的研究团队开发,适用于图像增强和计算机视觉领域,尤其在遥感和摄影测量中具有广泛应用。
通过多实例扩散模型将单张图像生成高保真度的3D场景。
MIDI是一种创新的图像到3D场景生成技术,它利用多实例扩散模型,能够从单张图像中直接生成具有准确空间关系的多个3D实例。该技术的核心在于其多实例注意力机制,能够有效捕捉物体间的交互和空间一致性,无需复杂的多步骤处理。MIDI在图像到场景生成领域表现出色,适用于合成数据、真实场景数据以及由文本到图像扩散模型生成的风格化场景图像。其主要优点包括高效性、高保真度和强大的泛化能力。
Flux 是一个用于 GPU 上张量/专家并行的快速通信重叠库。
Flux 是由字节跳动开发的一个高性能通信重叠库,专为 GPU 上的张量和专家并行设计。它通过高效的内核和对 PyTorch 的兼容性,支持多种并行化策略,适用于大规模模型训练和推理。Flux 的主要优点包括高性能、易于集成和对多种 NVIDIA GPU 架构的支持。它在大规模分布式训练中表现出色,尤其是在 Mixture-of-Experts (MoE) 模型中,能够显著提高计算效率。
Atom of Thoughts (AoT) 是一种用于提升大语言模型推理性能的框架。
Atom of Thoughts (AoT) 是一种新型推理框架,通过将解决方案表示为原子问题的组合,将推理过程转化为马尔可夫过程。该框架通过分解和收缩机制,显著提升了大语言模型在推理任务上的性能,同时减少了计算资源的浪费。AoT 不仅可以作为独立的推理方法,还可以作为现有测试时扩展方法的插件,灵活结合不同方法的优势。该框架开源且基于 Python 实现,适合研究人员和开发者在自然语言处理和大语言模型领域进行实验和应用。
一个高效的无边界3D城市生成框架,使用3D高斯绘制技术实现快速生成。
GaussianCity是一个专注于高效生成无边界3D城市的框架,基于3D高斯绘制技术。该技术通过紧凑的3D场景表示和空间感知的高斯属性解码器,解决了传统方法在生成大规模城市场景时面临的内存和计算瓶颈。其主要优点是能够在单次前向传递中快速生成大规模3D城市,显著优于现有技术。该产品由南洋理工大学S-Lab团队开发,相关论文发表于CVPR 2025,代码和模型已开源,适用于需要高效生成3D城市环境的研究人员和开发者。
将任何网页转化为Python编程环境,无需设置即可执行代码。
Cliprun 是一款基于浏览器的 Python 编程工具,通过 Chrome 插件的形式,让用户能够在任何网页上直接运行 Python 代码。它利用 Pyodide 技术,实现了无需本地环境配置的即时代码执行。该工具的主要优点包括无需安装 Python 环境、支持多种常用 Python 库(如 pandas、numpy、matplotlib 等)、提供代码片段保存功能以及支持数据可视化和自动化脚本运行。Cliprun 主要面向开发者、数据分析师和编程学习者,旨在提供一个便捷、高效的在线编程环境,帮助用户快速实现代码测试、数据分析和自动化任务。
一个基于 DuckDB 和 3FS 构建的轻量级数据处理框架
Smallpond 是一个高性能的数据处理框架,专为大规模数据处理而设计。它基于 DuckDB 和 3FS 构建,能够高效处理 PB 级数据集,无需长时间运行的服务。Smallpond 提供了简单易用的 API,支持 Python 3.8 至 3.12,适合数据科学家和工程师快速开发和部署数据处理任务。其开源特性使得开发者可以自由定制和扩展功能。
一个结合了电子表格功能和Python数据分析能力的AI驱动的桌面客户端应用。
Probly是一款创新的桌面客户端应用,它将电子表格的便捷性与Python的强大数据分析能力相结合。通过在浏览器中运行Python代码(使用WebAssembly技术),用户可以在本地进行高效的数据分析,同时利用AI技术获得智能建议和自动化分析。该产品主要面向需要进行复杂数据分析但又希望保持操作便捷性的用户,例如数据分析师、研究人员和企业用户。Probly通过本地运行的架构设计,确保了数据的隐私性和高性能,同时提供了丰富的功能和灵活的扩展性。
分析 V3/R1 中的计算与通信重叠策略,提供深度学习框架的性能分析数据。
DeepSeek Profile Data 是一个专注于深度学习框架性能分析的项目。它通过 PyTorch Profiler 捕获训练和推理框架的性能数据,帮助研究人员和开发者更好地理解计算与通信重叠策略以及底层实现细节。这些数据对于优化大规模分布式训练和推理任务至关重要,能够显著提升系统的效率和性能。该项目是 DeepSeek 团队在深度学习基础设施领域的重要贡献,旨在推动社区对高效计算策略的探索。
MLGym是一个用于推进AI研究代理的新框架和基准。
MLGym是由Meta的GenAI团队和UCSB NLP团队开发的一个开源框架和基准,用于训练和评估AI研究代理。它通过提供多样化的AI研究任务,推动强化学习算法的发展,帮助研究人员在真实世界的研究场景中训练和评估模型。该框架支持多种任务,包括计算机视觉、自然语言处理和强化学习等领域,旨在为AI研究提供一个标准化的测试平台。
一个用于LLM预训练的高效网络爬虫工具,专注于高效爬取高质量网页数据。
Crawl4LLM是一个开源的网络爬虫项目,旨在为大型语言模型(LLM)的预训练提供高效的数据爬取解决方案。它通过智能选择和爬取网页数据,帮助研究人员和开发者获取高质量的训练语料。该工具支持多种文档评分方法,能够根据配置灵活调整爬取策略,以满足不同的预训练需求。项目基于Python开发,具有良好的扩展性和易用性,适合在学术研究和工业应用中使用。
KET-RAG 是一个结合知识图谱的检索增强型生成框架,用于高效文档索引和答案生成。
KET-RAG(Knowledge-Enhanced Text Retrieval Augmented Generation)是一个强大的检索增强型生成框架,结合了知识图谱技术。它通过多粒度索引框架(如知识图谱骨架和文本-关键词二分图)实现高效的知识检索和生成。该框架在降低索引成本的同时,显著提升了检索和生成质量,适用于大规模 RAG 应用场景。KET-RAG 基于 Python 开发,支持灵活的配置和扩展,适用于需要高效知识检索和生成的开发人员和研究人员。
Pippo 是一个从单张照片生成高分辨率多人视角视频的生成模型。
Pippo 是由 Meta Reality Labs 和多所高校合作开发的生成模型,能够从单张普通照片生成高分辨率的多人视角视频。该技术的核心优势在于无需额外输入(如参数化模型或相机参数),即可生成高质量的 1K 分辨率视频。它基于多视角扩散变换器架构,具有广泛的应用前景,如虚拟现实、影视制作等。Pippo 的代码已开源,但不包含预训练权重,用户需要自行训练模型。
一个用于创建基于LangGraph的分层多智能体系统的Python库。
LangGraph Multi-Agent Supervisor是一个基于LangGraph框架构建的Python库,用于创建分层多智能体系统。它允许开发者通过一个中心化的监督智能体来协调多个专业智能体,实现任务的动态分配和通信管理。该技术的重要性在于其能够高效地组织复杂的多智能体任务,提升系统的灵活性和可扩展性。它适用于需要多智能体协作的场景,如自动化任务处理、复杂问题解决等。该产品定位为高级开发者和企业级应用,目前未明确公开价格,但其开源特性使得用户可以根据自身需求进行定制和扩展。
基于 PyTorch 的音乐、歌曲和音频生成工具包,支持高质量音频生成
InspireMusic 是一个专注于音乐、歌曲和音频生成的 AIGC 工具包和模型框架,采用 PyTorch 开发。它通过音频标记化和解码过程,结合自回归 Transformer 和条件流匹配模型,实现高质量音乐生成。该工具包支持文本提示、音乐风格、结构等多种条件控制,能够生成 24kHz 和 48kHz 的高质量音频,并支持长音频生成。此外,它还提供了方便的微调和推理脚本,方便用户根据需求调整模型。InspireMusic 的开源旨在赋能普通用户通过音乐创作提升研究中的音效表现。
VideoWorld是一个探索从无标签视频中学习知识的深度生成模型。
VideoWorld是一个专注于从纯视觉输入(无标签视频)中学习复杂知识的深度生成模型。它通过自回归视频生成技术,探索如何仅通过视觉信息学习任务规则、推理和规划能力。该模型的核心优势在于其创新的潜在动态模型(LDM),能够高效地表示多步视觉变化,从而显著提升学习效率和知识获取能力。VideoWorld在视频围棋和机器人控制任务中表现出色,展示了其强大的泛化能力和对复杂任务的学习能力。该模型的研究背景源于对生物体通过视觉而非语言学习知识的模仿,旨在为人工智能的知识获取开辟新的途径。
Video Depth Anything: Consistent Depth Estimation for Super-Long Videos
Video Depth Anything 是一个基于深度学习的视频深度估计模型,能够为超长视频提供高质量、时间一致的深度估计。该技术基于 Depth Anything V2 开发,具有强大的泛化能力和稳定性。其主要优点包括对任意长度视频的深度估计能力、时间一致性以及对开放世界视频的良好适应性。该模型由字节跳动的研究团队开发,旨在解决长视频深度估计中的挑战,如时间一致性问题和复杂场景的适应性问题。目前,该模型的代码和演示已公开,供研究人员和开发者使用。
Dria-Agent-α是基于Python的大型语言模型工具交互框架。
Dria-Agent-α是Hugging Face推出的大型语言模型(LLM)工具交互框架。它通过Python代码来调用工具,与传统的JSON模式相比,能更充分地发挥LLM的推理能力,使模型能够以更接近人类自然语言的方式进行复杂问题的解决。该框架利用Python的流行性和接近伪代码的语法,使LLM在代理场景中表现更佳。Dria-Agent-α的开发使用了合成数据生成工具Dria,通过多阶段管道生成逼真的场景,训练模型进行复杂问题解决。目前已有Dria-Agent-α-3B和Dria-Agent-α-7B两个模型在Hugging Face上发布。
基于Transformer实现的ViTPose模型集合
ViTPose是一系列基于Transformer架构的人体姿态估计模型。它利用Transformer的强大特征提取能力,为人体姿态估计任务提供了简单而有效的基线。ViTPose模型在多个数据集上表现出色,具有较高的准确性和效率。该模型由悉尼大学社区维护和更新,提供了多种不同规模的版本,以满足不同应用场景的需求。在Hugging Face平台上,ViTPose模型以开源的形式供用户使用,用户可以方便地下载和部署这些模型,进行人体姿态估计相关的研究和应用开发。
从穿着人身上生成平铺布料的模型
TryOffAnyone是一个用于从穿着人身上生成平铺布料的深度学习模型。该模型能够将穿着衣物的人的图片转换成布料平铺图,这对于服装设计、虚拟试衣等领域具有重要意义。它通过深度学习技术,实现了高度逼真的布料模拟,使得用户可以更直观地预览衣物的穿着效果。该模型的主要优点包括逼真的布料模拟效果和较高的自动化程度,可以减少实际试衣过程中的时间和成本。
利用LlamaIndex和IBM's Docling实现的RAG技术
RAG over excel sheets是一个结合了LlamaIndex和IBM's Docling技术的人工智能项目,专注于在Excel表格上实现检索式问答(RAG)。该项目不仅可以应用于Excel,还可以扩展到PPTs和其他复杂的文档。它通过提供高效的信息检索和处理能力,极大地提高了数据分析和文档管理的效率。
一站式大模型算法、模型及优化工具开源项目
FlagAI是由北京智源人工智能研究院推出的一站式、高质量开源项目,集成了全球各种主流大模型算法技术以及多种大模型并行处理和训练加速技术。它支持高效训练和微调,旨在降低大模型开发和应用的门槛,提高开发效率。FlagAI涵盖了多个领域明星模型,如语言大模型OPT、T5,视觉大模型ViT、Swin Transformer,多模态大模型CLIP等。智源研究院也持续将“悟道2.0”“悟道3.0”大模型项目成果开源至FlagAI,目前该项目已经加入Linux基金会,吸引全球科研力量共同创新、共同贡献。
视频分析工具,结合Llama视觉模型和OpenAI Whisper进行本地视频描述生成。
video-analyzer是一个视频分析工具,它结合了Llama的11B视觉模型和OpenAI的Whisper模型,通过提取关键帧、将它们输入视觉模型以获取细节,并结合每个帧的细节和可用的转录内容来描述视频中发生的事情。这个工具代表了计算机视觉、音频转录和自然语言处理的结合,能够生成视频内容的详细描述。它的主要优点包括完全本地运行无需云服务或API密钥、智能提取视频关键帧、使用OpenAI的Whisper进行高质量音频转录、使用Ollama和Llama3.2 11B视觉模型进行帧分析,以及生成自然语言描述的视频内容。
© 2025 AIbase 备案号:闽ICP备08105208号-14