利用大规模机器学习理解场景并连接全球数百万场景的地理空间模型
Niantic的Large Geospatial Model (LGM) 是一个先锋概念,旨在通过大规模机器学习理解场景并将其与全球数百万其他场景连接起来。LGM不仅使计算机能够感知和理解物理空间,还能以新的方式与它们互动,成为AR眼镜及更广泛领域(包括机器人技术、内容创作和自主系统)的关键组成部分。随着我们从手机转向与现实世界相连的可穿戴技术,空间智能将成为世界未来的操作系统。
人形机器人多功能神经全身控制器
HOVER是一个针对人形机器人的多功能神经全身控制器,它通过模仿全身运动来提供通用的运动技能,学习多种全身控制模式。HOVER通过多模式策略蒸馏框架将不同的控制模式整合到一个统一的策略中,实现了在不同控制模式之间的无缝切换,同时保留了每种模式的独特优势。这种控制器提高了人形机器人在多种模式下的控制效率和灵活性,为未来的机器人应用提供了一个健壮且可扩展的解决方案。
多物种鲸鱼声音检测工具
multispecies-whale-detection 是谷歌开发的一个开源项目,旨在通过神经网络检测和分类不同物种和地理区域的鲸鱼声音。这个工具可以帮助研究人员和环保组织更好地理解和保护海洋生物多样性。
一个全面的AI神经网络工具目录
AILIBRI是一个汇集了超过2000个AI神经网络工具的目录网站,涵盖了文本、图像、视频、音频等多个领域的工具。它为用户寻找合适的AI工具提供了极大的便利,无论是专业人士还是初学者,都能在这里找到满足其需求的工具。该网站提供了详细的分类和搜索功能,帮助用户快速定位到所需的工具。
构建大型世界模型,感知、生成和与3D世界互动
World Labs 是一家专注于空间智能的公司,致力于构建大型世界模型(Large World Models),以感知、生成和与3D世界进行互动。公司由AI领域的知名科学家、教授、学者和行业领导者共同创立,包括斯坦福大学的Fei-Fei Li教授、密歇根大学的Justin Johnson教授等。他们通过创新的技术和方法,如神经辐射场(NeRF)技术,推动了3D场景重建和新视角合成的发展。World Labs 得到了包括Marc Benioff、Jim Breyer等知名投资者的支持,其技术在AI领域具有重要的应用价值和商业潜力。
从零开始学习深度学习,实现GPT模型
zero_to_gpt是一个旨在帮助用户从零基础学习深度学习,并最终实现训练自己的GPT模型的教程。随着人工智能技术走出实验室并广泛应用于各行各业,社会对于能够理解并应用AI技术的人才需求日益增长。本教程结合理论与实践,通过解决实际问题(如天气预测、语言翻译等)来深入讲解深度学习的理论基础,如梯度下降和反向传播。课程内容从基础的神经网络架构和训练方法开始,逐步深入到复杂主题,如变换器、GPU编程和分布式训练。
模拟数字生物与进化的人工生命仿真程序
ALIEN是一个基于CUDA的专门物理和渲染引擎的人工生命仿真程序。它旨在模拟数字生物在人工生态系统中的行为,并作为进化仿真的平台。该软件项目开源,遵循BSD-3-Clause许可。
自动化解释性代理,提升AI模型透明度
MAIA(Multimodal Automated Interpretability Agent)是由MIT计算机科学与人工智能实验室(CSAIL)开发的一个自动化系统,旨在提高人工智能模型的解释性。它通过视觉-语言模型的支撑,结合一系列实验工具,自动化地执行多种神经网络解释性任务。MAIA能够生成假设、设计实验进行测试,并通过迭代分析来完善其理解,从而提供更深入的AI模型内部运作机制的洞察。
CoreNet 是一个用于训练深度神经网络的库。
CoreNet 是一个深度神经网络工具包,使研究人员和工程师能够训练标准和新颖的小型和大型规模模型,用于各种任务,包括基础模型(例如 CLIP 和 LLM)、对象分类、对象检测和语义分割。
Transformer Debugger是由OpenAI的Superalignment团队开发的用于调查小型语言模型特定行为的工具
Transformer Debugger结合了自动化可解释性和稀疏自编码器技术,支持在编写代码之前进行快速探索,并能够在前向传递中进行干预,以观察其如何影响特定行为。它通过识别对行为有贡献的特定组件(神经元、注意力头、自编码器潜在表示),展示自动生成的解释来说明这些组件为何强烈激活,并追踪组件间的连接以帮助发现电路。
神经网络扩散模型实现
Neural Network Diffusion是由新加坡国立大学高性能计算与人工智能实验室开发的神经网络扩散模型。该模型利用扩散过程生成高质量的图像,适用于图像生成和修复等任务。
AI模型开发与部署
Visnet是一个全面的、无头的、多兼容的神经网络接口框架,主要用于自然语言处理和深度视觉系统。它具有模块化的前端、无服务器架构和多兼容性,并提供了REST API和Websocket接口。它包含了多个核心AI模型,如翻译、车牌识别和人脸特征匹配等。Visnet可广泛应用于监控、无人机检测、图像和视频分析等领域。
高质量图像修复,根据人类指示进行优化
InstructIR 接受图像和人类书写的指令作为输入,通过单一神经模型执行一体化图像修复。在多个修复任务中取得了最先进的结果,包括图像去噪、去雨、去模糊、去雾以及低光图像增强等。🚀 您可以从演示教程开始。查看我们的 GitHub 获取更多信息。 免责声明:请注意,这不是一个产品,因此您会注意到一些限制。此演示需要输入具有某些降级的图像(模糊、噪音、雨、低光、雾)和一个提示,请求应该执行什么操作。由于 GPU 内存限制,如果输入高分辨率图像(2K、4K),应用可能会崩溃。 该模型主要使用合成数据进行训练,因此在真实世界复杂图像上可能效果不佳。然而,在真实世界的雾天和低光图像上效果出奇地好。您还可以尝试一般的图像增强提示(例如,“润色此图像”,“增强颜色”)并查看它如何改善颜色。
强大的通用预测学习
通用预测学习器是一种利用元学习的强大方法,能够快速从有限数据中学习新任务。通过广泛接触不同的任务,可以获得通用的表示,从而实现通用问题解决。本产品探索了将最强大的通用预测器——Solomonoff归纳(SI)——通过元学习的方式进行摊销的潜力。我们利用通用图灵机(UTM)生成训练数据,让网络接触到广泛的模式。我们提供了UTM数据生成过程和元训练协议的理论分析。我们使用不同复杂度和普适性的算法数据生成器对神经架构(如LSTM、Transformer)进行了全面的实验。我们的结果表明,UTM数据是元学习的宝贵资源,可以用来训练能够学习通用预测策略的神经网络。
使用单眼视频记录产生实时4D头像合成的神经网络方法
BakedAvatar是一种用于实时神经头像合成的全新表示,可部署在标准多边形光栅化流水线中。该方法从学习到的头部等值面提取可变形的多层网格,并计算可烘焙到静态纹理中的表情、姿势和视角相关外观,从而为实时4D头像合成提供支持。我们提出了一个三阶段的神经头像合成流水线,包括学习连续变形、流形和辐射场,提取分层网格和纹理,以及通过微分光栅化来微调纹理细节。实验结果表明,我们的表示产生了与其他最先进方法相当的综合结果,并显著减少了所需的推理时间。我们进一步展示了从单眼视频中产生的各种头像合成结果,包括视图合成、面部重现、表情编辑和姿势编辑,所有这些都以交互式帧率进行。
一个AI深度学习平台,提供丰富的模型和工具,打造AI创新社区
Neuralhub是一个让深度学习更简单的平台,它为AI爱好者、研究人员和工程师提供实验和创新的环境。我们的目标不仅仅是提供工具,我们还在建立一个社区,一个可以分享和协作的地方。我们致力于通过汇集所有工具、研究和模型到一个协作空间,简化当今的深度学习,使AI研究、学习和开发更容易获取。
机器人图像渲染的新发展
Wild2Avatar是一个用于渲染被遮挡的野外单目视频中的人类外观的神经渲染方法。它可以在真实场景下渲染人类,即使障碍物可能会阻挡相机视野并导致部分遮挡。该方法通过将场景分解为三部分(遮挡物、人类和背景)来实现,并使用特定的目标函数强制分离人类与遮挡物和背景,以确保人类模型的完整性。
高保真稠密SLAM
Gaussian SLAM能够从RGBD数据流重建可渲染的3D场景。它是第一个能够以照片级真实感重建现实世界场景的神经RGBD SLAM方法。通过利用3D高斯作为场景表示的主要单元,我们克服了以往方法的局限性。我们观察到传统的3D高斯在单目设置下很难使用:它们无法编码准确的几何信息,并且很难通过单视图顺序监督进行优化。通过扩展传统的3D高斯来编码几何信息,并设计一种新颖的场景表示以及增长和优化它的方法,我们提出了一种能够重建和渲染现实世界数据集的SLAM系统,而且不会牺牲速度和效率。高斯SLAM能够重建和以照片级真实感渲染现实世界场景。我们在常见的合成和真实世界数据集上对我们的方法进行了评估,并将其与其他最先进的SLAM方法进行了比较。最后,我们证明了我们得到的最终3D场景表示可以通过高效的高斯飞溅渲染实时渲染。
© 2024 AIbase 备案号:闽ICP备08105208号-14