提供AI边缘处理器,专为实现高性能深度学习应用而设计。
Hailo AI on the Edge Processors提供AI加速器和视觉处理器,支持边缘设备解决方案,旨在实现新时代的AI边缘处理和视频增强。产品定位于提供高性能深度学习应用,同时支持感知和视频增强。
全球音频感知技术的革命性AI唇同步技术。
LIP Sync AI是一项革命性的AI技术,利用全球音频感知引擎将静态照片转换为栩栩如生的会话视频。其主要优点在于高效、现实的生成效果,使得照片具有完美唇部同步。该产品定位于为用户提供高质量的唇同步视频生成服务。
体验革命性的FLUX Kontext AI图像生成和编辑,利用具有上下文感知的技术创建、修改和增强图像。
Kontext AI的FLUX Kontext是一项具有上下文感知能力的技术,可用于图像生成和编辑。其主要优点包括快速、准确的生成和编辑图像,支持复杂的编辑工作流程,结合了传统文本到图像模型和流式生成建模。
AurumTau是一款面向人类和代理人设计的先进AI搜索引擎。
AurumTau是一款基于先进AI技术的智能、上下文感知的搜索引擎,为您提供智能、上下文感知的答案。它的主要优点在于提供准确且快速的答案,帮助用户解决问题。
Qodo Gen 是一款 AI 驱动的 IDE 插件,帮助开发者生成高质量代码和测试用例。
Qodo Gen 是一款专为开发者设计的 AI 编程工具,以插件形式集成到 IDE 中。它通过智能代码生成、自动化测试和代码审查等功能,帮助开发者提高编程效率和代码质量。其基于 Retrieval Augmented Generation (RAG) 技术,能够理解代码上下文并生成符合项目风格的代码和测试用例。Qodo Gen 的主要优点包括高效生成代码和测试用例、智能代码审查以及与现有开发流程的无缝集成。产品面向追求高效开发和高质量代码的开发团队,支持多种编程语言和开发环境,定价策略灵活,适合不同规模的企业使用。
Project Aria 是 Meta 推出的以第一人称视角进行机器感知和增强现实研究的项目。
Project Aria 是 Meta 推出的专注于第一人称视角研究的项目,旨在通过创新技术推动增强现实(AR)和人工智能(AI)的发展。该项目通过 Aria Gen 2 眼镜等设备,从用户视角收集信息,为机器感知和 AR 研究提供支持。其主要优点包括创新的硬件设计、丰富的开源数据集和挑战赛,以及与全球研究合作伙伴的紧密合作。该项目的背景是 Meta 对未来 AR 技术的长期投入,旨在通过开放研究推动行业进步。
Aria Gen 2 是一款用于机器感知、情境 AI 和机器人研究的新型智能眼镜。
Aria Gen 2 是 Meta 推出的第二代研究级智能眼镜,专为机器感知、情境 AI 和机器人研究而设计。它集成了先进的传感器和低功耗的机器感知技术,能够实时处理 SLAM、眼动追踪、手势识别等功能。该产品旨在推动人工智能和机器感知技术的发展,为研究人员提供强大的工具来探索如何让 AI 更好地理解人类视角的世界。Aria Gen 2 不仅在技术上取得了突破,还通过与学术界和商业研究实验室的合作,促进了开放研究和公众对这些关键技术的理解。
JoyGen 是一种音频驱动的 3D 深度感知的说话人脸视频编辑技术。
JoyGen 是一种创新的音频驱动 3D 深度感知说话人脸视频生成技术。它通过音频驱动唇部动作生成和视觉外观合成,解决了传统技术中唇部与音频不同步和视觉质量差的问题。该技术在多语言环境下表现出色,尤其针对中文语境进行了优化。其主要优点包括高精度的唇音同步、高质量的视觉效果以及对多语言的支持。该技术适用于视频编辑、虚拟主播、动画制作等领域,具有广泛的应用前景。
下一代原生GUI代理模型,能够无缝与图形用户界面交互。
UI-TARS 是由字节跳动研究团队开发的下一代原生GUI代理模型,旨在通过人类般的感知、推理和行动能力与图形用户界面进行无缝交互。该模型集成了感知、推理、定位和记忆等所有关键组件,能够在无需预定义工作流或手动规则的情况下实现端到端的任务自动化。其主要优点包括强大的多模态交互能力、高精度的视觉感知和语义理解能力,以及在多种复杂任务场景中的出色表现。该模型适用于需要自动化GUI交互的场景,如自动化测试、智能办公等,能够显著提高工作效率。
一种支持多种视频生成控制任务的统一架构模型。
Diffusion as Shader (DaS) 是一种创新的视频生成控制模型,旨在通过3D感知的扩散过程实现对视频生成的多样化控制。该模型利用3D跟踪视频作为控制输入,能够在统一的架构下支持多种视频控制任务,如网格到视频生成、相机控制、运动迁移和对象操作等。DaS的主要优势在于其3D感知能力,能够有效提升生成视频的时间一致性,并在短时间内通过少量数据微调即可展现出强大的控制能力。该模型由香港科技大学等多所高校的研究团队共同开发,旨在推动视频生成技术的发展,为影视制作、虚拟现实等领域提供更为灵活和高效的解决方案。
LG在CES 2025展示基于AI的车内感知解决方案
LG AI In-Vehicle Experience是LG电子在CES 2025上展示的最新创新技术,旨在通过LG的Vision AI解决方案,检测并响应车内乘员的需求,优化车内环境,提升驾驶体验的安全性和便利性。这项AI驱动的车内感知解决方案通过实时监测和分析驾驶员和车内情况,提供个性化服务,如定制驾驶路线、实时路况更新以及附近基础设施和兴趣点信息。该技术通过实时心率监测和面部表情识别,识别驾驶员的生理健康和情绪状态,提高道路安全,并为驾驶员提供健康追踪的便捷方式。
视觉定位GUI指令的多模态模型
Aria-UI是一个专为GUI指令视觉定位而设计的大规模多模态模型。它采用纯视觉方法,不依赖辅助输入,能够适应多样化的规划指令,并通过合成多样化、高质量的指令样本来适应不同的任务。Aria-UI在离线和在线代理基准测试中均创下新的最高记录,超越了仅依赖视觉和依赖AXTree的基线。
先进多模态大型语言模型系列
InternVL 2.5是一系列先进的多模态大型语言模型(MLLM),在InternVL 2.0的基础上,通过引入显著的训练和测试策略增强以及数据质量提升,进一步发展而来。该模型系列在视觉感知和多模态能力方面进行了优化,支持包括图像、文本到文本的转换在内的多种功能,适用于需要处理视觉和语言信息的复杂任务。
零样本视觉跟踪模型,具有运动感知记忆。
SAMURAI是一种基于Segment Anything Model 2 (SAM 2)的视觉对象跟踪模型,专门设计用于处理快速移动或自遮挡对象的视觉跟踪任务。它通过引入时间运动线索和运动感知记忆选择机制,有效预测对象运动并优化掩膜选择,无需重新训练或微调即可实现鲁棒、准确的跟踪。SAMURAI能够在实时环境中运行,并在多个基准数据集上展现出强大的零样本性能,证明了其无需微调即可泛化的能力。在评估中,SAMURAI在成功率和精确度上相较于现有跟踪器取得了显著提升,例如在LaSOT-ext上AUC提升了7.1%,在GOT-10k上AO提升了3.5%。此外,与LaSOT上的全监督方法相比,SAMURAI也展现出了竞争力,强调了其在复杂跟踪场景中的鲁棒性以及在动态环境中的潜在实际应用价值。
首款AI代理型集成开发环境(IDE),让开发者与AI的协作流畅无间。
Windsurf Editor是Codeium推出的首款AI代理型IDE,它不仅集成了Codeium的所有功能,还提供了无与伦比的性能和用户体验,让开发者能够与AI无缝协作。该产品代表了编程领域的最新技术,通过AI的深度集成,提供了代码自动补全、代码理解和重构、命令建议和执行等高级功能,极大地提高了开发效率和代码质量。Windsurf Editor的定价策略和市场定位旨在为专业开发者提供高端的编程工具,以满足他们对高性能和高效率的需求。
通过多样化合成数据和全局到局部自适应感知增强文档布局分析
DocLayout-YOLO是一个用于文档布局分析的深度学习模型,它通过多样化的合成数据和全局到局部自适应感知来增强文档布局分析的准确性和处理速度。该模型通过Mesh-candidate BestFit算法生成大规模多样化的DocSynth-300K数据集,显著提升了不同文档类型在微调性能上的表现。此外,它还提出了一个全局到局部可控的感受野模块,更好地处理文档元素的多尺度变化。DocLayout-YOLO在各种文档类型上的下游数据集上表现出色,无论是在速度还是准确性上都有显著优势。
用语音快速打字,提升写作效率。
Flow by Wispr是一款致力于提高语音输入效率的应用程序。它通过先进的语音识别技术,使得用户能够以比传统键盘打字快三倍的速度进行文字输入。Flow by Wispr特别适合需要快速记录和编辑文本的用户,例如作家、记者、学生和专业人士。产品目前仅支持苹果硅芯片的Mac电脑,未来将扩展到更多平台。
© 2025 AIbase 备案号:闽ICP备08105208号-14