需求人群:
"适用于需要在 Node.js 应用中使用 AI 的开发者。"
使用场景示例:
用于构建推荐系统
用于文本分类
用于语义搜索
产品特色:
提供预训练模型和库
嵌入英语
分类器
语义搜索(计划中)
优化冷启动性能
商业友好的许可
浏览量:3
最新流量情况
月访问量
4846
平均访问时长
00:00:00
每次访问页数
0.06
跳出率
64.74%
流量来源
直接访问
0
自然搜索
100.00%
邮件
0
外链引荐
0
社交媒体
0
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
土耳其
20.29%
美国
13.71%
捷克
10.17%
墨西哥
9.85%
菲律宾
8.28%
为真实世界机器人提供最先进的机器学习模型、数据集和工具。
LeRobot 是一个旨在降低进入机器人领域的门槛,让每个人都能贡献并从共享数据集和预训练模型中受益的开源项目。它包含了在真实世界中经过验证的最先进的方法,特别关注模仿学习和强化学习。LeRobot 提供了一组预训练模型、带有人类收集演示的数据集和模拟环境,以便用户无需组装机器人即可开始。未来几周内,计划增加对最实惠和最有能力的真实世界机器人的支持。
一种用于图像和文本数据的先进机器学习模型,专注于数据质量和透明度。
MetaCLIP是一个开源的机器学习模型,用于图像和文本的联合表示学习。它通过一个简单算法对CLIP数据进行筛选,不依赖于先前模型的过滤,从而提高了数据的质量和透明度。MetaCLIP的主要贡献包括无过滤的数据筛选、透明的训练数据分布、可扩展的算法和标准化的CLIP训练设置。该模型强调数据质量的重要性,并提供预训练模型,以支持研究人员和开发者进行控制实验和公平比较。
构建最好的中文Llama大模型,完全开源可商用。
Llama中文社区是一个专注于Llama模型在中文方面的优化和上层建设的技术社区。社区提供基于大规模中文数据的预训练模型,并对Llama2和Llama3模型进行持续的中文能力迭代升级。社区拥有高级工程师团队支持,丰富的社区活动,以及开放共享的合作环境,旨在推动中文自然语言处理技术的发展。
SvectorDB是一个从头开始构建的面向无服务器的向量数据库。专注于产品,而不是数据库。高性能,成本效益高,比其他替代方案节省多达20倍。
SvectorDB是一个面向无服务器的向量数据库,旨在最大程度地提高敏捷性并降低成本。它解决了数据库的痛点,让您能够专注于将产品从1个向量扩展到100万个向量。
Visual Autoregressive Modeling: 新的视觉生成范式
VAR是一种新的视觉自回归建模方法,能够超越扩散模型,实现更高效的图像生成。它建立了视觉生成的幂律scaling laws,并具备零shots的泛化能力。VAR提供了一系列不同规模的预训练模型,供用户探索和使用。
用于视觉合成的统一3D Transformer流水线
NUWA是由微软开发的一系列研究项目,包括NUWA、NUWA-Infinity、NUWA-LIP、Learning 3D Photography Videos和NUWA-XL。这些项目涉及视觉合成的预训练模型,能够生成或操纵视觉数据,如图像和视频,以执行多种视觉合成任务。
无需相机校准信息的密集立体3D重建
DUSt3R是一种新颖的密集和无约束立体3D重建方法,适用于任意图像集合。它不需要事先了解相机校准或视点姿态信息,通过将成对重建问题视为点图的回归,放宽了传统投影相机模型的严格约束。DUSt3R提供了一种统一的单目和双目重建方法,并在多图像情况下提出了一种简单有效的全局对齐策略。基于标准的Transformer编码器和解码器构建网络架构,利用强大的预训练模型。DUSt3R直接提供场景的3D模型和深度信息,并且可以从中恢复像素匹配、相对和绝对相机信息。
AI模型开发与部署
Visnet是一个全面的、无头的、多兼容的神经网络接口框架,主要用于自然语言处理和深度视觉系统。它具有模块化的前端、无服务器架构和多兼容性,并提供了REST API和Websocket接口。它包含了多个核心AI模型,如翻译、车牌识别和人脸特征匹配等。Visnet可广泛应用于监控、无人机检测、图像和视频分析等领域。
强大的中文语言模型
Beagle14-7B 是一个强大的中文语言模型,可以用于各种自然语言处理任务。它基于多个预训练模型进行了合并,包含丰富的语言知识和表达能力。Beagle14-7B 具有高效的文本生成能力和准确的语义理解能力,可以广泛应用于聊天机器人、文本生成、摘要提取等任务。Beagle14-7B 的定价信息请访问官方网址了解详情。
无需视频制作经验,通过简单操作即可生成精细控制的视频
DragNUWA是一款视频生成工具,能够通过直接操作背景或图像,将动作转化为摄像机运动或目标物体运动,生成对应的视频。DragNUWA 1.5基于稳定视频扩散技术,可根据特定路径使图像动起来。DragNUWA 1.0利用文字、图像和轨迹作为三个重要的控制因素,从语义、空间和时间上促进高度可控的视频生成。用户可通过git克隆仓库、下载预训练模型,并在桌面端进行图像拖拽生成动画。
高效多模态大型语言模型
TinyGPT-V 是一种高效的多模态大型语言模型,通过使用小型骨干网络来实现。它具有强大的语言理解和生成能力,适用于各种自然语言处理任务。TinyGPT-V 采用 Phi-2 作为预训练模型,具备出色的性能和效率。
VCoder是一款视觉感知模型,可提高多模态大型语言模型在对象级视觉任务上的性能。
VCoder是一个适配器,可通过辅助感知模式作为控制输入来提高多模态大型语言模型在对象级视觉任务上的性能。VCoder LLaVA是基于LLaVA-1.5构建的。VCoder不微调LLaVA-1.5的参数,因此在通用的问答基准测试中的性能与LLaVA-1.5相同。VCoder在COST数据集上进行了基准测试,在语义、实例和全景分割任务上都取得了不错的性能。作者还发布了模型的检测结果和预训练模型。
3D人物生成模型
En3D是一个提供先进自然语言处理模型的平台。他们提供了各种各样的模型和数据集,以帮助开发者构建和部署自然语言处理应用。En3D平台的优势在于提供了大量预训练模型和方便的部署工具,使得开发者能够快速、高效地构建自然语言处理应用。
探索创新的GPTs,改善您的日常生活和工作。
GPTs Gallery是一个展示创新GPT(生成式预训练模型)的平台。通过解锁AI的力量,您可以做出更好的决策,提升创造力,为日常生活增添一些乐趣。订阅GPTs Gallery,迎接更明亮、更智能的未来!
统一文本到文本转换器
Google T5 是一个统一的文本到文本转换器,通过在大型文本语料库上进行预训练,可以实现在多个 NLP 任务上取得最先进的结果。它提供了加载、预处理、混合和评估数据集的代码,并且可以用于对已发布的预训练模型进行微调。
借助 AutoML Vision 从图像中发掘有价值的信息、利用预训练的 Vision API 模型,或使用 Vertex AI Vision 创建计算机视觉应用
Vision AI 提供了三种计算机视觉产品,包括 Vertex AI Vision、自定义机器学习模型和 Vision API。您可以使用这些产品从图像中提取有价值的信息,进行图像分类和搜索,并创建各种计算机视觉应用。Vision AI 提供简单易用的界面和功能强大的预训练模型,满足不同用户需求。
模型和数据集的集合
Distil-Whisper是一个提供模型和数据集的平台,用户可以在该平台上访问各种预训练模型和数据集,并进行相关的应用和研究。该平台提供了丰富的模型和数据集资源,帮助用户快速开展自然语言处理和机器学习相关工作。
语义增强数据成就是AI定制解决方案
Semiring是一个端到端的平台,能够通过少量样本数据生成高质量合成数据集,从而使开发者可以轻松创建高性能的机器学习模型。它提供了完整的ML模型构建流程,包括数据合成、模型训练、评估和部署。关键功能及优势包括:基于先进自然语言模型的高效数据合成;支持自定义域特定数据;无缝自动标注;多样化的预训练模型库;自动模型调优;一体化的云端训练服务;简易的API集成和高速推理等。相比于直接提示大型语言模型和自建方案,Semiring以其卓越的速度、成本效益和质量优势脱颖而出。
一款用于训练PyTorch计算机视觉模型的开源库。
YOLO-NAS Pose是一款免费的、开源的库,用于训练基于PyTorch的计算机视觉模型。它提供了训练脚本和快速简单复制模型结果的示例。内置SOTA模型,可以轻松加载和微调生产就绪的预训练模型,包括最佳实践和验证的超参数,以实现最佳的准确性。可以缩短训练生命周期,消除不确定性。提供分类、检测、分割等不同任务的模型,可以轻松集成到代码库中。
技术全球领跑
Yi是一款全球领先的预训练模型,在多项评测中取得了SOTA国际最佳性能指标表现。它具有轻巧的模型尺寸,超越了大尺寸开源模型,更加友好于开发者社群。零一万物适合个人及研究用途,并且已具备大模型涌现能力,适用于多元场景,满足开源社区的刚性需求。Yi开源模型对学术研究完全开放,并且同步开放免费商用申请。
中间件观测平台|云原生监控
Middleware是一个云原生监控平台,提供完整的应用和基础设施可观测性,以便您能够大规模监控和诊断问题。它包括基础设施监控、日志监控、应用性能监控、数据库监控、合成监控、无服务器监控、容器监控和实时用户监控等功能。通过使用Middleware,您可以轻松识别、理解和解决云基础架构中的问题。
基于自然语言查询的开放领域音频源分离模型
AudioSep是一种基于自然语言查询的开放领域音频源分离模型。它由文本编码器和分离模型两个关键组件组成。我们在大规模多模态数据集上训练AudioSep,并在许多任务上广泛评估其能力,包括音频事件分离、乐器分离和语音增强。AudioSep表现出强大的分离性能和令人印象深刻的零样本泛化能力,使用音频标题或文本标签作为查询,大大优于以前的音频查询和语言查询声音分离模型。为了保证本工作的可重复性,我们将发布源代码、评估基准和预训练模型。
稳定签名:将水印根植于潜在扩散模型中
Stable Signature是一种将水印嵌入图像中的方法,它使用潜在扩散模型(LDM)来提取和嵌入水印。该方法具有高度的稳定性和鲁棒性,可以在多种攻击下保持水印的可读性。Stable Signature提供了预训练模型和代码实现,用户可以使用它来嵌入和提取水印。
构建应用程序后端工作流、API、计划作业、云功能的低代码可视化方式-由人工智能提供支持。
BuildShip是一款低代码可视化工具,通过AI技术,快速构建应用的后端工作流、API、定时任务和云函数。它支持连接预构建节点或生成自定义节点。使用AI模型和工具可以轻松构建多模态流程。您可以将任何AI模型和工具集成到您的工作流中。BuildShip还提供模板和定制功能,支持生成HTML转PDF、Stripe定时报告等多个常用功能。它支持无服务器API部署和定时任务执行,同时具备版本控制、调试和迭代等高级开发工具。
Stable Diffusion XL AI, 开源的 AI 图片生成器
稳定扩散 AI 是一种开源的深度学习文本到图像生成模型,由 CompVis 团队与 Runway ML 联合开发,并获得 Stability AI 的运算支持。它可以根据文本描述生成高质量图片,也可以进行图像补全、外推以及文本指导下的图像到图像转换。稳定扩散 AI 开源了其代码、预训练模型和许可证,允许用户在单个 GPU 上运行。这使其成为第一个可以在用户本地设备上运行的开源深度文本到图像模型。
开源跨平台的机器学习框架,能够轻松地在不同设备上构建机器学习应用
MediaPipe是一个由Google开发的开源跨平台机器学习框架,它能够帮助开发者通过简单的API轻松地在不同设备(手机、平板、浏览器、IoT设备等)上构建复杂的机器学习模型和应用。MediaPipe支持多种编程语言,内置了人脸识别、手势识别、目标追踪等多种预训练模型,开发者可以快速集成这些模型来开发智能应用。MediaPipe还支持模型压缩和量化技术,可以将模型大小缩小10倍以上,这对于在移动端部署机器学习模型非常有利。总体来说,MediaPipe是一个非常易用和高效的机器学习开发框架。
© 2024 AIbase 备案号:闽ICP备2023012347号-1