需求人群:
"适用于自然语言处理、文本生成、对话系统等领域。"
使用场景示例:
1. 研究人员在自然语言处理领域使用 Qwen1.5 进行文本生成。
2. 公司开发团队在对话系统中应用 Qwen1.5 进行模型训练。
3. 学生在学术研究中使用 Qwen1.5 进行多语言处理实验。
产品特色:
支持 8 个模型规模,包括 0.5B 到 72B
在 Chat 模型中有显著性能提升
支持多语言
32K 上下文长度的稳定支持
不需要信任远程代码
浏览量:44
最新流量情况
月访问量
22216.76k
平均访问时长
00:04:50
每次访问页数
5.52
跳出率
47.80%
流量来源
直接访问
46.24%
自然搜索
30.97%
邮件
0.78%
外链引荐
13.53%
社交媒体
8.45%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
15.26%
美国
13.36%
印度
6.45%
俄罗斯
3.91%
法国
3.77%
构建最好的中文Llama大模型,完全开源可商用。
Llama中文社区是一个专注于Llama模型在中文方面的优化和上层建设的技术社区。社区提供基于大规模中文数据的预训练模型,并对Llama2和Llama3模型进行持续的中文能力迭代升级。社区拥有高级工程师团队支持,丰富的社区活动,以及开放共享的合作环境,旨在推动中文自然语言处理技术的发展。
无需相机校准信息的密集立体3D重建
DUSt3R是一种新颖的密集和无约束立体3D重建方法,适用于任意图像集合。它不需要事先了解相机校准或视点姿态信息,通过将成对重建问题视为点图的回归,放宽了传统投影相机模型的严格约束。DUSt3R提供了一种统一的单目和双目重建方法,并在多图像情况下提出了一种简单有效的全局对齐策略。基于标准的Transformer编码器和解码器构建网络架构,利用强大的预训练模型。DUSt3R直接提供场景的3D模型和深度信息,并且可以从中恢复像素匹配、相对和绝对相机信息。
强大的中文语言模型
Beagle14-7B 是一个强大的中文语言模型,可以用于各种自然语言处理任务。它基于多个预训练模型进行了合并,包含丰富的语言知识和表达能力。Beagle14-7B 具有高效的文本生成能力和准确的语义理解能力,可以广泛应用于聊天机器人、文本生成、摘要提取等任务。Beagle14-7B 的定价信息请访问官方网址了解详情。
高效多模态大型语言模型
TinyGPT-V 是一种高效的多模态大型语言模型,通过使用小型骨干网络来实现。它具有强大的语言理解和生成能力,适用于各种自然语言处理任务。TinyGPT-V 采用 Phi-2 作为预训练模型,具备出色的性能和效率。
3D人物生成模型
En3D是一个提供先进自然语言处理模型的平台。他们提供了各种各样的模型和数据集,以帮助开发者构建和部署自然语言处理应用。En3D平台的优势在于提供了大量预训练模型和方便的部署工具,使得开发者能够快速、高效地构建自然语言处理应用。
模型和数据集的集合
Distil-Whisper是一个提供模型和数据集的平台,用户可以在该平台上访问各种预训练模型和数据集,并进行相关的应用和研究。该平台提供了丰富的模型和数据集资源,帮助用户快速开展自然语言处理和机器学习相关工作。
在数据库环境中通过单一接口应用OpenAI GPT和Hugging Face等NLP模型对文本数据进行处理
NLP数据库是一款在数据库环境中应用自然语言处理模型的工具。它能够通过简单的SQL命令对文本数据进行分类、标注、摘要、翻译等操作。通过使用OpenAI GPT和Hugging Face等先进的预训练模型,可以将非结构化的数据转化为有价值的见解。同时,NLP数据库能够在数据层面直接生成预测和推理结果,并提供了灵活易用的接口,减少了开发复杂性和部署的工作量。用户可以根据自己的需求,将NLP模型与数据层无缝集成,构建多层次的人工智能解决方案。
开源自然语言生成模型
OLMo是一个开源的自然语言生成模型,由Allen AI研究所开发,基于Transformer架构,可用于生成高质量的英文文本。它具有生成长度可达4096个token的长文本的能力。OLMo-7B是目前公开的参数量最大的开源英文语言模型之一,拥有69亿参数,在多个英文NLP任务上的表现优于同类模型。它可用于文本生成、任务导向的微调等多种自然语言处理任务。
Lepton是一个开源的语言模型搜索平台
Lepton是一个开源的自然语言处理平台,提供语言理解、生成和推理能力。它采用Transformer模型架构,能够进行多轮对话、问答、文本生成等任务。Lepton具有高效、可扩展的特点,可以在多个领域部署使用。
用于可定制、生产就绪的 NLP 应用程序的 LLM 编排框架
Haystack 是一个端到端的自然语言处理框架,可以帮助您构建由 LLMs、Transformer 模型和向量搜索等驱动的应用。无论您想进行问答、答案生成、语义文档搜索,还是构建能够进行复杂决策和查询解决的工具,都可以使用 Haystack 的最先进的 NLP 模型来构建解决您的用例的端到端 NLP 应用。
为真实世界机器人提供最先进的机器学习模型、数据集和工具。
LeRobot 是一个旨在降低进入机器人领域的门槛,让每个人都能贡献并从共享数据集和预训练模型中受益的开源项目。它包含了在真实世界中经过验证的最先进的方法,特别关注模仿学习和强化学习。LeRobot 提供了一组预训练模型、带有人类收集演示的数据集和模拟环境,以便用户无需组装机器人即可开始。未来几周内,计划增加对最实惠和最有能力的真实世界机器人的支持。
一种用于图像和文本数据的先进机器学习模型,专注于数据质量和透明度。
MetaCLIP是一个开源的机器学习模型,用于图像和文本的联合表示学习。它通过一个简单算法对CLIP数据进行筛选,不依赖于先前模型的过滤,从而提高了数据的质量和透明度。MetaCLIP的主要贡献包括无过滤的数据筛选、透明的训练数据分布、可扩展的算法和标准化的CLIP训练设置。该模型强调数据质量的重要性,并提供预训练模型,以支持研究人员和开发者进行控制实验和公平比较。
Visual Autoregressive Modeling: 新的视觉生成范式
VAR是一种新的视觉自回归建模方法,能够超越扩散模型,实现更高效的图像生成。它建立了视觉生成的幂律scaling laws,并具备零shots的泛化能力。VAR提供了一系列不同规模的预训练模型,供用户探索和使用。
用于视觉合成的统一3D Transformer流水线
NUWA是由微软开发的一系列研究项目,包括NUWA、NUWA-Infinity、NUWA-LIP、Learning 3D Photography Videos和NUWA-XL。这些项目涉及视觉合成的预训练模型,能够生成或操纵视觉数据,如图像和视频,以执行多种视觉合成任务。
无需视频制作经验,通过简单操作即可生成精细控制的视频
DragNUWA是一款视频生成工具,能够通过直接操作背景或图像,将动作转化为摄像机运动或目标物体运动,生成对应的视频。DragNUWA 1.5基于稳定视频扩散技术,可根据特定路径使图像动起来。DragNUWA 1.0利用文字、图像和轨迹作为三个重要的控制因素,从语义、空间和时间上促进高度可控的视频生成。用户可通过git克隆仓库、下载预训练模型,并在桌面端进行图像拖拽生成动画。
VCoder是一款视觉感知模型,可提高多模态大型语言模型在对象级视觉任务上的性能。
VCoder是一个适配器,可通过辅助感知模式作为控制输入来提高多模态大型语言模型在对象级视觉任务上的性能。VCoder LLaVA是基于LLaVA-1.5构建的。VCoder不微调LLaVA-1.5的参数,因此在通用的问答基准测试中的性能与LLaVA-1.5相同。VCoder在COST数据集上进行了基准测试,在语义、实例和全景分割任务上都取得了不错的性能。作者还发布了模型的检测结果和预训练模型。
探索创新的GPTs,改善您的日常生活和工作。
GPTs Gallery是一个展示创新GPT(生成式预训练模型)的平台。通过解锁AI的力量,您可以做出更好的决策,提升创造力,为日常生活增添一些乐趣。订阅GPTs Gallery,迎接更明亮、更智能的未来!
统一文本到文本转换器
Google T5 是一个统一的文本到文本转换器,通过在大型文本语料库上进行预训练,可以实现在多个 NLP 任务上取得最先进的结果。它提供了加载、预处理、混合和评估数据集的代码,并且可以用于对已发布的预训练模型进行微调。
借助 AutoML Vision 从图像中发掘有价值的信息、利用预训练的 Vision API 模型,或使用 Vertex AI Vision 创建计算机视觉应用
Vision AI 提供了三种计算机视觉产品,包括 Vertex AI Vision、自定义机器学习模型和 Vision API。您可以使用这些产品从图像中提取有价值的信息,进行图像分类和搜索,并创建各种计算机视觉应用。Vision AI 提供简单易用的界面和功能强大的预训练模型,满足不同用户需求。
用于 Node.js 应用的开源 AI,速度提升最多 67 倍。
EnergeticAI 是针对无服务器环境优化的 TensorFlow.js,具有快速冷启动、小模块大小和预训练模型。它提供预训练的嵌入以用于推荐等功能。用户可以通过 npm 安装,具有商业友好的许可。EnergeticAI 最大化冷启动性能,同时最小化模块大小。
语义增强数据成就是AI定制解决方案
Semiring是一个端到端的平台,能够通过少量样本数据生成高质量合成数据集,从而使开发者可以轻松创建高性能的机器学习模型。它提供了完整的ML模型构建流程,包括数据合成、模型训练、评估和部署。关键功能及优势包括:基于先进自然语言模型的高效数据合成;支持自定义域特定数据;无缝自动标注;多样化的预训练模型库;自动模型调优;一体化的云端训练服务;简易的API集成和高速推理等。相比于直接提示大型语言模型和自建方案,Semiring以其卓越的速度、成本效益和质量优势脱颖而出。
一款用于训练PyTorch计算机视觉模型的开源库。
YOLO-NAS Pose是一款免费的、开源的库,用于训练基于PyTorch的计算机视觉模型。它提供了训练脚本和快速简单复制模型结果的示例。内置SOTA模型,可以轻松加载和微调生产就绪的预训练模型,包括最佳实践和验证的超参数,以实现最佳的准确性。可以缩短训练生命周期,消除不确定性。提供分类、检测、分割等不同任务的模型,可以轻松集成到代码库中。
技术全球领跑
Yi是一款全球领先的预训练模型,在多项评测中取得了SOTA国际最佳性能指标表现。它具有轻巧的模型尺寸,超越了大尺寸开源模型,更加友好于开发者社群。零一万物适合个人及研究用途,并且已具备大模型涌现能力,适用于多元场景,满足开源社区的刚性需求。Yi开源模型对学术研究完全开放,并且同步开放免费商用申请。
基于自然语言查询的开放领域音频源分离模型
AudioSep是一种基于自然语言查询的开放领域音频源分离模型。它由文本编码器和分离模型两个关键组件组成。我们在大规模多模态数据集上训练AudioSep,并在许多任务上广泛评估其能力,包括音频事件分离、乐器分离和语音增强。AudioSep表现出强大的分离性能和令人印象深刻的零样本泛化能力,使用音频标题或文本标签作为查询,大大优于以前的音频查询和语言查询声音分离模型。为了保证本工作的可重复性,我们将发布源代码、评估基准和预训练模型。
稳定签名:将水印根植于潜在扩散模型中
Stable Signature是一种将水印嵌入图像中的方法,它使用潜在扩散模型(LDM)来提取和嵌入水印。该方法具有高度的稳定性和鲁棒性,可以在多种攻击下保持水印的可读性。Stable Signature提供了预训练模型和代码实现,用户可以使用它来嵌入和提取水印。
Stable Diffusion XL AI, 开源的 AI 图片生成器
稳定扩散 AI 是一种开源的深度学习文本到图像生成模型,由 CompVis 团队与 Runway ML 联合开发,并获得 Stability AI 的运算支持。它可以根据文本描述生成高质量图片,也可以进行图像补全、外推以及文本指导下的图像到图像转换。稳定扩散 AI 开源了其代码、预训练模型和许可证,允许用户在单个 GPU 上运行。这使其成为第一个可以在用户本地设备上运行的开源深度文本到图像模型。
© 2024 AIbase 备案号:闽ICP备2023012347号-1