浏览量:215
最新流量情况
月访问量
4.67m
平均访问时长
00:07:27
每次访问页数
6.62
跳出率
37.89%
流量来源
直接访问
51.41%
自然搜索
29.45%
邮件
0.92%
外链引荐
11.72%
社交媒体
6.47%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
16.52%
中国
14.70%
印度
9.14%
日本
3.64%
德国
3.30%
开源基础模型,用于代码智能任务,支持116种编程语言。
Granite Code Models 是 IBM 开发的一系列开源基础模型,专为代码生成任务设计,如修复错误、解释代码、文档化代码等。这些模型在多种编程语言上进行了训练,并在不同的代码相关任务上达到了最先进的性能。主要优点包括全面的性能、企业级的信任度以及遵循 IBM 的 AI 伦理原则进行训练。
AI代码查找器,快速找到AI论文的代码实现
AI Code Finder是一个免费的浏览器插件,可以快速找到任何AI研究论文的代码实现。它能够自动在Google、ArXiv、学术搜索引擎、论坛等网站上找到与论文相关的代码链接,并提供CODE按钮供用户点击跳转到开源代码实现。用户还可以创建提醒以获取最新的代码实现、作者的最新工作和最新进展。此插件适用于从事人工智能、数据科学、计算机视觉、语音识别、深度学习和大型语言模型等领域的工程师、研究人员、开发人员和技术领导者。
扩展LLaVA模型,集成Phi-3和LLaMA-3,提升视觉与语言模型的交互能力。
LLaVA++是一个开源项目,旨在通过集成Phi-3和LLaMA-3模型来扩展LLaVA模型的视觉能力。该项目由Mohamed bin Zayed University of AI (MBZUAI)的研究人员开发,通过结合最新的大型语言模型,增强了模型在遵循指令和学术任务导向数据集上的表现。
深度学习算法与大模型面试指南,持续更新的面试题目集合。
DeepLearing-Interview-Awesome-2024 是一个开源的面试题目集合项目,专注于深度学习算法和大模型领域的面试准备。该项目由社区成员共同维护,旨在提供最新的面试题目和答案解析,帮助求职者和研究人员深入理解深度学习领域的前沿技术和应用。它包含了丰富的面试题目,覆盖了大语言模型、视觉模型、通用问题等多个方面,是准备深度学习相关职位的宝贵资源。
一个通用的多模态模型,可用于问答、图像描述等任务
HuggingFaceM4/idefics-80b-instruct是一个开源的多模态模型,它可以接受图像和文本的输入,输出相关的文本内容。该模型在视觉问答、图像描述等任务上表现出色,是一个通用的智能助手模型。它由Hugging Face团队开发,基于开放数据集训练,提供免费使用。
基于7B参数的强大对话智能语言模型
360Zhinao是由奇虎360开源的一系列7B规模的智能语言模型,包括基础模型和三个不同长度上下文的对话模型。这些模型经过大规模中英文语料预训练,在自然语言理解、知识、数学、代码生成等多种任务上表现出色,并具有强大的长文本对话能力。模型可用于各种对话式应用的开发和部署。
华为开源自研AI框架
华为开源自研AI框架MindSpore。自动微分、并行加持,一次训练,可多场景部署。支持端边云全场景的深度学习训练推理框架,主要应用于计算机视觉、自然语言处理等AI领域,面向数据科学家、算法工程师等人群。主要具备基于源码转换的通用自动微分、自动实现分布式并行训练、数据处理、以及图执行引擎等功能特性。借助自动微分,轻松训练神经网络。框架开源,华为培育AI开发生态。
MetaVoice-1B是一个语音合成模型。
MetaVoice-1B是一个1.2B参数的语音合成基础模型,通过训练10万小时的语音数据而成。它具有以下特点:支持英语情感语调和语气;支持语音克隆;少量数据(1分钟内)就可实现印度语音克隆;无参克隆美式和英式语音(30秒音频);支持长文本语音合成。我们在Apache 2.0许可下免费开源这个模型,可以无限制使用。
Vision Arena是一个面向计算机视觉领域的开源模型测试平台
Vision Arena是一个由Hugging Face创建的开源平台,用于测试和比较不同的计算机视觉模型效果。它提供了一个友好的界面,允许用户上传图片并通过不同模型处理,从而直观地对比结果质量。平台预装了主流的图像分类、对象检测、语义分割等模型,也支持自定义模型。关键优势是开源免费,使用简单,支持多模型并行测试,有利于模型效果评估和选择。适用于计算机视觉研发人员、算法工程师等角色,可以加速计算机视觉模型的实验和调优。
通过自然语言指令实现智能图像编辑的开源技术。
MGIE(多模态大语言模型引导的编辑)是一项由苹果开源的技术,利用多模态大型语言模型(MLLMs)生成图像编辑指令,通过端到端训练,捕捉视觉想象力并执行图像处理操作,使图像编辑更加智能、直观。
DuckDB NSQL模型,针对DuckDB SQL生成任务。
DuckDB NSQL是一系列开源的基础模型(FMs),专门用于SQL生成任务。我们很高兴在这个仓库中推出DuckDB NSQL,这是一个为本地DuckDB SQL分析任务定制的FM。所有模型权重都可以在HuggingFace上找到。
先进的人工智能大模型系列
智源悟道3.0是智源研究院开发的先进人工智能大模型系列,包括AquilaChat对话模型、AquilaCode文本代码生成大模型以及多种视觉大模型。产品功能涵盖流畅的文本对话、多语言生成任务、文本代码生成、多模态和视觉处理等。其特点包括多样化、高性能、开源、多语言支持和可扩展性。适用于多种芯片架构和深度学习框架,主要面向科研和开发社区,开源免费。
探索YouTube上最新的机器学习/人工智能课程
ML-YouTube-Courses是一个开源项目,致力于整理和索引YouTube上最新的、最好的机器学习课程。项目包含各种主题的课程,如机器学习、深度学习、自然语言处理、计算机视觉等,涵盖基础知识和前沿技术。该项目帮助开发者和学习者高效地发现优质的在线教程。
将文本转换为图像或语音的开源AI模型
Text2Multimedia是一款使用开源AI模型将文本转换为图像或语音的工具。该工具提供了文本转图像和文本转语音的功能,用户可以通过描述文本来生成对应的视觉或声音表达。生成的图像和音频质量取决于算法的复杂性和训练数据的数量。这项技术可以用于艺术创作、设计资产以及教育材料的制作,是一种表达创意的强大工具。
使用模块化构建块构建高性能AI模型的工具。
Zeta是一个开源项目,提供模块化、高性能和可扩展的构建块来快速构建AI模型。它包括多种功能,如Flash Attention、SwiGLU、相对位置偏差、前馈网络、BitLinear变换、PalmE多模态模型、U-Net、视觉嵌入和其他多种高级特性。
一个统一的用于图像和视频对象分割的模型
UniRef是一个统一的用于图像和视频参考对象分割的模型。它支持语义参考图像分割(RIS)、少样本分割(FSS)、语义参考视频对象分割(RVOS)和视频对象分割(VOS)等多种任务。UniRef的核心是UniFusion模块,它可以高效地将各种参考信息注入到基础网络中。 UniRef可以作为SAM等基础模型的插件组件使用。UniRef提供了在多个基准数据集上训练好的模型,同时也开源了代码以供研究使用。
利用 AI 解决方案推进业务成果并改善客户体验。
Azure AI是微软为开发者和数据科学家设计的人工智能服务组合,具有负责任的AI原则支持,可帮助企业以更少的花费完成更多任务,构建和部署自己的 AI解决方案。主要功能包括视觉、语音、语言和决策 AI 模型,AI超级计算基础架构,熟悉的工具和开源框架支持等。关键优势有针对不同技能级别的框架和工具、任务关键型 AI 解决方案支持、负责任地应用 AI的工具和指南等。
一款用于训练PyTorch计算机视觉模型的开源库。
YOLO-NAS Pose是一款免费的、开源的库,用于训练基于PyTorch的计算机视觉模型。它提供了训练脚本和快速简单复制模型结果的示例。内置SOTA模型,可以轻松加载和微调生产就绪的预训练模型,包括最佳实践和验证的超参数,以实现最佳的准确性。可以缩短训练生命周期,消除不确定性。提供分类、检测、分割等不同任务的模型,可以轻松集成到代码库中。
PaLI-3 视觉语言模型:更小、更快、更强
Pali3是一种视觉语言模型,通过对图像进行编码并与查询一起传递给编码器-解码器Transformer来生成所需的答案。该模型经过多个阶段的训练,包括单模态预训练、多模态训练、分辨率增加和任务专业化。Pali3的主要功能包括图像编码、文本编码、文本生成等。该模型适用于图像分类、图像字幕、视觉问答等任务。Pali3的优势在于模型结构简单、训练效果好、速度快。该产品定价为免费开源。
强大的开源视觉语言模型
CogVLM是一个强大的开源视觉语言模型。CogVLM-17B拥有100亿个视觉参数和70亿个语言参数。CogVLM-17B在10个经典的跨模态基准测试中取得了最先进的性能,包括NoCaps、Flicker30k字幕、RefCOCO、RefCOCO+、RefCOCOg、Visual7W、GQA、ScienceQA、VizWiz VQA和TDIUC,并在VQAv2、OKVQA、TextVQA、COCO字幕等方面排名第二,超过或与PaLI-X 55B相匹配。CogVLM还可以与您就图像进行对话。
自动微分、并行加持,一次训练,可多场景部署
昇思MindSpore 是华为开源自研的 AI 框架,支持端边云全场景的深度学习训练推理,应用于计算机视觉、自然语言处理等 AI 领域。具备基于源码转换的通用自动微分、自动实现分布式并行训练、数据处理和图执行引擎等功能。框架开源,适用于数据科学家和算法工程师。
开源数据管理与标注平台
Dioptra是一款开源的数据管理与标注平台,为计算机视觉、自然语言处理和语言模型提供数据筛选和标注服务。用户可以注册并上传自己的数据,使用Dioptra的数据诊断工具进行模型故障排查和回归测试,并使用其主动学习算法筛选出最有价值的未标注数据。同时,Dioptra提供API接口,方便用户与标注和重新训练流程集成。通过使用Dioptra,用户可以提高模型在难案例上的准确率,缩短训练周期,并降低标注成本。
开源数据标注工具
Label Studio是一款灵活的开源数据标注平台,适用于各种数据类型。它可以帮助用户准备计算机视觉、自然语言处理、语音、声音和视频模型的训练数据。Label Studio提供了多种标注类型,包括图像分类、对象检测、语义分割、音频分类、说话人分割、情感识别、文本分类和命名实体识别等。它支持快速启动和使用,适用于个人和团队使用。
开源数据管理和标注平台
Dioptra 数据管理平台是一个开源的数据管理和标注平台,为计算机视觉、自然语言处理和语言模型提供数据筛选、标注和重训练的功能。通过注册你的元数据到 Dioptra 平台,你可以诊断模型失败原因,使用活跃学习算法筛选最有价值的未标注数据,并通过 Dioptra 的 API 与你的标注和重训练流程集成。我们的客户通过使用 Dioptra 平台,提高了模型在难例上的准确性,缩短了训练周期,并减少了标注成本。
HyperGAI推出的创新多模态LLM框架,旨在理解和处理文本、图像、视频等多种输入模态
HPT(Hyper-Pretrained Transformers)是HyperGAI研究团队推出的新型多模态大型语言模型框架,它能够高效且可扩展地训练大型多模态基础模型,理解包括文本、图像、视频等多种输入模态。HPT框架可以从头开始训练,也可以通过现有的预训练视觉编码器和/或大型语言模型进行高效适配。
基于视觉语言基础模型的胸部X光解读
CheXagent是一个基于视觉语言基础模型的胸部X光解读工具。它利用临床大型语言模型来解析放射学报告,视觉编码器用于表示X光图像,并设计了一个网络来桥接视觉和语言模态。此外,CheXagent还引入了CheXbench,一个旨在系统评估基于视觉语言基础模型在8个临床相关的胸部X光解读任务上的性能的新型基准。经过广泛的定量评估和与五名专家放射科医生的定性评审,CheXagent在CheXbench任务上的表现优于先前开发的通用和医学领域的基础模型。
交互式分割和识别模型
Open-Vocabulary SAM是一个基于SAM和CLIP的视觉基础模型,专注于交互式分割和识别任务。它通过SAM2CLIP和CLIP2SAM两个独特的知识传输模块,实现了SAM和CLIP的统一框架。在各种数据集和检测器上的广泛实验表明,Open-Vocabulary SAM在分割和识别任务中的有效性,明显优于简单组合SAM和CLIP的朴素基准。此外,结合图像分类数据训练,该方法可以分割和识别大约22,000个类别。
© 2024 AIbase 备案号:闽ICP备2023012347号-1