需求人群:
"LLaVA-3b可用于图像描述生成、视觉问答等应用场景。"
产品特色:
模型微调
模型部署
在Transformers中使用
浏览量:37
最新流量情况
月访问量
19075.32k
平均访问时长
00:05:32
每次访问页数
5.52
跳出率
45.07%
流量来源
直接访问
48.31%
自然搜索
36.36%
邮件
0.03%
外链引荐
12.17%
社交媒体
3.11%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.13%
印度
7.59%
日本
3.67%
俄罗斯
6.13%
美国
18.18%
LLaVA-3b是一种基于Dolphin 2.6 Phi进行微调的模型,使用SigLIP 400M的视觉塔以LLaVA方式进行微调。模型具有多个图像标记、使用视觉编码器的最新层输出等特点。
LLaVA-3b是一种基于Dolphin 2.6 Phi进行微调的模型,使用SigLIP 400M的视觉塔以LLaVA方式进行微调。模型具有多个图像标记、使用视觉编码器的最新层输出等特点。此模型基于Phi-2,受微软研究许可证约束,禁止商业使用。感谢ML Collective提供的计算资源积分。
基于Stable Diffusion 3.5 Large模型的IP适配器
SD3.5-Large-IP-Adapter是一个基于Stable Diffusion 3.5 Large模型的IP适配器,由InstantX Team研发。该模型能够将图像处理工作类比于文本处理,具有强大的图像生成能力,并且可以通过适配器技术进一步提升图像生成的质量和效果。该技术的重要性在于其能够推动图像生成技术的发展,特别是在创意工作和艺术创作领域。产品背景信息显示,该模型是由Hugging Face和fal.ai赞助的项目,并且遵循stabilityai-ai-community的许可协议。
企业级AI智能体开发平台,快速构建专业级智能体。
智谱清流AI开放平台是一个企业级AI智能体开发平台,利用智谱大模型技术,帮助企业快速构建专业级智能体,实现大模型到业务场景的快速应用。平台提供模型服务、智能体构建、数据安全、效果评测和系统集成等功能,支持企业通过内网部署和本地存储保护数据,确保数据安全和知识产权。智谱AI开放平台以其领先的技术、灵活的工作流编排、自主调用企业定义的数据知识和工具,以及成熟的AI原生应用落地经验,成为企业数字化转型的重要助力。
Hugging Face上由Qwen提供的编程工具集合
Qwen2.5 Coder Artifacts是一个托管在Hugging Face平台上的编程工具集合,代表了人工智能在编程领域的应用。这个产品集合利用最新的机器学习技术,帮助开发者提高编码效率,优化代码质量。产品背景信息显示,它是由Qwen创建并维护的,旨在为开发者提供一个强大的编程辅助工具。产品是免费的,定位于提高开发者的生产力。
高效优化的子十亿参数语言模型,专为设备端应用设计
MobileLLM-350M是由Meta开发的自回归语言模型,采用优化的Transformer架构,专为设备端应用设计,以满足资源受限的环境。该模型整合了SwiGLU激活函数、深层薄架构、嵌入共享和分组查询注意力等关键技术,实现了在零样本常识推理任务上的显著准确率提升。MobileLLM-350M在保持较小模型尺寸的同时,提供了与更大模型相媲美的性能,是设备端自然语言处理应用的理想选择。
由CohereForAI开发的Hugging Face Space
Aya Expanse是一个由CohereForAI开发的Hugging Face Space,它可能涉及到机器学习模型的开发和应用。Hugging Face是一个专注于自然语言处理的人工智能平台,提供各种模型和工具,以帮助开发者构建、训练和部署NLP应用。Aya Expanse作为该平台上的一个Space,可能具有特定的功能或技术,用于支持开发者在NLP领域的工作。
基于MaskGCT模型的文本到语音演示
MaskGCT TTS Demo 是一个基于MaskGCT模型的文本到语音(TTS)演示,由Hugging Face平台上的amphion提供。该模型利用深度学习技术,将文本转换为自然流畅的语音,适用于多种语言和场景。MaskGCT模型因其高效的语音合成能力和对多种语言的支持而受到关注。它不仅可以提高语音识别和合成的准确性,还能在不同的应用场景中提供个性化的语音服务。目前,该产品在Hugging Face平台上提供免费试用,具体价格和定位信息需进一步了解。
开源的语音识别和说话人分割模型推理代码
Reverb 是一个开源的语音识别和说话人分割模型推理代码,使用 WeNet 框架进行语音识别 (ASR) 和 Pyannote 框架进行说话人分割。它提供了详细的模型描述,并允许用户从 Hugging Face 下载模型。Reverb 旨在为开发者和研究人员提供高质量的语音识别和说话人分割工具,以支持各种语音处理任务。
将Hugging Face Space或Gradio应用转化为Discord机器人
gradio-bot是一个可以将Hugging Face Space或Gradio应用转化为Discord机器人的工具。它允许开发者通过简单的命令行操作,将现有的机器学习模型或应用快速部署到Discord平台上,实现自动化交互。这不仅提高了应用的可达性,还为开发者提供了一个与用户直接交互的新渠道。
加速模型评估和微调的智能评估工具
SFR-Judge 是 Salesforce AI Research 推出的一系列评估模型,旨在通过人工智能技术加速大型语言模型(LLMs)的评估和微调过程。这些模型能够执行多种评估任务,包括成对比较、单项评分和二元分类,同时提供解释,避免黑箱问题。SFR-Judge 在多个基准测试中表现优异,证明了其在评估模型输出和指导微调方面的有效性。
一款基于Hugging Face的图像放大模型。
Flux.1-dev Controlnet Upscaler 是一个基于Hugging Face平台的图像放大模型,它使用先进的深度学习技术来提高图像的分辨率,同时保持图像质量。该模型特别适合需要对图像进行无损放大的场景,如图像编辑、游戏开发、虚拟现实等。
图像条件扩散模型的微调工具
diffusion-e2e-ft是一个开源的图像条件扩散模型微调工具,它通过微调预训练的扩散模型来提高特定任务的性能。该工具支持多种模型和任务,如深度估计和法线估计,并提供了详细的使用说明和模型检查点。它在图像处理和计算机视觉领域具有重要应用,能够显著提升模型在特定任务上的准确性和效率。
首个无需注意力机制的7B大规模模型
Falcon Mamba是由阿布扎比技术创新研究所(TII)发布的首个无需注意力机制的7B大规模模型。该模型在处理大型序列时,不受序列长度增加导致的计算和存储成本增加的限制,同时保持了与现有最先进模型相当的性能。
用于 Kwai-Kolors 文本到图像模型的扩散器包装器
ComfyUI-KwaiKolorsWrapper 是一个为 Kwai-Kolors 文本到图像模型设计的 Diffusers 包装器。它使用户能够通过 Diffusers 库方便地运行 Kwai-Kolors 的文本到图像生成流程。该插件支持从 Hugging Face 直接下载模型,并提供了量化模型以减少 VRAM 使用,适用于需要高效率图像生成的开发者和设计师。
AI模型提供商,提供丰富的Hugging Face模型访问。
Featherless是一个AI模型提供商,专注于为订阅者提供持续扩展的Hugging Face模型库。它支持LLaMA-3等模型架构,提供个性化和隐私保护的服务,不记录用户聊天或提示。Featherless提供了两种定价计划,基础版每月10美元,高级版每月25美元,分别提供最大15B和72B模型的访问权限。
先进的视觉基础模型,支持多种视觉和视觉-语言任务
Florence-2是由微软开发的高级视觉基础模型,采用基于提示的方法处理广泛的视觉和视觉-语言任务。该模型能够解释简单的文本提示,执行诸如图像描述、目标检测和分割等任务。它利用FLD-5B数据集,包含54亿个注释,覆盖1.26亿张图像,精通多任务学习。其序列到序列的架构使其在零样本和微调设置中均表现出色,证明是一个有竞争力的视觉基础模型。
一个定制的ComfyUI节点,用于Hallo模型。
ComfyUI-Hallo是一个为Hallo模型定制的ComfyUI插件,它允许用户在命令行中使用ffmpeg,并从Hugging Face下载模型权重,或者手动下载并放置在指定目录。它为开发者提供了一个易于使用的界面来集成Hallo模型,从而增强了开发效率和用户体验。
1460亿参数的高性能混合专家模型
Skywork-MoE-Base是一个具有1460亿参数的高性能混合专家(MoE)模型,由16个专家组成,并激活了220亿参数。该模型从Skywork-13B模型的密集型检查点初始化而来,并引入了两种创新技术:门控逻辑归一化增强专家多样化,以及自适应辅助损失系数,允许针对层特定调整辅助损失系数。Skywork-MoE在各种流行基准测试中表现出与参数更多或激活参数更多的模型相当的或更优越的性能。
加速个性化LLM的来临。
Prem是一个加速个性化LLM(小型语言模型)发展的人工智能平台。它提供了一个直观易用的开发平台,用于构建生成式AI解决方案。Prem还提供了定制化的模型微调和训练服务,以满足独特的业务需求。通过Prem,用户可以获得对AI的最大潜力的掌控和所有权,而无需深入的专业知识。
开源代码库,为HuggingChat应用提供动力
chat-ui是一个开源的聊天界面,使用开源模型如OpenAssistant或Llama。它是一个SvelteKit应用程序,为hf.co/chat上的HuggingChat应用提供支持。该产品允许用户通过自定义配置来运行和部署自己的Chat UI实例,支持多种语言模型和功能,如Web搜索、自定义模型等。
构建最好的中文Llama大模型,完全开源可商用。
Llama中文社区是一个专注于Llama模型在中文方面的优化和上层建设的技术社区。社区提供基于大规模中文数据的预训练模型,并对Llama2和Llama3模型进行持续的中文能力迭代升级。社区拥有高级工程师团队支持,丰富的社区活动,以及开放共享的合作环境,旨在推动中文自然语言处理技术的发展。
高效灵活的大规模模型微调工具包
XTuner是一个为大型模型(如InternLM, Llama, Baichuan, Qwen, ChatGLM)设计的高效、灵活且功能齐全的微调工具包。它支持在几乎所有GPU上进行LLM和VLM的预训练和微调,能够自动调度高性能操作,如FlashAttention和Triton内核,以提高训练吞吐量。XTuner与DeepSpeed兼容,支持多种ZeRO优化技术。它还支持各种LLMs和VLM(如LLaVA),并设计了良好的数据管道,能够适应任何格式的数据集。此外,XTuner支持多种训练算法,包括QLoRA、LoRA和全参数微调,使用户能够选择最适合其需求的解决方案。
生成高质量、自然 sounding 的语音
Parler-TTS 是一个由 Hugging Face 开发的轻量级文本转语音(TTS)模型,能够以给定说话者的风格(性别、音调、说话风格等)生成高质量、自然 sounding 的语音。它是基于 Dan Lyth 和 Simon King 发表的论文《Natural language guidance of high-fidelity text-to-speech with synthetic annotations》的工作复现,两位作者分别来自 Stability AI 和爱丁堡大学。与其他TTS模型不同,Parler-TTS 完全开源发布,包括数据集、预处理、训练代码和权重。功能包括:生成高质量且自然 sounding 的语音输出、灵活的使用和部署、提供丰富的注释语音数据集。定价:免费。
一款小型评分器,提升大型多任务语言模型性能
Cappy是一种新型方法,旨在提高大型多任务语言模型的性能和效率。它是一个轻量级的预训练评分器,基于RoBERTa,仅有3.6亿个参数。Cappy可独立解决分类任务,或作为辅助组件提升语言模型性能。在下游任务中微调Cappy,可有效整合监督信息,提高模型表现,且不需要反向传播到语言模型参数,降低了内存需求。Cappy适用于开源和封闭源代码的语言模型,是一种高效的模型微调方法。
Hugging Face官方课程,提供有关使用Hugging Face产品的教程和资源
Hugging Face Course是一个由Hugging Face官方提供的教育资源,旨在帮助用户学习和掌握Hugging Face平台的各种工具和API。
Windows AI Studio简化生成式AI应用程序开发
Windows AI Studio通过汇集来自Azure AI Studio和其他目录(如Hugging Face)的尖端AI开发工具和模型,简化了生成式AI应用程序的开发。它使开发人员能够对本地应用程序中使用的最新小语言模型(SLMs)进行微调、定制和部署。它提供端到端的引导式工作区设置,包括模型配置UI和引导式步骤,以微调流行的SLMs(如Phi)和最先进的模型(如Llama 2和Mistral)。
© 2024 AIbase 备案号:闽ICP备08105208号-14