需求人群:
"Phi-3 WebGPU适合需要在本地浏览器中快速运行AI模型的开发者和研究人员,尤其是对隐私保护有较高要求的用户。它通过本地运行确保了数据处理的私密性,同时提供了高效的处理速度,适合需要进行大量数据处理的用户。"
使用场景示例:
用户可以在浏览器中直接运行Phi-3 WebGPU进行文本生成
研究人员可以利用Phi-3 WebGPU进行语言模型的本地测试和分析
开发者可以集成Phi-3 WebGPU到自己的网页应用中,提供智能交互功能
产品特色:
本地数据处理,保护用户隐私安全
WebGPU加速,处理速度超过20t/s
模型缓存,避免重复下载
支持在浏览器中直接运行AI模型
英文回答效果令人满意
中文回答存在一些幻觉现象
使用教程:
访问Phi-3 WebGPU的体验地址
等待模型文件自动下载(首次运行需要下载2.3GB的模型文件)
在本地浏览器中输入需要处理的文本或指令
获取Phi-3 WebGPU处理后的结果
根据需要调整输入参数,优化输出结果
利用模型缓存功能,提高重复使用效率
浏览量:167
最新流量情况
月访问量
25633.38k
平均访问时长
00:04:53
每次访问页数
5.77
跳出率
44.05%
流量来源
直接访问
49.07%
自然搜索
35.64%
邮件
0.03%
外链引荐
12.38%
社交媒体
2.75%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
14.36%
印度
8.76%
韩国
3.61%
俄罗斯
5.25%
美国
16.65%
允许用户直接在浏览器本地运行Phi-3模型的AI工具。
Phi-3 WebGPU是一款结合了Transformers.js和onnxruntime-web的AI模型,它利用WebGPU加速技术,提供超过20t/s的处理速度,并且所有数据处理在本地完成,确保用户隐私安全。尽管在中文回答上存在一些不足,但其在浏览器中提供的AI模型运行能力仍然值得关注。
在本地运行GPT-4和基础模型,无需上传屏幕上下文。
AmbientGPT是一个革命性的编程辅助工具,它允许开发者在本地运行GPT-4和基础模型,同时能够直接推断屏幕上下文,从而无需手动上传上下文信息。这大大提高了代码编写和问题解决的效率。产品目前处于测试阶段,适用于拥有ARM64架构MacBook的开发者,并且需要一个兼容的OpenAI API密钥。
本地运行的AI模型训练与部署工具,支持个性化训练和多平台使用。
Kolosal AI 是一款用于本地设备训练和运行大型语言模型(LLMs)的工具。它通过简化模型训练、优化和部署流程,使用户能够在本地设备上高效地使用 AI 技术。该工具支持多种硬件平台,提供快速的推理速度和灵活的定制能力,适合从个人开发者到大型企业的广泛应用场景。其开源特性也使得用户可以根据自身需求进行二次开发。
本地运行的人工智能代理,无缝自动化工程任务。
Codename Goose 是一款本地运行的人工智能代理工具,旨在帮助开发者高效完成工程任务。它强调开源和本地运行,确保用户对任务执行有完全控制权。通过连接外部服务器或API,Goose 可以根据用户需求进行扩展,实现复杂任务的自动化处理,从而让开发者专注于更重要的工作。Goose 的开源特性鼓励开发者参与贡献和创新,其本地运行的模式保障了数据隐私和任务执行效率。
机器学习模型运行和部署的工具
Replicate是一款机器学习模型运行和部署的工具,无需自行配置环境,可以快速运行和部署机器学习模型。Replicate提供了Python库和API接口,支持运行和查询模型。社区共享了成千上万个可用的机器学习模型,涵盖了文本理解、视频编辑、图像处理等多个领域。使用Replicate和相关工具,您可以快速构建自己的项目并进行部署。
一个用于在网站上提问的Chrome扩展程序,支持本地运行和向量存储。
Site RAG 是一款 Chrome 扩展程序,旨在通过自然语言处理技术帮助用户在浏览网页时快速获取问题答案。它支持将当前页面内容作为上下文进行查询,还能将整个网站内容索引到向量数据库中,以便后续进行检索增强生成(RAG)。该产品完全在本地浏览器运行,确保用户数据安全,同时支持连接本地运行的 Ollama 实例进行推理。它主要面向需要快速从网页内容中提取信息的用户,如开发者、研究人员和学生。目前该产品免费提供,适合希望在浏览网页时获得即时帮助的用户。
利用本地 AI 模型为您提供网页浏览辅助
Page Assist 是一个为本地 AI 模型提供便捷的 Web 用户界面的辅助工具。您可以利用本地 AI 模型与浏览器交互,或者将其作为本地 AI 模型供应商(如 Ollama Repo)的 Web 用户界面。当前功能包括侧边栏任务支持、视觉模型支持、最小化的本地 AI 模型 Web 用户界面、互联网搜索功能、侧边栏上的 PDF 对话框、文档聊天(PDF、CSV、TXT、MD 格式)等。
一款支持本地AI运行及通过OpenRouter连接多种AI模型的移动应用。
Apollo AI是专注隐私保护与本地运行的聊天应用,可本地运行小语言模型或连OpenRouter,保护隐私,售价5.99美元,定位高端隐私工具。
本地AI管理、验证和推断
本地AI游乐场是一个本地AI模型管理、验证和推断的桌面客户端应用。它提供了零技术设置的AI实验环境,不需要GPU支持。用户可以在本地离线环境中运行AI模型,享受更高的隐私保护。该应用具有简洁易用的界面和强大的功能,支持CPU推断、模型下载和管理、模型完整性验证等功能。本地AI游乐场是免费开源的。
本地大语言模型
Ollama是一款本地大语言模型工具,让用户能够快速运行Llama 2、Code Llama和其他模型。用户可以自定义和创建他们自己的模型。Ollama目前支持macOS和Linux,Windows版本即将推出。该产品定位于为用户提供本地化的大语言模型运行环境,以满足用户个性化的需求。
这是一个基于WebGPU的在线工具,用于实时去除照片背景。
remove-background-webgpu 是一个运行于浏览器中的小程序,利用WebGPU技术实现快速的图片背景移除。它可帮助用户在不下载任何额外软件的情况下,快速获取无背景的图片。
在本地使用 LLMs 根据自然语言提示生成音乐。
MusicGPT 是一款允许在任何平台上以高性能方式在本地运行最新音乐生成 AI 模型的应用程序。它支持文本条件音乐生成、旋律条件音乐生成以及不确定长度 / 无限音乐流。产品优势在于无需安装重型依赖如 Python 或机器学习框架,能够本地运行 AI 模型,提供自然语言提示生成音乐的功能。
使用Ollama和Gradio UI的GraphRAG本地模型
GraphRAG-Ollama-UI是一个基于微软GraphRAG的本地模型适配版本,支持使用Ollama进行本地模型支持。它通过Gradio UI提供了一个交互式用户界面,使得用户可以更方便地管理数据、运行查询和可视化结果。该模型的主要优点包括本地模型支持、成本效益高、交互式用户界面、实时图可视化、文件管理、设置管理、输出探索和日志记录。
Ollama能在Windows本地运行大型AI模型
Ollama是一个开源项目,能够在Windows本地运行各类大型AI模型,支持GPU加速,内置OpenAI模型兼容层,提供永久在线的API。用户可以无缝访问Ollama的完整模型库,进行图片和语音交互。Ollama免配置就能获得强大的AI能力,帮助开发者和创作者在Windows上构建AI应用。
视频分析工具,结合Llama视觉模型和OpenAI Whisper进行本地视频描述生成。
video-analyzer是一个视频分析工具,它结合了Llama的11B视觉模型和OpenAI的Whisper模型,通过提取关键帧、将它们输入视觉模型以获取细节,并结合每个帧的细节和可用的转录内容来描述视频中发生的事情。这个工具代表了计算机视觉、音频转录和自然语言处理的结合,能够生成视频内容的详细描述。它的主要优点包括完全本地运行无需云服务或API密钥、智能提取视频关键帧、使用OpenAI的Whisper进行高质量音频转录、使用Ollama和Llama3.2 11B视觉模型进行帧分析,以及生成自然语言描述的视频内容。
本地运行稳定的 Diffusion 模型的最简单方式
Diffusion Bee 是在 Intel/M1 Mac 上本地运行稳定的 Diffusion 模型的最简单方式,提供一键安装程序,无需依赖或技术知识。 Diffusion Bee 在您的计算机上本地运行,不会将任何数据发送到云端(除非您选择上传图像)。 主要功能: - 图像转换 - 图像修复 - 图像生成历史记录 - 图像放大 - 多种图像尺寸 - 针对 M1/M2 芯片进行优化 - 支持负向提示和高级提示选项 - 控制网络 Diffusion Bee 是基于 Stable Diffusion 的 GUI 封装,所以所有 Stable Diffusion 的条款适用于输出结果。 欲了解更多信息,请访问文档。 系统要求: - 配有 Intel 或 M1/M2 芯片的 Mac - 对于 Intel 芯片:MacOS 12.3.1 或更高版本 - 对于 M1/M2 芯片:MacOS 11.0.0 或更高版本 许可证:Stable Diffusion 发布在 CreativeML OpenRAIL M 许可下。
将自定义代码补全模型集成到VS Code
Custom Pilot 是一个 Visual Studio Code 扩展框架,允许用户轻松地将自定义的代码补全模型集成到 VS Code 中。它支持使用任何遵循 OpenAI API 格式的 API 服务器,特别是需要提供 /v1/models 和 /v1/completions 两个端点。用户可以在扩展的侧边栏面板中设置 API 服务器的 URL、选择推理模型,并输入 API 密钥(如果需要)。此外,Custom Pilot 还可以与 LM Studio 配合使用,允许用户在本地机器上离线运行大型语言模型(LLMs),并通过 VS Code 进行代码补全。
NativeMind是一个完全私密、开源、本地AI助手,可以在您喜爱的浏览器中运行。
NativeMind是一个在设备上运行的私密AI助手,通过连接到Ollama本地LLMs,将最新的AI功能带到您喜爱的浏览器中,无需向云服务器发送任何数据。它完全开源,具有审计能力、透明度和社区支持。NativeMind旨在提供高效的本地AI支持,使用户能够获得最新的智能技术,保持数据安全和控制权。
下一代本地优先的大型语言模型(LLMs)
anime.gf 是由 moecorp 发起的下一代本地优先的大型语言模型(LLMs),目前正处于积极开发阶段。它代表了一种新兴的本地化和开源的人工智能技术,旨在提供更高效、更个性化的用户体验。
以开发者为中心的AI平台,高效、可扩展、分钟级运行
Lepton AI是一款以开发者为中心的AI平台,提供高效、可扩展、分钟级运行的AI应用程序。它可以帮助用户在不到几分钟的时间内构建和运行AI应用程序,而不需要担心基础设施和规模问题。Lepton AI的优势在于其易用性、可扩展性和灵活性,使其成为开发人员和企业的首选AI平台。定价方案灵活,适合不同规模和需求的用户。
检测设备是否能运行不同规模的 DeepSeek 模型,提供兼容性预测。
DeepSeek 模型兼容性检测是一个用于评估设备是否能够运行不同规模 DeepSeek 模型的工具。它通过检测设备的系统内存、显存等配置,结合模型的参数量、精度位数等信息,为用户提供模型运行的预测结果。该工具对于开发者和研究人员在选择合适的硬件资源以部署 DeepSeek 模型时具有重要意义,能够帮助他们提前了解设备的兼容性,避免因硬件不足而导致的运行问题。DeepSeek 模型本身是一种先进的深度学习模型,广泛应用于自然语言处理等领域,具有高效、准确的特点。通过该检测工具,用户可以更好地利用 DeepSeek 模型进行项目开发和研究。
使用云 GPU 资源在本地 ComfyUI 上运行您的工作流程
ComfyUI-Cloud 是一个自定义节点,它使用户可以在本地完全控制 ComfyUI 的同时,利用云 GPU 资源来运行他们的工作流程。它允许用户运行需要高 VRAM 的工作流程,而不需要将自定义节点/模型导入云提供商或花费金钱购买新的 GPU。
本地机器智能的探索之旅
Local III是一个由超过100名来自世界各地的开发者共同开发的更新,它提供了易于使用的本地模型浏览器,深度集成了推理引擎如Ollama,为开放模型如Llama3、Moondream和Codestral定制了配置文件,并提供了一套设置,使离线代码解释更加可靠。Local III还引入了一个免费的、托管的、可选的模型通过解释器--model i。与i模型的对话将用于训练我们自己的开源计算机控制语言模型。
桌面本地语言处理工具
Ava PLS是一个桌面应用程序,允许您在本地计算机上运行语言模型,进行各种语言任务,如文本生成、语法纠正、改写、摘要、数据提取等。具有强大的功能,注重隐私,一体化设计,易于上手使用。
高性能浏览器内语言模型推理引擎
WebLLM是一个高性能的浏览器内语言模型推理引擎,利用WebGPU进行硬件加速,使得强大的语言模型操作可以直接在网页浏览器内执行,无需服务器端处理。这个项目旨在将大型语言模型(LLM)直接集成到客户端,从而实现成本降低、个性化增强和隐私保护。它支持多种模型,并与OpenAI API兼容,易于集成到项目中,支持实时交互和流式处理,是构建个性化AI助手的理想选择。
轻松快捷的App和网站本地化
Locales.ai是一款AI驱动的App和网站本地化解决方案,专为初创企业和企业设计,旨在简化产品经理、工程师和业主的本地化过程。扩展您的影响力,增强国际影响力,立即尝试Locales.ai!
在口袋里拥有十亿参数,与私有本地大型语言模型聊天。
fullmoon是一款由Mainframe开发的本地智能应用,允许用户在本地设备上与大型语言模型进行聊天。它支持完全离线操作,优化了Apple硅芯片的模型运行,提供了个性化的主题、字体和系统提示调整功能。作为一款免费、开源且注重隐私的应用,它为用户提供了一种简单、安全的方式来利用强大的语言模型进行交流和创作。
© 2025 AIbase 备案号:闽ICP备08105208号-14