需求人群:
"Phi-3 WebGPU适合需要在本地浏览器中快速运行AI模型的开发者和研究人员,尤其是对隐私保护有较高要求的用户。它通过本地运行确保了数据处理的私密性,同时提供了高效的处理速度,适合需要进行大量数据处理的用户。"
使用场景示例:
用户可以在浏览器中直接运行Phi-3 WebGPU进行文本生成
研究人员可以利用Phi-3 WebGPU进行语言模型的本地测试和分析
开发者可以集成Phi-3 WebGPU到自己的网页应用中,提供智能交互功能
产品特色:
本地数据处理,保护用户隐私安全
WebGPU加速,处理速度超过20t/s
模型缓存,避免重复下载
支持在浏览器中直接运行AI模型
英文回答效果令人满意
中文回答存在一些幻觉现象
使用教程:
访问Phi-3 WebGPU的体验地址
等待模型文件自动下载(首次运行需要下载2.3GB的模型文件)
在本地浏览器中输入需要处理的文本或指令
获取Phi-3 WebGPU处理后的结果
根据需要调整输入参数,优化输出结果
利用模型缓存功能,提高重复使用效率
浏览量:171
最新流量情况
月访问量
25633.38k
平均访问时长
00:04:53
每次访问页数
5.77
跳出率
44.05%
流量来源
直接访问
49.07%
自然搜索
35.64%
邮件
0.03%
外链引荐
12.38%
社交媒体
2.75%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
14.36%
印度
8.76%
韩国
3.61%
俄罗斯
5.25%
美国
16.65%
允许用户直接在浏览器本地运行Phi-3模型的AI工具。
Phi-3 WebGPU是一款结合了Transformers.js和onnxruntime-web的AI模型,它利用WebGPU加速技术,提供超过20t/s的处理速度,并且所有数据处理在本地完成,确保用户隐私安全。尽管在中文回答上存在一些不足,但其在浏览器中提供的AI模型运行能力仍然值得关注。
检测硬件,了解本地可运行的AI模型,支持GPU、CPU和RAM分析
CanIRun.ai是一个在线网站,其核心功能是检测用户硬件配置,并分析哪些AI模型可以在本地运行。这项技术的重要性在于,它解决了用户在选择AI模型时,因不确定硬件是否支持而产生的困扰。主要优点包括:方便快捷,用户无需进行复杂的手动配置和测试;信息全面,涵盖了众多主流的AI模型;实时更新,能及时反映最新的硬件和模型信息。产品背景方面,随着AI技术的快速发展,越来越多的用户希望在本地运行AI模型,但不同模型对硬件的要求差异较大,CanIRun.ai应运而生,为用户提供了一个简单易用的解决方案。目前未提及价格相关信息,其定位是为广大AI爱好者和开发者提供硬件与模型匹配的参考工具。
在本地运行GPT-4和基础模型,无需上传屏幕上下文。
AmbientGPT是一个革命性的编程辅助工具,它允许开发者在本地运行GPT-4和基础模型,同时能够直接推断屏幕上下文,从而无需手动上传上下文信息。这大大提高了代码编写和问题解决的效率。产品目前处于测试阶段,适用于拥有ARM64架构MacBook的开发者,并且需要一个兼容的OpenAI API密钥。
本地运行的人工智能代理,无缝自动化工程任务。
Codename Goose 是一款本地运行的人工智能代理工具,旨在帮助开发者高效完成工程任务。它强调开源和本地运行,确保用户对任务执行有完全控制权。通过连接外部服务器或API,Goose 可以根据用户需求进行扩展,实现复杂任务的自动化处理,从而让开发者专注于更重要的工作。Goose 的开源特性鼓励开发者参与贡献和创新,其本地运行的模式保障了数据隐私和任务执行效率。
本地运行的AI模型训练与部署工具,支持个性化训练和多平台使用。
Kolosal AI 是一款用于本地设备训练和运行大型语言模型(LLMs)的工具。它通过简化模型训练、优化和部署流程,使用户能够在本地设备上高效地使用 AI 技术。该工具支持多种硬件平台,提供快速的推理速度和灵活的定制能力,适合从个人开发者到大型企业的广泛应用场景。其开源特性也使得用户可以根据自身需求进行二次开发。
秒级安装OpenClaw等,支持多平台多应用,本地运行数据可控。
EasyClaw是一款用于快速安装OpenClaw、ClawdBot和MoltBot的工具。其重要性在于简化了安装过程,解决了传统安装中的诸多问题,如依赖错误、配置问题等。主要优点包括安装速度快、支持多平台(macOS、Windows和Linux)、本地运行数据安全、可连接多种通讯应用、可选择不同AI提供商、具有可扩展性等。该产品由OpenClaw、MoltBot和ClawdBot社区爱好者制作,定位为为用户提供便捷的AI助手安装和使用体验,价格信息未提及,推测为免费。
机器学习模型运行和部署的工具
Replicate是一款机器学习模型运行和部署的工具,无需自行配置环境,可以快速运行和部署机器学习模型。Replicate提供了Python库和API接口,支持运行和查询模型。社区共享了成千上万个可用的机器学习模型,涵盖了文本理解、视频编辑、图像处理等多个领域。使用Replicate和相关工具,您可以快速构建自己的项目并进行部署。
利用本地 AI 模型为您提供网页浏览辅助
Page Assist 是一个为本地 AI 模型提供便捷的 Web 用户界面的辅助工具。您可以利用本地 AI 模型与浏览器交互,或者将其作为本地 AI 模型供应商(如 Ollama Repo)的 Web 用户界面。当前功能包括侧边栏任务支持、视觉模型支持、最小化的本地 AI 模型 Web 用户界面、互联网搜索功能、侧边栏上的 PDF 对话框、文档聊天(PDF、CSV、TXT、MD 格式)等。
基于AgentScope的开源个人AI助理工作站,支持多渠道和本地大模型运行。
CoPaw是基于AgentScope框架构建的开源AI助理工作站。它为用户提供了完全的隐私控制,可本地或云端部署,连接多种聊天应用并运行本地大语言模型。其技术架构结合Python和TypeScript,模型管理支持多种方式,核心模块解耦可独立扩展。主要优点包括多渠道集成、本地模型运行、模块化架构、可扩展技能系统、长期记忆和心跳机制等。产品定位是帮助用户实现自动化工作流程,提升工作和生活效率。价格方面,产品是开源的,可免费使用,无相关付费信息。
一个用于在网站上提问的Chrome扩展程序,支持本地运行和向量存储。
Site RAG 是一款 Chrome 扩展程序,旨在通过自然语言处理技术帮助用户在浏览网页时快速获取问题答案。它支持将当前页面内容作为上下文进行查询,还能将整个网站内容索引到向量数据库中,以便后续进行检索增强生成(RAG)。该产品完全在本地浏览器运行,确保用户数据安全,同时支持连接本地运行的 Ollama 实例进行推理。它主要面向需要快速从网页内容中提取信息的用户,如开发者、研究人员和学生。目前该产品免费提供,适合希望在浏览网页时获得即时帮助的用户。
一款支持本地AI运行及通过OpenRouter连接多种AI模型的移动应用。
Apollo AI是专注隐私保护与本地运行的聊天应用,可本地运行小语言模型或连OpenRouter,保护隐私,售价5.99美元,定位高端隐私工具。
本地大语言模型
Ollama是一款本地大语言模型工具,让用户能够快速运行Llama 2、Code Llama和其他模型。用户可以自定义和创建他们自己的模型。Ollama目前支持macOS和Linux,Windows版本即将推出。该产品定位于为用户提供本地化的大语言模型运行环境,以满足用户个性化的需求。
本地AI管理、验证和推断
本地AI游乐场是一个本地AI模型管理、验证和推断的桌面客户端应用。它提供了零技术设置的AI实验环境,不需要GPU支持。用户可以在本地离线环境中运行AI模型,享受更高的隐私保护。该应用具有简洁易用的界面和强大的功能,支持CPU推断、模型下载和管理、模型完整性验证等功能。本地AI游乐场是免费开源的。
灵活的AI面试助手,可本地或云端运行,提供实时会议笔记与AI协助。
Natively是一个灵活的AI会议助手,可100%本地运行,也支持连接OpenAI、Anthropic、Gemini等云服务。其重要性在于为用户提供了隐私和性能的双重选择。主要优点包括实时回答问题、生成精美会议笔记、结合多源信息精准回答等。产品背景是满足专业人士在会议、面试等场景下的需求。价格方面,有免费试用,也有不同档次的付费套餐,如Standard每月8美元、Pro每月15美元等。定位是为专业人士提供高效、智能的会议辅助工具。
这是一个基于WebGPU的在线工具,用于实时去除照片背景。
remove-background-webgpu 是一个运行于浏览器中的小程序,利用WebGPU技术实现快速的图片背景移除。它可帮助用户在不下载任何额外软件的情况下,快速获取无背景的图片。
在本地使用 LLMs 根据自然语言提示生成音乐。
MusicGPT 是一款允许在任何平台上以高性能方式在本地运行最新音乐生成 AI 模型的应用程序。它支持文本条件音乐生成、旋律条件音乐生成以及不确定长度 / 无限音乐流。产品优势在于无需安装重型依赖如 Python 或机器学习框架,能够本地运行 AI 模型,提供自然语言提示生成音乐的功能。
使用Ollama和Gradio UI的GraphRAG本地模型
GraphRAG-Ollama-UI是一个基于微软GraphRAG的本地模型适配版本,支持使用Ollama进行本地模型支持。它通过Gradio UI提供了一个交互式用户界面,使得用户可以更方便地管理数据、运行查询和可视化结果。该模型的主要优点包括本地模型支持、成本效益高、交互式用户界面、实时图可视化、文件管理、设置管理、输出探索和日志记录。
本地运行稳定的 Diffusion 模型的最简单方式
Diffusion Bee 是在 Intel/M1 Mac 上本地运行稳定的 Diffusion 模型的最简单方式,提供一键安装程序,无需依赖或技术知识。 Diffusion Bee 在您的计算机上本地运行,不会将任何数据发送到云端(除非您选择上传图像)。 主要功能: - 图像转换 - 图像修复 - 图像生成历史记录 - 图像放大 - 多种图像尺寸 - 针对 M1/M2 芯片进行优化 - 支持负向提示和高级提示选项 - 控制网络 Diffusion Bee 是基于 Stable Diffusion 的 GUI 封装,所以所有 Stable Diffusion 的条款适用于输出结果。 欲了解更多信息,请访问文档。 系统要求: - 配有 Intel 或 M1/M2 芯片的 Mac - 对于 Intel 芯片:MacOS 12.3.1 或更高版本 - 对于 M1/M2 芯片:MacOS 11.0.0 或更高版本 许可证:Stable Diffusion 发布在 CreativeML OpenRAIL M 许可下。
视频分析工具,结合Llama视觉模型和OpenAI Whisper进行本地视频描述生成。
video-analyzer是一个视频分析工具,它结合了Llama的11B视觉模型和OpenAI的Whisper模型,通过提取关键帧、将它们输入视觉模型以获取细节,并结合每个帧的细节和可用的转录内容来描述视频中发生的事情。这个工具代表了计算机视觉、音频转录和自然语言处理的结合,能够生成视频内容的详细描述。它的主要优点包括完全本地运行无需云服务或API密钥、智能提取视频关键帧、使用OpenAI的Whisper进行高质量音频转录、使用Ollama和Llama3.2 11B视觉模型进行帧分析,以及生成自然语言描述的视频内容。
Ollama能在Windows本地运行大型AI模型
Ollama是一个开源项目,能够在Windows本地运行各类大型AI模型,支持GPU加速,内置OpenAI模型兼容层,提供永久在线的API。用户可以无缝访问Ollama的完整模型库,进行图片和语音交互。Ollama免配置就能获得强大的AI能力,帮助开发者和创作者在Windows上构建AI应用。
ZeroClaw是本地私人AI助理,可连多平台,数据不离开本地,无云无订阅。
ZeroClaw是一款由ZeroClaw Labs开发的私人AI助理,它能够100%在本地机器上运行,无需依赖云端服务。其重要性在于为用户提供了高度的数据隐私保护,用户数据不会离开自己的计算机,避免了数据泄露风险。该产品采用Rust语言开发,具有轻量级、高性能的特点,典型内存占用小于5MB,在低端硬件上也能实现近即时启动,冷启动时间小于10ms。它的定位是为个人用户和企业团队提供一个安全、高效、可定制的AI助理解决方案,且无需订阅费用,完全免费使用。
将自定义代码补全模型集成到VS Code
Custom Pilot 是一个 Visual Studio Code 扩展框架,允许用户轻松地将自定义的代码补全模型集成到 VS Code 中。它支持使用任何遵循 OpenAI API 格式的 API 服务器,特别是需要提供 /v1/models 和 /v1/completions 两个端点。用户可以在扩展的侧边栏面板中设置 API 服务器的 URL、选择推理模型,并输入 API 密钥(如果需要)。此外,Custom Pilot 还可以与 LM Studio 配合使用,允许用户在本地机器上离线运行大型语言模型(LLMs),并通过 VS Code 进行代码补全。
下一代本地优先的大型语言模型(LLMs)
anime.gf 是由 moecorp 发起的下一代本地优先的大型语言模型(LLMs),目前正处于积极开发阶段。它代表了一种新兴的本地化和开源的人工智能技术,旨在提供更高效、更个性化的用户体验。
NativeMind是一个完全私密、开源、本地AI助手,可以在您喜爱的浏览器中运行。
NativeMind是一个在设备上运行的私密AI助手,通过连接到Ollama本地LLMs,将最新的AI功能带到您喜爱的浏览器中,无需向云服务器发送任何数据。它完全开源,具有审计能力、透明度和社区支持。NativeMind旨在提供高效的本地AI支持,使用户能够获得最新的智能技术,保持数据安全和控制权。
本地机器智能的探索之旅
Local III是一个由超过100名来自世界各地的开发者共同开发的更新,它提供了易于使用的本地模型浏览器,深度集成了推理引擎如Ollama,为开放模型如Llama3、Moondream和Codestral定制了配置文件,并提供了一套设置,使离线代码解释更加可靠。Local III还引入了一个免费的、托管的、可选的模型通过解释器--model i。与i模型的对话将用于训练我们自己的开源计算机控制语言模型。
使用云 GPU 资源在本地 ComfyUI 上运行您的工作流程
ComfyUI-Cloud 是一个自定义节点,它使用户可以在本地完全控制 ComfyUI 的同时,利用云 GPU 资源来运行他们的工作流程。它允许用户运行需要高 VRAM 的工作流程,而不需要将自定义节点/模型导入云提供商或花费金钱购买新的 GPU。
构建、运行和扩展AI集成,代码在安全沙箱运行,无DevOps困扰。
YepCode是一个面向开发者的平台,专注于AI驱动的集成开发。其重要性在于为开发者提供了一个安全、高效的环境来构建、运行和扩展AI集成。主要优点包括:内置安全沙箱,可运行包括AI生成的代码,并提供依赖管理、秘密管理、日志记录和审计跟踪功能,无需开发者处理繁琐的DevOps工作。产品背景方面,它旨在解决开发者在集成开发过程中的复杂性和安全性问题。关于价格文档未提及,定位是服务于有AI集成开发需求的开发者和团队。
© 2026 AIbase 备案号:闽ICP备08105208号-14