浏览量:102
最新流量情况
月访问量
30.15k
平均访问时长
00:13:55
每次访问页数
17.33
跳出率
18.22%
流量来源
直接访问
81.49%
自然搜索
11.96%
邮件
0
外链引荐
6.56%
社交媒体
0
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
87.30%
新加坡
3.59%
英国
0.68%
允许用户直接在浏览器本地运行Phi-3模型的AI工具。
Phi-3 WebGPU是一款结合了Transformers.js和onnxruntime-web的AI模型,它利用WebGPU加速技术,提供超过20t/s的处理速度,并且所有数据处理在本地完成,确保用户隐私安全。尽管在中文回答上存在一些不足,但其在浏览器中提供的AI模型运行能力仍然值得关注。
TensorDock 提供高性能的云端 GPU 服务,专为深度学习、AI 和渲染工作负载设计。
TensorDock 是一个为需要无可妥协可靠性的工作负载而构建的专业云服务提供商。它提供多种 GPU 服务器选项,包括 NVIDIA H100 SXMs,以及针对深度学习、AI 和渲染的最具成本效益的虚拟机基础设施。TensorDock 还提供全托管容器托管服务,具备操作系统级监控、自动扩展和负载均衡功能。此外,TensorDock 提供世界级别的企业支持,由专业人员提供服务。
实时变声技术,为虚拟角色、内容创作者和游戏玩家提供个性化声音体验。
Supertone Shift是一款桌面客户端软件,利用先进的实时变声技术,让用户能够即时切换到任何选择的声音。它适用于VTuber、内容创作者、游戏玩家以及任何希望准确表达所选角色声音的用户。产品的主要优点包括低延迟、高质量声音转换、无需GPU即可体验,以及易于与Discord、VRChat、Twitch等流行应用集成。
一个完全私密的聊天机器人,运行在您的浏览器中,保护您的对话数据安全。
Secret Llama 是一个免费且完全私密的聊天机器人,与ChatGPT不同,它完全在您的浏览器内运行,意味着您的对话数据不会离开您的电脑。首次加载可能需要一些时间,因为模型需要完全下载到您的电脑上,但之后可以断开WiFi工作。支持Chrome和Edge浏览器,需要GPU,不推荐在移动设备上使用。
Phi-3 Mini-128K-Instruct ONNX优化模型促进推理加速
Phi-3 Mini是一个轻量级的顶尖开源模型,建立在Phi-2使用的合成数据和过滤网站之上,专注于高质量的推理密集型数据。这个模型属于Phi-3系列,mini版本有两个变体支持4K和128K上下文长度。该模型经过了严格的增强过程,包括监督式微调和直接偏好优化,以确保精准遵循指令和强大的安全措施。这些经过ONNX优化的Phi-3 Mini模型可在CPU、GPU和移动设备上高效运行。微软还推出了ONNX Runtime Generate() API,简化了Phi-3的使用。
快速训练和微调大型语言模型
Unsloth 是一个旨在提高大型语言模型(LLMs)训练和微调速度的平台。它通过手动推导所有计算密集型数学步骤并手写GPU内核,实现了无需硬件更改即可显著加快训练速度。Unsloth 支持多种GPU,包括NVIDIA、AMD和Intel,并提供开源版本供用户在Google Colab或Kaggle Notebooks上免费试用。它还提供了不同级别的定价方案,包括免费版、Pro版和企业版,以满足不同用户的需求。
面向AI开发者的GPU云平台,高性价比,极致体验,计费灵活
GpuMall智算云是一个面向AI开发者的GPU云平台,提供高性价比的计算资源,灵活的计费方式,以及弹性的调度能力,可以满足AI开发者的各种需求。用户可以在这里快速租用GPU资源进行AI模型训练和推理,并且可以根据实际使用情况灵活调整资源配置,达到最佳性价比。平台还提供了丰富的使用文档和在线客服支持,让用户使用起来更加便捷。
面向长期视频理解的大规模多模态模型
MA-LMM是一种基于大语言模型的大规模多模态模型,主要针对长期视频理解进行设计。它采用在线处理视频的方式,并使用记忆库存储过去的视频信息,从而可以在不超过语言模型上下文长度限制或GPU内存限制的情况下,参考历史视频内容进行长期分析。MA-LMM可以无缝集成到当前的多模态语言模型中,并在长视频理解、视频问答和视频字幕等任务上取得了领先的性能。
突破性SSM-Transformer开放模型
Jamba是一款基于SSM-Transformer混合架构的开放语言模型,提供顶级的质量和性能表现。它融合了Transformer和SSM架构的优势,在推理基准测试中表现出色,同时在长上下文场景下提供3倍的吞吐量提升。Jamba是目前该规模下唯一可在单GPU上支持14万字符上下文的模型,成本效益极高。作为基础模型,Jamba旨在供开发者微调、训练并构建定制化解决方案。
实时一步潜在扩散模型,可用图像条件控制生成
SDXS是一种新的扩散模型,通过模型微型化和减少采样步骤,大幅降低了模型延迟。它利用知识蒸馏来简化U-Net和图像解码器架构,并引入了一种创新的单步DM训练技术,使用特征匹配和分数蒸馆。SDXS-512和SDXS-1024模型可在单个GPU上分别实现约100 FPS和30 FPS的推理速度,比之前模型快30至60倍。此外,该训练方法在图像条件控制方面也有潜在应用,可实现高效的图像到图像翻译。
使用云 GPU 资源在本地 ComfyUI 上运行您的工作流程
ComfyUI-Cloud 是一个自定义节点,它使用户可以在本地完全控制 ComfyUI 的同时,利用云 GPU 资源来运行他们的工作流程。它允许用户运行需要高 VRAM 的工作流程,而不需要将自定义节点/模型导入云提供商或花费金钱购买新的 GPU。
AI社区共建未来,开源开放科学推进AI民主化
Hugging Face是一个AI社区平台,致力于通过开源和开放科学的方式来推进人工智能的发展和民主化。它为机器学习社区提供了协作模型、数据集和应用程序的环境。主要优势包括:1)协作平台,可无限托管和共享模型、数据集和应用程序。2)开源堆栈,加速ML开发流程。3)支持多模态(文本、图像、视频、音频、3D等)。4)建立ML作品集,在全球分享你的作品。5)付费计算和企业解决方案,提供优化的推理端点、GPU支持等。
高效开发你的AI原生应用
百度智能云千帆AppBuilder是一款专门用于高效开发AI原生应用的平台。它提供了一站式的AI原生应用开发资源和工具,包括开箱即用的应用框架、丰富的AI能力组件以及连接云资源等。主要功能有:1.开源应用框架,如知识增强应用框架(RAG)、Agent框架等。2.丰富AI组件,如语音识别、TTS、文生图、向量引擎等。3.连接云资源,提供CPU/GPU计算、存储等服务。该平台降低了AI应用开发门槛,帮助企业高效开发AI原生应用。
用于人形机器人学习的通用基础模型
NVIDIA Project GR00T是一种通用基础模型,可在仿真和真实世界中改变人形机器人的学习方式。通过在NVIDIA GPU加速模拟中进行训练,GR00T使得人形机器人能够从少量的人类演示中通过模仿学习和NVIDIA Isaac Lab进行强化学习,并可从视频数据生成机器人动作。GR00T模型接受多模态指令和过去的交互作为输入,并输出机器人需要执行的动作。
为您的工作流程选择合适的云GPU供应商。
Cloud GPUs是一个网站,帮助您比较和选择适合您工作流程的云GPU供应商。该网站列出了多家云GPU提供商及其GPU型号和价格,方便您快速找到合适的GPU资源。无论您是进行机器学习训练、科学计算还是图形渲染,Cloud GPUs都能为您推荐高性能且经济实惠的云GPU解决方案。
这是一个基于WebGPU的在线工具,用于实时去除照片背景。
remove-background-webgpu 是一个运行于浏览器中的小程序,利用WebGPU技术实现快速的图片背景移除。它可帮助用户在不下载任何额外软件的情况下,快速获取无背景的图片。
Answer.AI是一个基于基础研究突破创建实用终端用户产品的新型AI研发实验室
Answer.AI致力于通过基础研究的突破来开发实用的终端用户产品。该实验室发布了一个开源系统,基于FSDP和QLoRA,允许用户在家中使用两个24GB GPU训练一个70亿参数的语言模型。此外,Answer.AI还发布了关于历史上最伟大的研发实验室的历史分析文章,以及对实验室的研究议程和背景的介绍。
构建、共享和扩展无限的AI工作流程
Salt是一款AI工作流程构建工具,它可以帮助用户快速构建、共享和扩展基于Comfy UI的工作流程。Salt提供了依赖管理、免费GPU和自动扩展等功能,让用户专注于工作流程的建设。用户可以通过一键部署将工作流程分享给其他人,也可以用它来支持生产应用程序。Salt支持自动扩展,可以根据需求自动扩容和收缩,提高效率和节约成本。
GitHub AI模型算法复现社区
CodeWithGPU 是一个专注于 AI算法复现的 GitHub 社区,旨在提供高性能 GPU 支持,帮助开发者能够复现优秀的 AI 算法。用户可以在该平台上找到各种热门算法的镜像、模型,并进行交流学习。
从单张图片快速生成3D对象
TripoSR是由Stability AI与Tripo AI合作开发的3D对象重建模型,能够从单张图片在不到一秒钟的时间内生成高质量的3D模型。该模型在低推理预算下运行,无需GPU,适用于广泛的用户和应用场景。模型权重和源代码已在MIT许可下发布,允许商业化、个人和研究使用。
加速高分辨率扩散模型推理
DistriFusion是一个训练不需要的算法,可以利用多个GPU来加速扩散模型推理,而不会牺牲图像质量。DistriFusion可以根据使用的设备数量减少延迟,同时保持视觉保真度。
一站式 AI 服务平台和 AI 应用生态
揽睿星舟提供丰富的 GPU 租用选择、开箱即用的 AI 开发环境、多机多卡分布式训练、弹性扩容、开放的镜像生态等 AI 开发环境,助力您登上 AI 变革的舞台。
Windows 11 AI超级分辨率功能
DirectSR是微软为Windows 11提供的一项AI超级分辨率功能,旨在帮助游戏开发者更轻松地在所有Windows设备上扩展超分辨率支持。该技术利用GPU硬件和并行化工作负载,提升游戏的视觉效果和性能。
高通AI模型优化与验证平台
Qualcomm AI Hub提供由高通优化和验证的AI模型,支持多种设备和平台。所有模型都针对高通AI引擎的硬件加速进行了优化,利用CPU、GPU和NPU的所有计算核心。
Google Gemma, 轻量级开放模型
Google Gemma是由Google开发的前沿轻量级开放模型。这些模型分为2B和7B参数版本,包括基础和调优版本。Gemini模型的基础技术和指令调优技术都来自Google的技术,Gemma遵循AI原则,确保安全可靠的使用,并针对Google Cloud和NVIDIA GPU进行了优化,在全球范围内提供支持。
Graph Neural Network (GNN)库,为苹果芯片量身打造
mlx-graphs是一个专为苹果芯片设计的图神经网络(GNN)库。它利用苹果硬件的优势,如统一内存架构,实现了在Mac设备上的高效GNN训练和推理。主要优点有:1)利用GPU并行计算,在大数据集上实现高速GNN运算;2)利用统一内存,支持在GPU上直接处理大规模图数据;3)无需设备间数据传输,简化开发流程。用户可以便捷地在Mac设备上处理大规模图问题,实现高性能GNN模型训练。
© 2024 AIbase 备案号:闽ICP备2023012347号-1