需求人群:
"目标受众为开发者和技术人员,特别是对搜索引擎技术、AI和机器学习有兴趣的用户。该产品适合他们因为它提供了一个开源平台,可以自定义和扩展搜索功能,同时促进技术交流和创新。"
使用场景示例:
开发者可以使用OpenPerPlex构建自定义的搜索解决方案。
企业可以集成OpenPerPlex到他们的产品中,以提供更智能的搜索服务。
研究人员可以利用OpenPerPlex进行语义分析和搜索算法的研究。
产品特色:
利用Cohere和semantic-chunkers库进行语义分块。
使用JINA API对搜索结果进行重排。
通过serper.dev实现谷歌搜索集成。
使用Groq作为推理引擎。
支持Llama 3 70B模型,提高搜索性能。
提供快速启动指南和环境变量配置说明。
欢迎社区贡献,包括提交问题、分叉仓库和发送拉取请求。
使用教程:
克隆仓库到本地:git clone https://github.com/YassKhazzan/openperplex_backend_os.git
安装所需的Python包:pip install -r requirements.txt
设置环境变量,复制.env_example文件到.env,并填写API密钥。
启动OpenPerPlex服务器:uvicorn main:app --port 8000
访问服务器:http://localhost:8000
浏览量:18
最新流量情况
月访问量
5.00m
平均访问时长
00:06:52
每次访问页数
5.82
跳出率
37.31%
流量来源
直接访问
52.65%
自然搜索
32.08%
邮件
0.05%
外链引荐
12.79%
社交媒体
2.25%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.49%
德国
3.62%
印度
9.70%
俄罗斯
3.96%
美国
18.50%
开源AI搜索引擎,提供网络搜索能力。
OpenPerPlex是一个开源AI搜索引擎,利用尖端技术提供网络搜索功能。它结合了语义分块、结果重排、谷歌搜索集成以及Groq作为推理引擎等技术,支持Llama 3 70B模型,以提高搜索的准确性和效率。
极简AI搜索引擎,助你快速获取网络信息。
MiniPerplx是一个基于AI的极简搜索引擎,旨在帮助用户快速在互联网上找到所需信息。它使用了OpenAI、Anthropic和Tavily等AI服务提供商的API,通过集成这些技术,MiniPerplx能够提供快速、准确的搜索结果。产品使用TypeScript、CSS和JavaScript等技术栈开发,遵循MIT许可证。
先进的AI检索器,用于RAG。
DenserRetriever是一个开源的AI检索模型,专为RAG(Retrieval-Augmented Generation)设计,利用社区协作的力量,采用XGBoost机器学习技术有效结合异构检索器,旨在满足大型企业的需求,并且易于部署,支持docker快速启动。它在MTEB检索基准测试中达到了最先进的准确性,并且Hugging Face排行榜上也有其身影。
一个多功能且强大的SDXL-ControlNet模型,适用于各种线条艺术的调节。
MistoLine是一个SDXL-ControlNet模型,能够适应任何类型的线条艺术输入,展示出高精度和出色的稳定性。它基于用户提供的线条艺术生成高质量图像,适用于手绘草图、不同ControlNet线条预处理器和模型生成的轮廓。MistoLine通过采用新颖的线条预处理算法(Anyline)和基于stabilityai/stable-diffusion-xl-base-1.0的Unet模型的重新训练,以及在大型模型训练工程中的创新,展现出在复杂场景下超越现有ControlNet模型的细节恢复、提示对齐和稳定性的优越性能。
一个开源的AI驱动搜索引擎,提供深入网络的答案。
Perplexica是一个开源的AI驱动搜索引擎,它不仅搜索网络,还理解您的问题。它使用先进的机器学习算法,如相似性搜索和嵌入,来优化结果,并提供引用来源的清晰答案。使用SearxNG保持最新和完全开源,确保您始终获得最新信息,同时不损害您的隐私。
开源的先进文本嵌入模型
Snowflake Arctic Embed是一系列基于Apache 2.0许可开源的文本嵌入模型,专为检索用例设计。这些模型在Massive Text Embedding Benchmark (MTEB)检索基准测试中提供了领先的检索性能,为组织在结合专有数据集与大型语言模型(LLMs)进行检索增强生成(RAG)或语义搜索服务时提供了新的优势。这些模型的尺寸从超小型(xs)到大型(l),具有不同的上下文窗口和参数数量,以满足不同企业的延迟、成本和检索性能需求。
AI社区共建未来,开源开放科学推进AI民主化
Hugging Face是一个AI社区平台,致力于通过开源和开放科学的方式来推进人工智能的发展和民主化。它为机器学习社区提供了协作模型、数据集和应用程序的环境。主要优势包括:1)协作平台,可无限托管和共享模型、数据集和应用程序。2)开源堆栈,加速ML开发流程。3)支持多模态(文本、图像、视频、音频、3D等)。4)建立ML作品集,在全球分享你的作品。5)付费计算和企业解决方案,提供优化的推理端点、GPU支持等。
世界顶尖的开源大型语言模型
Reflection Llama-3.1 70B 是目前世界上顶尖的开源大型语言模型(LLM),采用名为 Reflection-Tuning 的新技术进行训练,使模型能够检测其推理中的错误并进行修正。该模型在合成数据上进行了训练,这些数据由 Glaive 生成。对于正在训练模型的用户来说,Glaive 是一个非常出色的工具。该模型使用标准的 Llama 3.1 聊天格式,通过特殊的标签来区分模型的内部思考和最终答案,从而提升用户体验。
高效开源的大型语言模型
OLMoE-1B-7B 是一个具有1亿活跃参数和7亿总参数的专家混合型大型语言模型(LLM),于2024年9月发布。该模型在成本相似的模型中表现卓越,与更大的模型如Llama2-13B竞争。OLMoE完全开源,支持多种功能,包括文本生成、模型训练和部署等。
精选全球AI前沿科技和开源产品
漫话开发者 - UWL.ME 是一个专注于人工智能前沿科技和开源产品的平台,提供最新的AI技术动态、开源产品介绍、以及相关领域的深度分析。它不仅为开发者和科技爱好者提供了一个获取信息的渠道,也为行业内部人员提供了交流和学习的平台。
RWKV v6 Finch 14B,开源大模型,高效处理长文本。
RWKV v6 Finch 14B是RWKV架构的第六个版本,也是该系列中最大的模型。它通过引入数据依赖性到token shift和time-mixing中,提高了处理长文本时的效率。Finch 14B模型在处理提示时,能够更好地管理其长期记忆,从而提供更广泛的应用范围。该模型是开源的,由Linux Foundation认可,并且接受社区的GPU集群时间捐赠以支持训练。
先进的小型语言模型,专为设备端应用设计。
Zamba2-mini是由Zyphra Technologies Inc.发布的小型语言模型,专为设备端应用设计。它在保持极小的内存占用(<700MB)的同时,实现了与更大模型相媲美的评估分数和性能。该模型采用了4bit量化技术,具有7倍参数下降的同时保持相同性能的特点。Zamba2-mini在推理效率上表现出色,与Phi3-3.8B等更大模型相比,具有更快的首令牌生成时间、更低的内存开销和更低的生成延迟。此外,该模型的权重已开源发布(Apache 2.0),允许研究人员、开发者和公司利用其能力,推动高效基础模型的边界。
AI即时推理解决方案,速度领先世界。
Cerebras Inference是Cerebras公司推出的AI推理平台,提供20倍于GPU的速度和1/5的成本。它利用Cerebras的高性能计算技术,为大规模语言模型、高性能计算等提供快速、高效的推理服务。该平台支持多种AI模型,包括医疗、能源、政府和金融服务等行业应用,具有开放源代码的特性,允许用户训练自己的基础模型或微调开源模型。
2D游戏动画生成模型
godmodeanimation是一个开源的2D游戏动画生成模型,它通过训练文本到视频和图像到视频的模型来生成2D游戏动画。开发者使用了公共游戏动画数据和3D mixamo模型渲染动画来训练动画生成模型,并开源了模型、训练数据、训练代码和数据生成代码。
个人AI助手,将私有和企业知识转化为智能搜索。
Quivr是一个基于AI的云端个人第二大脑,通过连接文件、应用程序、API、数据库等,为用户提供个性化的搜索和知识管理服务。它通过持续学习用户公司的特定上下文来提高搜索相关性和知识发现能力。Quivr支持自定义集成,用户可以选择适合其任务的GenAI模型,并根据提示指令获得更准确和更好的响应。
AI提示工程师,提升AI交互效率。
Ape是一个开源的AI提示工程师,由Weavel公司开发,旨在通过优化AI的交互方式来提升效率。它是一个专门为AI设计的提示工程库,支持自定义和自动化的AI交互流程,帮助开发者和用户更高效地利用AI技术。Ape的核心优势在于其开源性、灵活性和易用性,适用于需要与AI进行复杂交互的场景。
开源云平台,实现超低延迟的语音和视频AI。
Daily Bots是一个开源云平台,专注于提供超低延迟的语音和视频人工智能服务。它支持开发者构建和托管实时的全球基础设施上的代理,并利用快速增长的开源实时框架。该平台拥有全球实时云,提供5亿终端用户的13毫秒首跳延迟,符合SOC 2、HIPAA和GDPR标准。此外,Daily Bots提供了电话和工作流程的一站式企业连接解决方案,以及完整的PSTN和SIP堆栈。
AI工程和研究的智能伴侣
MLE-Agent 是为机器学习工程师和研究人员设计的智能伴侣,具备自主创建基线、集成Arxiv和Papers with Code、智能调试、文件系统整合、综合工具集成以及交互式命令行聊天等功能。它支持OpenAI、Ollama等AI/ML功能和MLOps工具,为无缝工作流程提供支持。
AI可观测性和机器学习监控平台
Evidently AI是一个开源的Python库,用于监控机器学习模型,支持从RAGs到AI助手的LLM驱动产品的评估。它提供了数据漂移、数据质量和生产ML模型性能的监控,拥有超过2000万的下载量和5000+的GitHub星标,是机器学习领域中一个值得信赖的监控工具。
革命性的检索增强生成系统技术集合。
RAG_Techniques 是一个专注于检索增强生成(Retrieval-Augmented Generation, RAG)系统的技术集合,旨在提升系统的准确性、效率和上下文丰富性。它提供了一个前沿技术的中心,通过社区贡献和协作环境,推动RAG技术的发展和创新。
与任何大型语言模型进行快速的免提语音交互。
Open-LLM-VTuber 是一个开源项目,旨在通过语音与大型语言模型(LLM)进行交互,具有实时的Live2D面部捕捉和跨平台的长期记忆功能。该项目支持macOS、Windows和Linux平台,允许用户选择不同的语音识别和语音合成后端,以及自定义的长期记忆解决方案。它特别适合希望在不同平台上实现与AI进行自然语言对话的开发者和爱好者。
先进的文档智能AI模型,开源易用。
Datalab 的 AI For Document Intelligence 是一系列用于文档智能处理的AI模型,包括OCR、布局分析、PDF转Markdown等。这些模型代表了文档处理技术的最新发展,易于使用,并且是开源的,可以广泛应用于提高文档处理的效率和准确性。
9天内预训练的紧凑型大型语言模型
1.5-Pints是一个开源的紧凑型大型语言模型(LLM),它在9天内使用高质量数据进行预训练,旨在成为与Apple OpenELM和Microsoft Phi相当的AI助手。该模型的代码库和架构公开,以促进模型的复制、实验和进一步的开源开发。
命令行的智能助手,提升终端效率
ShellMate是一款开源的命令行生产力工具,由OpenAI提供支持。它能够接受标准输入、命令行参数和高亮文本作为提示,帮助用户快速回忆命令和预测接下来可能需要使用的命令。ShellMate通过高亮文本功能,让用户无需提问即可集中注意力。此外,用户可以通过'sm'快捷方式在终端中直接提问和插入AI生成的建议,从而无需离开终端界面。
一种先进的文本到图像的生成模型。
FLUX.1-dev-Controlnet-Union-alpha是一个文本到图像的生成模型,属于Diffusers系列,使用ControlNet技术进行控制。目前发布的是alpha版本,尚未完全训练完成,但已经展示了其代码的有效性。该模型旨在通过开源社区的快速成长,推动Flux生态系统的发展。尽管完全训练的Union模型可能在特定领域如姿势控制上不如专业模型,但随着训练的进展,其性能将不断提升。
开源AI图像生成器,功能强大且免费。
Flux Image Generator是一个开源的AI图像生成器,它利用大型神经网络Flux,能够根据文本生成图像。Flux是近年来最大的开源项目之一,其神经网络模型大小大约为4到5GB。除了生成图像,该工具还支持对图像进行编辑,例如填充缺失部分或根据文本指令生成图像的无限变体。尽管AI技术在绘图方面表现出色,但它们并不是在当前意义上具有意识的,它们只是复杂的数学算法。
AI脚本集合,主要用于Stable Diffusion模型。
ai-toolkit是一个研究性质的GitHub仓库,由Ostris创建,主要用于Stable Diffusion模型的实验和训练。它包含了各种AI脚本,支持模型训练、图像生成、LoRA提取器等。该工具包仍在开发中,可能存在不稳定性,但提供了丰富的功能和高度的自定义性。
一个正在训练中的开源语言模型,具备“听力”能力。
llama3-s是一个开放的、正在进行中的研究实验,旨在将基于文本的大型语言模型(LLM)扩展到具有原生“听力”能力。该项目使用Meta的Chameleon论文启发的技术,专注于令牌传递性,将声音令牌扩展到LLM的词汇表中,未来可能扩展到各种输入类型。作为一个开源科学实验,代码库和数据集都是公开的。
© 2024 AIbase 备案号:闽ICP备08105208号-14