需求人群:
Taylor AI非常适合那些希望在不需要设置基础设施和处理第三方提供商的复杂性的情况下训练和部署语言模型的工程团队。它适用于重视数据隐私并希望完全控制其模型的公司。Taylor AI旨在简化训练语言模型的过程,使工程师可以专注于产生真正的商业价值。
产品特色:
训练和部署开源语言模型
拥有和控制您的模型
摆脱按标记付费的定价方式
跟上最先进的模型
安全地部署模型
简化训练过程
浏览量:26
最新流量情况
月访问量
4630
平均访问时长
00:00:36
每次访问页数
0.80
跳出率
43.37%
流量来源
直接访问
30.35%
自然搜索
9.91%
邮件
0
外链引荐
0.18%
社交媒体
59.57%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
47.19%
澳大利亚
12.12%
阿根廷
11.23%
法国
6.18%
印度
6.03%
大型语言模型,高效文本生成。
InternLM2.5-7B-Chat GGUF是一个大型语言模型,专为文本生成而设计。它基于开源框架llama.cpp,支持多种硬件平台的本地和云推理。该模型具有7.74亿参数,采用先进的架构设计,能够提供高质量的文本生成服务。
高效紧凑的7B参数语言模型
Arcee Spark是一个7B参数的语言模型,它在紧凑的包体中提供高性能,证明小型模型也能与大型模型相媲美。它是7B-15B范围内得分最高的模型,并且在MT-Bench基准测试中超越了GPT 3.5和Claude 2.1等更大模型。它适用于实时应用、边缘计算场景、成本效益高的AI实施、快速原型设计和增强数据隐私的本地部署。
利用知识图谱和文档网络增强语言模型性能
Knowledge Graph RAG 是一个开源的Python库,它通过创建知识图谱和文档网络来增强大型语言模型(LLM)的性能。这个库允许用户通过图谱结构来搜索和关联信息,从而为语言模型提供更丰富的上下文。它主要应用于自然语言处理领域,尤其是在文档检索和信息抽取任务中。
你的私人AI聊天工具,运行在浏览器中。
Chatty是一个利用WebGPU技术在浏览器中本地且私密地运行大型语言模型(LLMs)的私人AI聊天工具。它提供了丰富的浏览器内AI体验,包括本地数据处理、离线使用、聊天历史管理、支持开源模型、响应式设计、直观UI、Markdown和代码高亮显示、文件聊天、自定义内存支持、导出聊天记录、语音输入支持、重新生成响应以及明暗模式切换等功能。
本地机器智能的探索之旅
Local III是一个由超过100名来自世界各地的开发者共同开发的更新,它提供了易于使用的本地模型浏览器,深度集成了推理引擎如Ollama,为开放模型如Llama3、Moondream和Codestral定制了配置文件,并提供了一套设置,使离线代码解释更加可靠。Local III还引入了一个免费的、托管的、可选的模型通过解释器--model i。与i模型的对话将用于训练我们自己的开源计算机控制语言模型。
构建一个会讲故事的人工智能大型语言模型。
LLM101n是一个开源课程,旨在教授如何从头开始构建一个能讲故事的人工智能大型语言模型(LLM)。课程内容涵盖了从基础到高级的多个方面,包括语言模型、机器学习、深度学习框架等,适合希望深入理解AI和LLM的编程人员和研究人员。
52B参数的开源多语言大型语言模型
Tele-FLM(亦称FLM-2)是一个52亿参数的开源多语言大型语言模型,具有稳定高效的预训练范式和增强的事实判断能力。基于解码器仅变换器架构,已在大约2T的token上进行训练。Tele-FLM在同等规模上展现出优越的性能,有时甚至超越了更大的模型。除了分享模型权重外,我们还提供了核心设计、工程实践和训练细节,期待它们对学术界和工业界社区都有所裨益。
开源代码语言模型,支持多编程语言。
DeepSeek-Coder-V2是一个开源的Mixture-of-Experts代码语言模型,性能可与GPT4-Turbo相媲美,在代码特定任务上表现突出。它通过额外的6万亿个token进一步预训练,增强了编码和数学推理能力,同时保持了在一般语言任务上的相似性能。与DeepSeek-Coder-33B相比,在代码相关任务、推理和一般能力方面都有显著进步。此外,它支持的编程语言从86种扩展到338种,上下文长度从16K扩展到128K。
提升大型语言模型性能的混合代理技术
MoA(Mixture of Agents)是一种新颖的方法,它利用多个大型语言模型(LLMs)的集体优势来提升性能,实现了最先进的结果。MoA采用分层架构,每层包含多个LLM代理,显著超越了GPT-4 Omni在AlpacaEval 2.0上的57.5%得分,达到了65.1%的得分,使用的是仅开源模型。
开源代码语言模型,提升编程智能。
DeepSeek-Coder-V2是一个开源的Mixture-of-Experts (MoE) 代码语言模型,性能与GPT4-Turbo相当,在代码特定任务上表现卓越。它在DeepSeek-Coder-V2-Base的基础上,通过6万亿token的高质量多源语料库进一步预训练,显著增强了编码和数学推理能力,同时保持了在通用语言任务上的性能。支持的编程语言从86种扩展到338种,上下文长度从16K扩展到128K。
一个交互式绘图应用,用于数学方程的绘制和计算。
AI Math Notes 是一个开源的交互式绘图应用程序,允许用户在画布上绘制数学方程。应用程序利用多模态大型语言模型(LLM)计算并显示结果。该应用程序使用Python开发,利用Tkinter库创建图形用户界面,使用PIL进行图像处理。灵感来源于Apple在2024年全球开发者大会(WWDC)上展示的'Math Notes'。
通过强化学习微调大型视觉-语言模型作为决策代理
RL4VLM是一个开源项目,旨在通过强化学习微调大型视觉-语言模型,使其成为能够做出决策的智能代理。该项目由Yuexiang Zhai, Hao Bai, Zipeng Lin, Jiayi Pan, Shengbang Tong, Alane Suhr, Saining Xie, Yann LeCun, Yi Ma, Sergey Levine等研究人员共同开发。它基于LLaVA模型,并采用了PPO算法进行强化学习微调。RL4VLM项目提供了详细的代码库结构、入门指南、许可证信息以及如何引用该研究的说明。
强大的结构化文本生成工具
Outlines是一个用于生成结构化文本的开源库,它支持多种模型集成,如OpenAI、transformers等,并提供了基于Jinja模板引擎的简单而强大的提示原语。它通过多种方式控制语言模型的生成,使输出更加可预测,从而提高模型效率并减少所需的示例数量。Outlines是提高包含大型语言模型的系统可靠性的第一步,通过确保模型输出与用户定义的代码之间有明确定义的接口。
安全数据湖,为生成式AI开发提供数据
Tonic Textual 是全球首个为大型语言模型(LLMs)设计的Secure Data Lakehouse。它通过自动化流程,帮助企业从云存储中提取、治理、丰富和部署非结构化数据,以支持生成式AI的发展。该产品强调数据隐私保护,利用其专有的命名实体识别(NER)模型自动检测和去标识化敏感信息,同时通过数据合成保持数据的语义真实性。它支持多种数据格式,并通过AWS Marketplace、Google Cloud Marketplace和Snowflake Marketplace提供服务。
双语开源数学推理大型语言模型。
InternLM-Math-Plus 是一个最新的双语(英文和中文)开源大型语言模型(LLM),专注于数学推理,具有解决、证明、验证和增强数学问题的能力。它在非正式数学推理(如思维链和代码解释)和正式数学推理(如LEAN 4翻译和证明)方面都有显著的性能提升。
开源大型语言模型的托管、部署、构建和微调一站式解决方案。
AIKit 是一个开源工具,旨在简化大型语言模型(LLMs)的托管、部署、构建和微调过程。它提供了与OpenAI API兼容的REST API,支持多种推理能力和格式,使用户可以使用任何兼容的客户端发送请求。此外,AIKit 还提供了一个可扩展的微调接口,支持Unsloth,为用户提供快速、内存高效且易于使用的微调体验。
开源AI代理平台,专为金融应用设计。
FinRobot是一个开源的AI代理平台,利用大型语言模型(LLMs)为金融应用提供全面的解决方案。它整合了多种AI技术,超越了单纯的语言模型,展现了平台的多功能性和适应性,满足金融行业的多样化需求。FinRobot的AI代理概念是指使用大型语言模型作为其大脑来感知环境、做出决策并执行动作的智能实体。与传统人工智能不同,AI代理具有独立思考和使用工具以逐步实现给定目标的能力。
PygmalionAI是一个开源AI项目,用于聊天、角色扮演、冒险等。
PygmalionAI是一个开源项目,致力于创建用于聊天和角色扮演的大型语言模型。它具有强大的功能和技术,可以为用户提供优质的聊天体验。PygmalionAI的优点包括语言生成的准确性和多样性,以及其可扩展性和自定义性。它可以广泛应用于各种领域,包括娱乐、教育和商业。
开源AI搜索引擎,支持本地或云LLMs。
Farfalle是一个开源的AI驱动搜索引擎,它允许用户运行本地大型语言模型(LLMs)或使用云模型。它是基于Perplexity克隆的,可以与多种技术栈集成,如Next.js前端、FastAPI后端、Tavily搜索API等。它还提供了自定义设置的文档和演示视频,以帮助用户快速开始。
从零开始实现Llama3模型
这是一个开源项目,作者naklecha从零开始实现了Llama3模型,这是一个大型语言模型。项目提供了详细的代码实现,包括模型的各个组成部分,如注意力机制、前馈网络等。通过这个项目,开发者可以深入理解大型语言模型的工作原理,同时也可以在此基础上进行自己的实验和改进。
开源工具包,用于大型语言模型水印技术的研究和应用。
MarkLLM是一个开源工具包,旨在促进大型语言模型(Large Language Models, LLM)中水印技术的研究和应用。随着LLM的广泛使用,确保机器生成文本的真实性和来源变得至关重要。MarkLLM通过提供一个统一的、可扩展的平台,简化了水印技术的访问、理解和评估。它支持多种水印算法,包括KGW家族和EXP家族的算法,并提供了可视化工具和评估模块,帮助研究人员和开发者评估水印技术的可检测性、稳健性和对文本质量的影响。
一个完全开源的大型语言模型,提供先进的自然语言处理能力。
MAP-NEO是一个完全开源的大型语言模型,它包括预训练数据、数据处理管道(Matrix)、预训练脚本和对齐代码。该模型从零开始训练,使用了4.5T的英文和中文token,展现出与LLaMA2 7B相当的性能。MAP-NEO在推理、数学和编码等具有挑战性的任务中表现出色,超越了同等规模的模型。为了研究目的,我们致力于实现LLM训练过程的完全透明度,因此我们全面发布了MAP-NEO,包括最终和中间检查点、自训练的分词器、预训练语料库以及高效稳定的优化预训练代码库。
开源的、专为大型语言模型优化的网页爬虫与抓取工具。
Crawl4AI是一个强大的、免费的网页爬取服务,旨在从网页中提取有用信息,并使其对大型语言模型(LLMs)和AI应用可用。它支持高效的网页爬取,提供对LLM友好的输出格式,如JSON、清理过的HTML和Markdown,支持同时爬取多个URL,并完全免费且开源。
为企业提供开源、灵活的AI模型开发、测试和运行平台。
Red Hat Enterprise Linux AI 是一个基于开源的模型平台,旨在无缝地开发、测试和运行企业级应用的大型语言模型(LLMs)。它结合了开源许可的IBM Granite LLMs、InstructLab模型对齐工具、Red Hat Enterprise Linux的可启动镜像以及Red Hat提供的技术支持和模型知识产权保障。该平台支持跨混合云环境的可移植性,并能与Red Hat OpenShift® AI集成,进一步推进企业AI开发、数据管理和模型治理。
Prompto是一个开源的网络应用程序,旨在使与LLM的交互简单高效。
Prompto是一个开源的网页应用程序,旨在使与大型语言模型(LLMs)的交互简单高效。它可以轻松切换不同的LLMs,通过调整温度设置来调整LLM的创造力和风险水平,提供聊天机器人界面和笔记本界面,可以创建常用提示的模板,并且在浏览器中运行,确保流畅响应的体验。所有设置和聊天记录仅存储在浏览器的本地存储中,保护用户隐私。
用于评估其他语言模型的开源工具集
Prometheus-Eval 是一个用于评估大型语言模型(LLM)在生成任务中表现的开源工具集。它提供了一个简单的接口,使用 Prometheus 模型来评估指令和响应对。Prometheus 2 模型支持直接评估(绝对评分)和成对排名(相对评分),能够模拟人类判断和专有的基于语言模型的评估,解决了公平性、可控性和可负担性的问题。
AI代码查找器,快速找到AI论文的代码实现
AI Code Finder是一个免费的浏览器插件,可以快速找到任何AI研究论文的代码实现。它能够自动在Google、ArXiv、学术搜索引擎、论坛等网站上找到与论文相关的代码链接,并提供CODE按钮供用户点击跳转到开源代码实现。用户还可以创建提醒以获取最新的代码实现、作者的最新工作和最新进展。此插件适用于从事人工智能、数据科学、计算机视觉、语音识别、深度学习和大型语言模型等领域的工程师、研究人员、开发人员和技术领导者。
下一代本地优先的大型语言模型(LLMs)
anime.gf 是由 moecorp 发起的下一代本地优先的大型语言模型(LLMs),目前正处于积极开发阶段。它代表了一种新兴的本地化和开源的人工智能技术,旨在提供更高效、更个性化的用户体验。
© 2024 AIbase 备案号:闽ICP备08105208号-14