需求人群:
"企业搜索、检索辅助生成(RAG)系统"
使用场景示例:
使用Rerank 3对企业内部的复杂信息进行高精度搜索和检索,包括邮件、报告、合同、财务数据等
将Rerank 3集成到企业应用程序中,增强原有的搜索功能,提升用户体验
在检索辅助生成系统中使用Rerank 3对大量文档进行快速高效的语义重排,提升响应准确度和降低成本
产品特色:
4k上下文长度支持,显著提升长文本搜索质量
支持多语种、多结构数据搜索,包括邮件、发票、JSON文档、代码、表格等
覆盖100多种语言
显著提升延迟和降低总体拥有成本
浏览量:16
最新流量情况
月访问量
358.86k
平均访问时长
00:01:53
每次访问页数
2.57
跳出率
47.90%
流量来源
直接访问
48.10%
自然搜索
24.31%
邮件
3.61%
外链引荐
11.90%
社交媒体
12.08%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
32.60%
印度
7.92%
英国
5.01%
日本
4.91%
德国
4.52%
人工智能驱动的企业搜索和资源发现
GoSearch 是一款人工智能驱动的企业搜索和资源发现产品。它通过多模式生成式人工智能平台,统一搜索企业内部所有信息,加快工作流程,提供快速搜索结果和智能答案。GoSearch 支持集成 100 多个应用程序和数据连接器,可以跨工作应用程序进行搜索,提供生成式人工智能推荐、企业 ChatGPT 助手、AI 结果总结等功能。它适用于各种企业团队,可以提高知识管理效率,促进信息发现和资源利用。
上传文档并与Ayfie个人助理聊天
Ayfie是一个数字产品提供商,提供由ChatGPT驱动的Ayfie个人助理、企业搜索、GDPR合规性和开发者API等产品。Ayfie个人助理可以帮助您上传文档并与您进行聊天交互,提供智能助理功能。适用于学生、专业人士和其他用户。
由哔哩哔哩用户评论微调训练而成的本地聊天机器人
bilibot是一个基于哔哩哔哩用户评论训练的本地聊天机器人,支持文字聊天和语音对话。它使用Qwen1.5-32B-Chat作为基础模型,并结合苹果的mlx-lm LORA项目进行微调。语音生成部分基于GPT-SoVITS项目,使用派蒙语音模型。该机器人可以快速生成对话内容,适用于需要智能对话系统的场合。
小米开发的大规模预训练语言模型,参数规模64亿。
MiLM-6B是由小米公司开发的大规模预训练语言模型,参数规模达到64亿,它在中文基础模型评测数据集C-Eval和CMMLU上均取得同尺寸最好的效果。该模型代表了自然语言处理领域的最新进展,具有强大的语言理解和生成能力,可以广泛应用于文本生成、机器翻译、问答系统等多种场景。
开源基础模型,用于代码智能任务,支持116种编程语言。
Granite Code Models 是 IBM 开发的一系列开源基础模型,专为代码生成任务设计,如修复错误、解释代码、文档化代码等。这些模型在多种编程语言上进行了训练,并在不同的代码相关任务上达到了最先进的性能。主要优点包括全面的性能、企业级的信任度以及遵循 IBM 的 AI 伦理原则进行训练。
一款基于NVIDIA的高性能对话式问答和检索增强型生成模型。
Llama3-ChatQA-1.5-70B 是由 NVIDIA 开发的一款先进的对话式问答和检索增强型生成(RAG)模型。该模型基于 Llama-3 基础模型,并使用改进的训练方法,特别增强了表格和算术计算能力。它有两个变体:Llama3-ChatQA-1.5-8B 和 Llama3-ChatQA-1.5-70B。该模型在多个对话式问答基准测试中取得了优异的成绩,显示出其在处理复杂对话和生成相关回答方面的高效能力。
一款基于生物医学数据的8亿参数大型语言模型
Llama-3[8B] Meditron V1.0是一款专为生物医学领域设计的8亿参数的大型语言模型(LLM),在Meta发布Llama-3后24小时内完成微调。该模型在MedQA和MedMCQA等标准基准测试中超越了同参数级别的所有现有开放模型,并且接近70B参数级别医学领域领先的开放模型Llama-2[70B]-Meditron的性能。该工作展示了开放基础模型的创新潜力,是确保资源匮乏地区公平参与访问该技术更大倡议的一部分。
CoreNet 是一个用于训练深度神经网络的库。
CoreNet 是一个深度神经网络工具包,使研究人员和工程师能够训练标准和新颖的小型和大型规模模型,用于各种任务,包括基础模型(例如 CLIP 和 LLM)、对象分类、对象检测和语义分割。
视频生成的精细控制工具
Ctrl-Adapter是一个专门为视频生成设计的Controlnet,提供图像和视频的精细控制功能,优化视频时间对齐,适配多种基础模型,具备视频编辑能力,显著提升视频生成效率和质量。
基于7B参数的强大对话智能语言模型
360Zhinao是由奇虎360开源的一系列7B规模的智能语言模型,包括基础模型和三个不同长度上下文的对话模型。这些模型经过大规模中英文语料预训练,在自然语言理解、知识、数学、代码生成等多种任务上表现出色,并具有强大的长文本对话能力。模型可用于各种对话式应用的开发和部署。
一款12.1B参数的解码型语言模型
Stable LM 2 12B是一种12.1十亿参数的解码器式语言模型,经过2万亿token的多语种和代码数据集预训练。该模型可用作基础模型进行下游任务的微调,但在使用前需要评估和微调以确保安全可靠的性能。该模型可能包含不当内容,建议使用时谨慎评估,不要用于可能会给他人造成伤害的应用。
Hillbot是一家专注于机器人基础模型的公司,旨在为工业和家庭任务提供AI驱动的机器人
Hillbot致力于机器人创新的前沿,通过为机器人提供AI大脑和适应性技能,使其能够在复杂环境中执行复杂任务。公司在收集真实世界和模拟数据方面的专业知识,显著扩展了机器人基础模型的训练数据集。通过在3D场景捕捉、模拟和机器人学习算法方面的核心技术,Hillbot不仅在制造机器人,还在定义具身AI(AI与机器人技术的融合)的边界,以增强所有领域的能力。
突破性SSM-Transformer开放模型
Jamba是一款基于SSM-Transformer混合架构的开放语言模型,提供顶级的质量和性能表现。它融合了Transformer和SSM架构的优势,在推理基准测试中表现出色,同时在长上下文场景下提供3倍的吞吐量提升。Jamba是目前该规模下唯一可在单GPU上支持14万字符上下文的模型,成本效益极高。作为基础模型,Jamba旨在供开发者微调、训练并构建定制化解决方案。
基于JST-1视频-3D基础模型的可控视频生成
VIGGLE是一款基于JST-1视频-3D基础模型的可控视频生成工具。它可以让任何角色按照您的要求移动。JST-1是第一个具有实际物理理解能力的视频-3D基础模型。VIGGLE的优势在于其强大的视频生成和控制能力,可以根据用户需求生成各种动作和情节的视频。它定位于视频创作者、动画师和内容创作者等专业人群,帮助他们更高效地制作视频内容。目前VIGGLE处于测试阶段,未来可能会推出付费订阅版本。
HyperGAI推出的创新多模态LLM框架,旨在理解和处理文本、图像、视频等多种输入模态
HPT(Hyper-Pretrained Transformers)是HyperGAI研究团队推出的新型多模态大型语言模型框架,它能够高效且可扩展地训练大型多模态基础模型,理解包括文本、图像、视频等多种输入模态。HPT框架可以从头开始训练,也可以通过现有的预训练视觉编码器和/或大型语言模型进行高效适配。
用于人形机器人学习的通用基础模型
NVIDIA Project GR00T是一种通用基础模型,可在仿真和真实世界中改变人形机器人的学习方式。通过在NVIDIA GPU加速模拟中进行训练,GR00T使得人形机器人能够从少量的人类演示中通过模仿学习和NVIDIA Isaac Lab进行强化学习,并可从视频数据生成机器人动作。GR00T模型接受多模态指令和过去的交互作为输入,并输出机器人需要执行的动作。
开放发布的Grok-1模型,拥有3140亿参数
Grok-1是由xAI从头开始训练的314亿参数的专家混合模型(Mixture-of-Experts)。该模型未经针对特定应用(如对话)的微调,是Grok-1预训练阶段的原始基础模型检查点。
Cradle框架:用于控制计算机的多模态代理
Cradle框架旨在使基础模型能够通过与人类相同的通用接口(屏幕作为输入,键盘和鼠标操作作为输出)执行复杂的计算机任务。该框架在Red Dead Redemption II游戏中进行了案例研究,展示了其在复杂环境中的泛化和适应能力。
Phi-2-super是一款高级的基于大规模文本训练的对话AI模型。
Phi-2-super是在Phi-2基础模型上进行微调优化得到的对话AI系统,通过大量文本数据训练,应用了直接偏好优化算法,能够高质量地理解和生成人性化的文本。该模型具有以下优势和功能:1) 文本生成:可以针对广泛的话题生成连贯、相关的文本。2)多轮对话:能够进行多轮顺畅自然的对话。3)个性化:可以根据不同用户进行个性化的对话。4)安全性:集成了过滤机制,可以生成安全、负责任的回复。5)可解释性:内置的因果推理功能,可以解释自己的回答。6)参数可调:可以调整温度参数等来控制生成文本的多样性。
时序预测的解码器基础模型
TimesFM是一款基于大型时序数据集预训练的解码器基础模型,具有200亿参数。相较于大型语言模型,虽然规模较小,但在不同领域和时间粒度的多个未见数据集上,其零-shot性能接近最先进的监督方法。TimesFM无需额外训练即可提供出色的未见时间序列预测。
实时3D角色生成平台
Museclip是一个基于3D模型的实时人物设计平台,拥有智能编辑、魔法画笔和文字提示等功能,可以在几秒内将3D人物基础模型转换成逼真的角色形象,大幅提高人物设计的效率。它的主要优势有:实时渲染技术,快速定制化,智能简洁的设计流程,为用户提供极大的创作自由度。
深入了解大型语言模型的内部工作
LLMs-from-scratch将带您逐步了解LLMs的工作原理。本书将逐步指导您创建自己的LLM,通过清晰的文本、图表和示例解释每个阶段。所描述的用于教育目的的训练和开发自己的小型但功能齐全模型的方法,与创建ChatGPT等大规模基础模型的方法相似。
DuckDB NSQL模型,针对DuckDB SQL生成任务。
DuckDB NSQL是一系列开源的基础模型(FMs),专门用于SQL生成任务。我们很高兴在这个仓库中推出DuckDB NSQL,这是一个为本地DuckDB SQL分析任务定制的FM。所有模型权重都可以在HuggingFace上找到。
基于视觉语言基础模型的胸部X光解读
CheXagent是一个基于视觉语言基础模型的胸部X光解读工具。它利用临床大型语言模型来解析放射学报告,视觉编码器用于表示X光图像,并设计了一个网络来桥接视觉和语言模态。此外,CheXagent还引入了CheXbench,一个旨在系统评估基于视觉语言基础模型在8个临床相关的胸部X光解读任务上的性能的新型基准。经过广泛的定量评估和与五名专家放射科医生的定性评审,CheXagent在CheXbench任务上的表现优于先前开发的通用和医学领域的基础模型。
交互式分割和识别模型
Open-Vocabulary SAM是一个基于SAM和CLIP的视觉基础模型,专注于交互式分割和识别任务。它通过SAM2CLIP和CLIP2SAM两个独特的知识传输模块,实现了SAM和CLIP的统一框架。在各种数据集和检测器上的广泛实验表明,Open-Vocabulary SAM在分割和识别任务中的有效性,明显优于简单组合SAM和CLIP的朴素基准。此外,结合图像分类数据训练,该方法可以分割和识别大约22,000个类别。
使用生成式AI赋能人类创造力与生产力
HiDream.ai是一个使用生成式AI来提升人类创造力和生产力的平台。它提供了像Pixeling这样的产品,可以自动生成图像、视频、文字等创意内容,帮助用户提高工作效率,创造更多价值。平台采用自主研发的多模态基础模型,可以处理文本、图像、音频等不同形式的数据,实现多模态的生成。平台面向创意工作者、企事业单位等用户,提供基于订阅的服务模式。用户可以通过WEB页面访问该平台,体验其强大的生成能力。
© 2024 AIbase 备案号:闽ICP备2023012347号-1