需求人群:
"Jockey主要面向需要处理复杂视频工作流程的开发者和团队,尤其是那些希望利用大型语言模型来增强视频内容创作和编辑流程的用户。它适合需要高度自定义和自动化视频处理任务的专业用户。"
使用场景示例:
视频编辑团队使用Jockey自动化视频剪辑和字幕生成。
内容创作者利用Jockey生成视频草稿和故事板。
教育机构使用Jockey创建交互式视频教程。
产品特色:
结合大型语言模型与视频处理API进行复杂视频工作流程的负载分配。
使用LangGraph进行任务分配,提高视频处理效率。
通过LLMs逻辑规划执行步骤,增强用户交互体验。
无需中介表示,直接利用视频基础模型处理视频任务。
支持自定义和扩展,以适应不同的视频相关用例。
提供终端和LangGraph API服务器部署选项,灵活适应开发和测试需求。
使用教程:
1. 安装必要的外部依赖,如FFMPEG、Docker和Docker Compose。
2. 克隆Jockey的GitHub仓库到本地环境。
3. 创建并激活Python虚拟环境,安装所需的Python包。
4. 配置.env文件,添加必要的API密钥和环境变量。
5. 使用Docker Compose部署Jockey API服务器。
6. 通过终端运行Jockey实例进行测试或使用LangGraph API服务器进行端到端部署。
7. 使用LangGraph Debugger UI进行调试和端到端测试。
浏览量:12
最新流量情况
月访问量
5.04m
平均访问时长
00:06:44
每次访问页数
5.72
跳出率
37.31%
流量来源
直接访问
52.46%
自然搜索
32.55%
邮件
0.05%
外链引荐
12.51%
社交媒体
2.27%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.03%
德国
3.56%
印度
9.44%
俄罗斯
5.59%
美国
18.14%
对话式视频代理,结合大型语言模型与视频处理API。
Jockey是一个基于Twelve Labs API和LangGraph构建的对话式视频代理。它将现有的大型语言模型(Large Language Models, LLMs)的能力与Twelve Labs的API结合使用,通过LangGraph进行任务分配,将复杂视频工作流程的负载分配给适当的基础模型。LLMs用于逻辑规划执行步骤并与用户交互,而与视频相关的任务则传递给由视频基础模型(Video Foundation Models, VFMs)支持的Twelve Labs API,以原生方式处理视频,无需像预先生成的字幕这样的中介表示。
前沿的多模态大型语言模型
NVLM-D-72B是NVIDIA推出的一款多模态大型语言模型,专注于视觉-语言任务,并且通过多模态训练提升了文本性能。该模型在视觉-语言基准测试中取得了与业界领先模型相媲美的成绩。
糖尿病护理专用的大型语言模型
Diabetica-7B是一个针对糖尿病护理领域优化的大型语言模型。它在糖尿病相关的多种任务上表现出色,包括诊断、治疗建议、药物管理、生活方式建议、患者教育等。该模型基于开源模型进行微调,使用特定疾病数据集和微调技术,提供了一个可复现的框架,可以加速AI辅助医疗的发展。此外,它还经过了全面的评估和临床试验,以验证其在临床应用中的有效性。
糖尿病护理专用的大型语言模型
Diabetica-1.5B是一个为糖尿病护理领域特别定制的大型语言模型,它在诊断、治疗建议、药物管理、生活方式建议、患者教育等多个与糖尿病相关的任务中表现出色。该模型基于开源模型开发,并利用特定疾病数据集进行微调,提供了一个可复现的框架,可以加速AI辅助医疗的发展。
多模态大型语言模型,支持图像和文本处理。
Llama-3.2-11B-Vision 是 Meta 发布的一款多模态大型语言模型(LLMs),它结合了图像和文本处理的能力,旨在提高视觉识别、图像推理、图像描述和回答有关图像的一般问题的性能。该模型在常见的行业基准测试中的表现超过了众多开源和封闭的多模态模型。
多语言大型语言模型
Llama 3.2是由Meta公司推出的多语言大型语言模型(LLMs),包含1B和3B两种规模的预训练和指令调优生成模型。这些模型在多种语言对话用例中进行了优化,包括代理检索和总结任务。Llama 3.2在许多行业基准测试中的表现优于许多现有的开源和封闭聊天模型。
AI与产品管理领域的知识社区
觅识AI社区是一个专注于人工智能与产品管理领域的知识社区,提供AI产品管理的相关知识体系和研发产品用例。社区成员有机会成为'超级个体和一人公司'。可通过邮件或社交媒体与主理人联系,加入AI PM社区。
前沿级多模态大型语言模型,实现视觉-语言任务的先进性能。
NVLM 1.0是一系列前沿级的多模态大型语言模型(LLMs),在视觉-语言任务上取得了与领先专有模型和开放访问模型相媲美的先进成果。值得注意的是,NVLM 1.0在多模态训练后,其文本性能甚至超过了其LLM主干模型。我们为社区开源了模型权重和代码。
为ComfyUI提供Luma AI API的自定义节点。
ComfyUI-LumaAI-API是一个为ComfyUI设计的插件,它允许用户直接在ComfyUI中使用Luma AI API。Luma AI API基于Dream Machine视频生成模型,由Luma开发。该插件通过提供多种节点,如文本到视频、图像到视频、视频预览等,极大地丰富了视频生成的可能性,为视频创作者和开发者提供了便捷的工具。
使用Runway API,随时随地创造视频内容。
Runway API是一个强大的视频模型平台,提供先进的生成视频模型,允许用户在安全、可靠的环境中嵌入Gen-3 Alpha Turbo到他们的产品中。它支持广泛的应用场景,包括创意广告、音乐视频、电影制作等,是全球顶尖创意人士的首选。
高效单遍统一生成和检索框架,适用于大型语言模型。
OneGen是一个为大型语言模型(LLMs)设计的高效单遍生成和检索框架,用于微调生成、检索或混合任务。它的核心思想是将生成和检索任务整合到同一上下文中,通过将检索任务分配给以自回归方式生成的检索令牌,使得LLM能够在单次前向传递中执行两种任务。这种方法不仅降低了部署成本,还显著减少了推理成本,因为它避免了对查询进行两次前向传递计算的需求。
开源大型语言模型工具集合
Open Source LLM Tools是一个专注于收集和展示开源大型语言模型(LLM)工具的平台。它提供了一个更新频繁的资源库,帮助开发者和研究者发现和利用最新的开源AI工具。该平台的主要优点在于其高更新频率和对活跃开源AI开发者的聚焦,使得用户能够及时获取到行业的最新动态和技术进展。
多语言大型语言模型,支持多领域文本生成。
XVERSE-MoE-A36B是由深圳元象科技自主研发的多语言大型语言模型,采用混合专家模型(MoE)架构,具有2554亿的总参数规模和360亿的激活参数量。该模型支持包括中、英、俄、西等40多种语言,特别在中英双语上表现优异。模型使用8K长度的训练样本,并通过精细化的数据采样比例和动态数据切换策略,保证了模型的高质量和多样性。此外,模型还针对MoE架构进行了定制优化,提升了计算效率和整体吞吐量。
无代码开发平台,快速搭建个性化应用
Zion是一个无代码开发平台,它通过提供预置的大模型和完善的生态服务体系,使得用户无需编写代码即可构建AI应用、SaaS应用和消费级应用。该平台支持高效的运维方式和多端发布,包括网页、H5、小程序等,同时提供API连接、可视化开发、数据模型管理后台等功能,以满足不同业务场景的需求。Zion的目标是降低AI应用的使用成本和复杂度,提升开发效率,帮助用户快速实现数字化转型。
AI编程智能体语言,实现LLM与IDE之间的通信以自动化编程。
the Shire是一种AI编程智能体语言,旨在实现大型语言模型(LLM)与集成开发环境(IDE)之间的通信,以支持自动化编程。它起源于AutoDev项目,旨在为开发者提供一个AI驱动的IDE,包括DevIns,Shire的前身。Shire通过提供定制化的AI代理,使用户能够构建符合个人需求的AI驱动开发环境。
利用多指令视频到音频合成技术
Draw an Audio是一个创新的视频到音频合成技术,它通过多指令控制,能够根据视频内容生成高质量的同步音频。这项技术不仅提升了音频生成的可控性和灵活性,还能够在多阶段产生混合音频,展现出更广泛的实际应用潜力。
免费且快速的提示链生成器
PromptChainer 是一个旨在提高大型语言模型输出质量的工具,通过自动化提示链的生成,帮助用户将复杂任务分解成可管理的小步骤,从而获得更精确和高质量的结果。它特别适合需要多步骤和/或大量上下文和知识的任务。
使大型语言模型在长文本问答中生成细粒度引用
LongCite是一个开源的模型,它通过训练大型语言模型(LLMs)来实现在长文本问答场景中生成准确的回答和精确的句级引用。该技术的重要性在于它能够提高问答系统的准确性和可信度,使用户能够验证输出信息的来源。LongCite支持高达128K的上下文长度,并且提供了两个模型:LongCite-glm4-9b和LongCite-llama3.1-8b,分别基于GLM-4-9B和Meta-Llama-3.1-8B进行训练。
高效扩展多模态大型语言模型至1000图像
LongLLaVA是一个多模态大型语言模型,通过混合架构高效扩展至1000图像,旨在提升图像处理和理解能力。该模型通过创新的架构设计,实现了在大规模图像数据上的有效学习和推理,对于图像识别、分类和分析等领域具有重要意义。
利用大型语言模型增量构建知识图谱
iText2KG是一个Python包,旨在利用大型语言模型从文本文档中提取实体和关系,增量构建一致的知识图谱。它具备零样本能力,允许在没有特定训练的情况下跨不同领域进行知识提取。该包包括文档蒸馏、实体提取和关系提取模块,确保实体和关系得到解决和唯一性。它通过Neo4j提供知识图谱的可视化表示,支持交互式探索和分析结构化数据。
世界顶尖的开源大型语言模型
Reflection Llama-3.1 70B 是目前世界上顶尖的开源大型语言模型(LLM),采用名为 Reflection-Tuning 的新技术进行训练,使模型能够检测其推理中的错误并进行修正。该模型在合成数据上进行了训练,这些数据由 Glaive 生成。对于正在训练模型的用户来说,Glaive 是一个非常出色的工具。该模型使用标准的 Llama 3.1 聊天格式,通过特殊的标签来区分模型的内部思考和最终答案,从而提升用户体验。
高效开源的大型语言模型
OLMoE-1B-7B 是一个具有1亿活跃参数和7亿总参数的专家混合型大型语言模型(LLM),于2024年9月发布。该模型在成本相似的模型中表现卓越,与更大的模型如Llama2-13B竞争。OLMoE完全开源,支持多种功能,包括文本生成、模型训练和部署等。
基于大型语言模型的高性能MacOS聊天应用
ChatMLX是一款现代、开源、高性能的MacOS聊天应用程序,基于大型语言模型构建。它利用MLX的强大性能和苹果硅芯片,支持多种模型,为用户提供丰富的对话选择。ChatMLX在本地运行大型语言模型,以确保用户隐私和安全。
35亿参数的高性能生成模型
C4AI Command R 08-2024是由Cohere和Cohere For AI开发的35亿参数大型语言模型,专为推理、总结和问答等多种用例优化。该模型支持23种语言的训练,并在10种语言中进行了评估,具有高性能的RAG(检索增强生成)能力。它通过监督式微调和偏好训练,以符合人类对有用性和安全性的偏好。此外,该模型还具备对话工具使用能力,能够通过特定的提示模板生成基于工具的响应。
多模态大型语言模型设计空间探索
EAGLE是一个面向视觉中心的高分辨率多模态大型语言模型(LLM)系列,通过混合视觉编码器和不同输入分辨率来加强多模态LLM的感知能力。该模型包含基于通道连接的'CLIP+X'融合,适用于具有不同架构(ViT/ConvNets)和知识(检测/分割/OCR/SSL)的视觉专家。EAGLE模型家族支持超过1K的输入分辨率,并在多模态LLM基准测试中取得了优异的成绩,特别是在对分辨率敏感的任务上,如光学字符识别和文档理解。
使用Gemini API进行图像物体检测的Streamlit应用
bonding_w_geimini是一个基于Streamlit框架开发的图像处理应用,它允许用户上传图片,通过Gemini API进行物体检测,并在图片上直接绘制出物体的边界框。这个应用利用了机器学习模型来识别和定位图片中的物体,对于图像分析、数据标注和自动化图像处理等领域具有重要意义。
视频理解与推理的免训练大型语言模型。
SlowFast-LLaVA是一个无需训练的多模态大型语言模型,专为视频理解和推理设计。它无需在任何数据上进行微调,就能在多种视频问答任务和基准测试中达到与最先进视频大型语言模型相当甚至更好的性能。
视频人脸超分辨率的创新框架
KEEP是一个基于Kalman滤波原理的视频人脸超分辨率框架,旨在通过特征传播来保持时间上的稳定人脸先验。它通过融合先前恢复帧的信息来指导和调节当前帧的恢复过程,有效捕捉视频帧中一致的人脸细节。
© 2024 AIbase 备案号:闽ICP备08105208号-14