需求人群:
"该产品适合编程学习者、教育工作者以及对人工智能辅助教育感兴趣的研究人员。它为学习者提供个性化的编程辅导,帮助他们更好地掌握编程知识;同时为教育工作者提供教学工具,提升教学效果。研究人员可以利用其开源代码和数据进行进一步研究。"
使用场景示例:
编程初学者通过与Coding-Tutor的对话,逐步掌握Python基础语法。
开发人员利用Coding-Tutor的代码生成和验证功能,快速优化代码逻辑。
教育机构将Coding-Tutor集成到课程中,为学生提供个性化的编程练习和反馈。
产品特色:
提出Trace-and-Verify工作流,结合知识追踪和逐轮验证,提升辅导效果。
引入Dialogue for Coding Tutoring(DICT)评估协议,结合学生模拟和编程测试,自动化评估辅导效果。
支持不同水平学习者的个性化辅导,通过模拟学生验证其可行性。
开源代码和数据,便于开发者参与贡献和二次开发。
提供详细的实验结果和分析,展示模型在不同场景下的表现。
使用教程:
1. 访问项目主页,了解项目背景和功能。
2. 克隆项目代码到本地,按照README文档安装依赖。
3. 配置模型和相关参数,运行代码。
4. 通过对话界面与Coding-Tutor交互,输入编程问题或任务。
5. 查看模型生成的代码和解释,逐步学习编程知识。
6. 参考项目提供的实验结果和分析,优化使用体验。
浏览量:58
最新流量情况
月访问量
5.13m
平均访问时长
00:06:32
每次访问页数
6.11
跳出率
36.07%
流量来源
直接访问
54.23%
自然搜索
31.90%
邮件
0.04%
外链引荐
11.74%
社交媒体
1.91%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.57%
德国
3.83%
印度
10.07%
俄罗斯
4.92%
美国
18.64%
探索大型语言模型作为编程辅导工具的潜力,提出Trace-and-Verify工作流。
Coding-Tutor是一个基于大型语言模型(LLM)的编程辅导工具,旨在通过对话式交互帮助学习者提升编程能力。它通过Trace-and-Verify(Traver)工作流,结合知识追踪和逐轮验证,解决编程辅导中的关键挑战。该工具不仅适用于编程教育,还可扩展到其他任务辅导场景,帮助根据学习者的知识水平调整教学内容。项目开源,支持社区贡献。
大型语言模型,支持指令式对话和功能调用。
Mistral-7B-Instruct-v0.3是由Mistral AI Team开发的大型语言模型,它是Mistral-7B-v0.3的指令式微调版本。该模型具有扩展的词汇量、支持v3 Tokenizer和功能调用。它能够通过指令式对话和功能调用来生成文本,适合于需要交互式对话和自动化任务的场景。
对话式视频代理,结合大型语言模型与视频处理API。
Jockey是一个基于Twelve Labs API和LangGraph构建的对话式视频代理。它将现有的大型语言模型(Large Language Models, LLMs)的能力与Twelve Labs的API结合使用,通过LangGraph进行任务分配,将复杂视频工作流程的负载分配给适当的基础模型。LLMs用于逻辑规划执行步骤并与用户交互,而与视频相关的任务则传递给由视频基础模型(Video Foundation Models, VFMs)支持的Twelve Labs API,以原生方式处理视频,无需像预先生成的字幕这样的中介表示。
先进的大型语言模型,用于编程
Code Llama 是一款先进的大型语言模型,可以通过文本提示生成代码。它是当前公开可用的语言模型中在编程任务上达到最佳性能的模型之一。Code Llama 可以帮助开发人员提高工作效率,降低编码门槛,并作为一个教育工具帮助编程学习者编写更健壮、更好文档化的软件。Code Llama 提供了多个版本,包括基础版、针对 Python 的专用版和针对自然语言指令的定制版。它支持多种流行的编程语言,如 Python、C++、Java 等。Code Llama 免费供研究和商业使用。
先进的大型语言模型,具备推理和编程能力。
Mistral-Large-Instruct-2407是一个拥有123B参数的先进大型语言模型(LLM),具备最新的推理、知识和编程能力。它支持多语言,包括中文、英语、法语等十种语言,并且在80多种编程语言上受过训练,如Python、Java等。此外,它还具备代理中心能力和先进的数学及推理能力。
多模态大型语言模型,提升视觉与语言的交互能力
InternVL2_5-8B-MPO-AWQ是OpenGVLab推出的一款多模态大型语言模型,它基于InternVL2.5系列,并采用混合偏好优化(Mixed Preference Optimization, MPO)技术。该模型在视觉和语言的理解与生成方面展现了卓越的性能,尤其在多模态任务中表现出色。它通过结合视觉部分InternViT和语言部分InternLM或Qwen,使用随机初始化的MLP投影器进行增量预训练,实现了对图像和文本的深入理解与交互。该技术的重要性在于它能够处理包括单图像、多图像以及视频数据在内的多种数据类型,为多模态人工智能领域提供了新的解决方案。
多语言大型语言模型,优化对话场景。
Meta Llama 3.1是一系列多语言的大型预训练和指令调整的生成模型,包含8B、70B和405B大小的版本。这些模型专为多语言对话用例而优化,并在常见行业基准测试中表现优于许多开源和闭源聊天模型。模型使用优化的transformer架构,并通过监督式微调(SFT)和强化学习与人类反馈(RLHF)进行调整,以符合人类对有用性和安全性的偏好。
利用大型语言模型生成交互式图表
Interactive Graph by LLM 是一个基于大型语言模型(LLM)的网站,它允许用户通过自然语言提示生成交互式图表。这项技术的重要性在于它简化了数据可视化的过程,使得非技术用户也能够轻松创建和理解复杂的数据。产品背景信息包括其创新的交互方式和对数据可视化的贡献。目前产品处于免费试用阶段,定位于希望简化数据展示流程的企业和个人。
大型语言模型,支持多语言和编程语言文本生成。
Nemotron-4-340B-Base是由NVIDIA开发的大型语言模型,拥有3400亿参数,支持4096个token的上下文长度,适用于生成合成数据,帮助研究人员和开发者构建自己的大型语言模型。模型经过9万亿token的预训练,涵盖50多种自然语言和40多种编程语言。NVIDIA开放模型许可允许商业使用和派生模型的创建与分发,不声明对使用模型或派生模型生成的任何输出拥有所有权。
NVIDIA的高级语言模型,优化于英文对话场景。
Nemotron-4-340B-Instruct是由NVIDIA开发的大型语言模型(LLM),专为英文单轮和多轮对话场景优化。该模型支持4096个token的上下文长度,经过监督式微调(SFT)、直接偏好优化(DPO)和奖励感知偏好优化(RPO)等额外的对齐步骤。模型在约20K人工标注数据的基础上,通过合成数据生成管道合成了超过98%的用于监督微调和偏好微调的数据。这使得模型在人类对话偏好、数学推理、编码和指令遵循方面表现良好,并且能够为多种用例生成高质量的合成数据。
MinMo是一款多模态大型语言模型,用于无缝语音交互。
MinMo是阿里巴巴集团通义实验室开发的一款多模态大型语言模型,拥有约80亿参数,专注于实现无缝语音交互。它通过多个阶段的训练,包括语音到文本对齐、文本到语音对齐、语音到语音对齐和全双工交互对齐,在140万小时的多样化语音数据和广泛的语音任务上进行训练。MinMo在语音理解和生成的各种基准测试中达到了最先进的性能,同时保持了文本大型语言模型的能力,并支持全双工对话,即用户和系统之间的同时双向通信。此外,MinMo还提出了一种新颖且简单的语音解码器,在语音生成方面超越了以往的模型。MinMo的指令遵循能力得到了增强,支持根据用户指令控制语音生成,包括情感、方言和语速等细节,并模仿特定的声音。MinMo的语音到文本延迟约为100毫秒,全双工延迟理论上约为600毫秒,实际约为800毫秒。MinMo的开发旨在克服以往对齐多模态模型的主要限制,为用户提供更自然、流畅和人性化的语音交互体验。
Dria-Agent-α是基于Python的大型语言模型工具交互框架。
Dria-Agent-α是Hugging Face推出的大型语言模型(LLM)工具交互框架。它通过Python代码来调用工具,与传统的JSON模式相比,能更充分地发挥LLM的推理能力,使模型能够以更接近人类自然语言的方式进行复杂问题的解决。该框架利用Python的流行性和接近伪代码的语法,使LLM在代理场景中表现更佳。Dria-Agent-α的开发使用了合成数据生成工具Dria,通过多阶段管道生成逼真的场景,训练模型进行复杂问题解决。目前已有Dria-Agent-α-3B和Dria-Agent-α-7B两个模型在Hugging Face上发布。
多语言大型语言模型,优化对话和文本生成。
Meta Llama 3.1是一系列预训练和指令调整的多语言大型语言模型(LLMs),包含8B、70B和405B三种大小的模型,专门针对多语言对话使用案例进行了优化,并在行业基准测试中表现优异。该模型使用优化的transformer架构,并通过监督式微调(SFT)和人类反馈的强化学习(RLHF)进一步与人类偏好对齐,以确保其有用性和安全性。
聪明语言模型,交互式对话
TalkGPT是一种聪明的语言模型,可以进行交互式对话。它可以回答各种问题,并提供智能的回应。通过使用查询示例,您可以充分利用它的潜力。TalkGPT提供了一种无缝的对话体验,让您可以与模型进行自然而流畅的交流。
多语言对话生成模型
Meta Llama 3.1系列模型是一套预训练和指令调整的多语言大型语言模型(LLMs),包含8B、70B和405B三种规模的模型,专为多语言对话使用案例优化,性能优于许多开源和闭源聊天模型。
多模态大型语言模型,支持图像与文本的深度交互
InternVL 2.5 是一个先进的多模态大型语言模型系列,它在InternVL 2.0的基础上,通过引入显著的训练和测试策略增强以及数据质量提升,维持了其核心模型架构。该模型整合了新增量预训练的InternViT与各种预训练的大型语言模型,例如InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。InternVL 2.5 支持多图像和视频数据,具备动态高分辨率训练方法,能够在处理多模态数据时提供更好的性能。
专为角色扮演优化的大型语言模型
Higgs-Llama-3-70B是一个基于Meta-Llama-3-70B的后训练模型,特别针对角色扮演进行了优化,同时在通用领域指令执行和推理方面保持竞争力。该模型通过监督式微调,结合人工标注者和私有大型语言模型构建偏好对,进行迭代偏好优化以对齐模型行为,使其更贴近系统消息。与其它指令型模型相比,Higgs模型更紧密地遵循其角色。
多模态大型语言模型,提升视觉与语言的交互能力。
InternVL2_5-26B-MPO是一个多模态大型语言模型(MLLM),它在InternVL2.5的基础上,通过混合偏好优化(Mixed Preference Optimization, MPO)进一步提升了模型性能。该模型能够处理包括图像、文本在内的多模态数据,广泛应用于图像描述、视觉问答等场景。它的重要性在于能够理解和生成与图像内容紧密相关的文本,推动了多模态人工智能的边界。产品背景信息包括其在多模态任务中的卓越性能,以及在OpenCompass Learderboard中的评估结果。该模型为研究者和开发者提供了强大的工具,以探索和实现多模态人工智能的潜力。
通过角色扮演进行对话的大型语言模型
Peach-9B-8k-Roleplay是一个经过微调的大型语言模型,专门用于角色扮演对话。它基于01-ai/Yi-1.5-9B模型,通过数据合成方法在超过100K的对话上进行训练。尽管模型参数较小,但可能在34B以下参数的语言模型中表现最佳。
70亿参数的大型多语言对话生成模型
Meta Llama 3.1是Meta公司推出的一种大型语言模型,拥有70亿参数,支持8种语言的文本生成和对话。该模型使用优化的Transformer架构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)进行调优,以符合人类对有用性和安全性的偏好。它旨在为商业和研究用途提供支持,特别是在多语言对话场景下表现出色。
高效为大型语言模型提供服务
FP6-LLM是一种用于大型语言模型的全新支持方案,通过六位量化(FP6)有效地减小了模型大小,并在各种应用中始终保持模型质量。我们提出了TC-FPx,这是第一个完整的GPU内核设计方案,统一支持各种量化位宽的浮点权重。我们将TC-FPx内核集成到现有推理系统中,为量化的LLM推理提供了全新的端到端支持(称为FP6-LLM),实现了推理成本和模型质量之间更好的权衡。实验证明,FP6-LLM使得使用单个GPU进行LLaMA-70b推理成为可能,实现的规范化推理吞吐量比FP16基准高1.69倍至2.65倍。
构建监督式大型语言模型的无代码平台
Supervised AI是一个无代码AI开发平台,利用OpenAI的GPT引擎,构建由您自己的数据支持的监督式大型语言模型。您可以使用我们的自定义模型和数据源,在高准确率和快速开发的环境下构建强大且可扩展的AI。同时,您还可以使用Supervised API将您的AI模型集成到任何地方。
交互式分割和识别模型
Open-Vocabulary SAM是一个基于SAM和CLIP的视觉基础模型,专注于交互式分割和识别任务。它通过SAM2CLIP和CLIP2SAM两个独特的知识传输模块,实现了SAM和CLIP的统一框架。在各种数据集和检测器上的广泛实验表明,Open-Vocabulary SAM在分割和识别任务中的有效性,明显优于简单组合SAM和CLIP的朴素基准。此外,结合图像分类数据训练,该方法可以分割和识别大约22,000个类别。
一款集成AI技术的智能对话系统,提供多语言翻译、编程代码生成等功能。
ChatMIX智能对话-AIGC系统是一款利用人工智能技术构建的在线聊天系统,旨在通过AI技术提升用户交互体验。产品支持智能翻译、工作周报生成、编程代码编写等功能,满足用户在不同场景下的需求。它的优势在于能够快速响应用户指令,提供准确、高效的服务,同时具备良好的用户界面和操作体验。
8B参数的大型多语言生成模型
Meta Llama 3.1是一系列预训练和指令调整的多语言大型语言模型(LLMs),包含8B、70B和405B大小的版本,支持8种语言,专为多语言对话用例优化,并在行业基准测试中表现优异。Llama 3.1模型采用自回归语言模型,使用优化的Transformer架构,并通过监督式微调(SFT)和强化学习结合人类反馈(RLHF)来提高模型的有用性和安全性。
音频驱动的交互式头部生成框架,用于双人对话。
INFP是一个音频驱动的交互式头部生成框架,专为双人对话设计。它可以根据双人对话中的双轨音频和一个任意代理的单人肖像图像动态合成具有逼真面部表情和节奏性头部姿态动作的言语、非言语和交互式代理视频。该框架轻量而强大,适用于视频会议等即时通讯场景。INFP代表交互式(Interactive)、自然(Natural)、快速(Flash)和通用(Person-generic)。
对话式全链路数据分析助手
百度GBI是一款依托大模型对话交互的商业分析助手,能够实现查询、绘图、归因、预测、洞察、总结等全链路数据分析任务,无需编写SQL代码,简化了数据分析流程,提高了效率,适用于各种业务场景。
© 2025 AIbase 备案号:闽ICP备08105208号-14