需求人群:
"Yi-Coder适合软件开发者、编程竞赛参与者和AI研究者。它能够提高代码编写效率,帮助解决复杂的编程问题,并为AI在编程领域的应用提供研究基础。"
使用场景示例:
开发者使用Yi-Coder自动补全代码,提高开发效率
编程竞赛选手利用Yi-Coder解决算法问题,获得更高排名
AI研究者使用Yi-Coder进行代码生成和推理能力的研究
产品特色:
支持52种主要编程语言的高质量token预训练
长上下文建模:最大上下文窗口128K tokens,实现项目级代码理解和生成
在少于10亿参数的模型中性能卓越,与更大模型性能相当
在LiveCodeBench平台上,Yi-Coder-9B-Chat实现了23.4%的通过率,超越其他模型
在CodeEditorBench中,Yi-Coder-9B在代码修改任务中表现优异
在CrossCodeEval中,Yi-Coder在跨文件代码补全方面表现出色
在'Needle in the code'任务中,Yi-Coder-9B展示了其长上下文建模能力
在Program-Aid Math Reasoning评估中,Yi-Coder-9B在数学推理方面表现突出
使用教程:
访问Yi-Coder的GitHub页面,了解模型的详细信息和使用指南
下载并安装必要的软件依赖,如Python环境和Transformers库
根据Yi-Coder的README文档,设置模型训练或推理的环境
使用Yi-Coder API进行代码生成或参与到现有的代码编辑任务中
在项目中集成Yi-Coder,利用其长上下文理解和代码生成能力优化开发流程
参与Yi-Coder的社区讨论,获取技术支持和最佳实践分享
通过Discord或邮件与Yi-Coder的开发团队联系,获取更深入的帮助和讨论
浏览量:29
最新流量情况
月访问量
3056
平均访问时长
00:00:00
每次访问页数
1.17
跳出率
42.20%
流量来源
直接访问
35.63%
自然搜索
22.93%
邮件
0.10%
外链引荐
31.84%
社交媒体
8.39%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
法国
4.94%
英国
14.73%
印度
9.38%
美国
52.48%
高效编码的开源大型语言模型
Yi-Coder是一系列开源的代码大型语言模型(LLMs),在少于100亿参数的情况下提供最先进的编码性能。它有两种尺寸—1.5B和9B参数—提供基础和聊天版本,旨在高效推理和灵活训练。Yi-Coder-9B在GitHub的代码库级别代码语料库和从CommonCrawl筛选的代码相关数据上,额外训练了2.4万亿高质量token。Yi-Coder在多种编程任务中表现出色,包括基础和竞技编程、代码编辑和仓库级完成、长上下文理解以及数学推理。
Qwen2.5-Coder系列中的3B参数模型,专注于代码生成与理解。
Qwen2.5-Coder-3B是Qwen2.5-Coder系列中的一个大型语言模型,专注于代码生成、推理和修复。基于强大的Qwen2.5,该模型通过增加训练令牌至5.5万亿,包括源代码、文本代码基础、合成数据等,实现了在代码生成、推理和修复方面的显著改进。Qwen2.5-Coder-32B已成为当前最先进的开源代码大型语言模型,其编码能力与GPT-4o相匹配。此外,Qwen2.5-Coder-3B还为现实世界的应用提供了更全面的基础,如代码代理,不仅增强了编码能力,还保持了在数学和通用能力方面的优势。
为Cursor.sh IDE提供AI辅助编码的开源仪表板。
CursorLens是一个开源的仪表板,专为Cursor.sh IDE设计,用于记录AI代码生成、跟踪使用情况并控制AI模型(包括本地模型)。它允许用户在本地运行或使用即将推出的托管版本。该产品代表了编程领域中AI技术的应用,提供了代码生成、使用跟踪和模型控制等功能,极大地提高了开发效率和代码质量。
开源的多语言代码生成模型
CodeGeeX4-ALL-9B是CodeGeeX4系列模型的最新开源版本,基于GLM-4-9B持续训练,显著提升了代码生成能力。它支持代码补全、生成、代码解释、网页搜索、函数调用、代码问答等功能,覆盖软件开发的多个场景。在公共基准测试如BigCodeBench和NaturalCodeBench上表现优异,是参数少于10亿的最强代码生成模型,实现了推理速度与模型性能的最佳平衡。
一个实时适应未见任务的自适应大型语言模型框架。
SakanaAI/self-adaptive-llms是一个名为Transformer²的自适应框架,旨在解决传统微调方法计算密集且处理多样化任务能力静态的挑战。该框架能够在推理过程中通过两步机制实时调整大型语言模型(LLMs)以适应未见任务:首先,调度系统识别任务属性;然后,使用强化学习训练的任务特定'专家'向量被动态混合,以获得针对输入提示的目标行为。主要优点包括实时任务适应性、计算效率和灵活性。该项目由SakanaAI团队开发,目前在GitHub上开源,拥有195颗星和12次分叉。
开源的视觉语言模型,可在多种设备上运行。
Moondream AI是一个开源的视觉语言模型,具有强大的多模态处理能力。它支持多种量化格式,如fp16、int8、int4,能够在服务器、PC、移动设备等多种目标设备上进行GPU和CPU优化推理。其主要优点包括快速、高效、易于部署,且采用Apache 2.0许可证,允许用户自由使用和修改。Moondream AI的定位是为开发者提供一个灵活、高效的人工智能解决方案,适用于需要视觉和语言处理能力的各种应用场景。
一个用于检测幻觉的开源评估模型,基于Llama-3架构,拥有700亿参数。
PatronusAI/Llama-3-Patronus-Lynx-70B-Instruct是一个基于Llama-3架构的大型语言模型,旨在检测在RAG设置中的幻觉问题。该模型通过分析给定的文档、问题和答案,评估答案是否忠实于文档内容。其主要优点在于高精度的幻觉检测能力和强大的语言理解能力。该模型由Patronus AI开发,适用于需要高精度信息验证的场景,如金融分析、医学研究等。该模型目前为免费使用,但具体的商业应用可能需要与开发者联系。
一个开源AI模型微调与变现平台,助力AI初创企业、机器学习工程师和研究人员。
Bakery是一个专注于开源AI模型的微调与变现的在线平台,为AI初创企业、机器学习工程师和研究人员提供了一个便捷的工具,使他们能够轻松地对AI模型进行微调,并在市场中进行变现。该平台的主要优点在于其简单易用的界面和强大的功能,用户可以快速创建或上传数据集,微调模型设置,并在市场中进行变现。Bakery的背景信息表明,它旨在推动开源AI技术的发展,并为开发者提供更多的商业机会。虽然具体的定价信息未在页面中明确展示,但其定位是为AI领域的专业人士提供一个高效的工具。
高质量的数据集、工具和概念,用于大型语言模型的微调。
mlabonne/llm-datasets 是一个专注于大型语言模型(LLM)微调的高质量数据集和工具的集合。该产品为研究人员和开发者提供了一系列经过精心筛选和优化的数据集,帮助他们更好地训练和优化自己的语言模型。其主要优点在于数据集的多样性和高质量,能够覆盖多种使用场景,从而提高模型的泛化能力和准确性。此外,该产品还提供了一些工具和概念,帮助用户更好地理解和使用这些数据集。其背景信息包括由 mlabonne 创建和维护,旨在推动 LLM 领域的发展。
Eurus-2-7B-SFT是一个经过数学能力优化的大型语言模型,专注于推理和问题解决.
Eurus-2-7B-SFT是基于Qwen2.5-Math-7B模型进行微调的大型语言模型,专注于数学推理和问题解决能力的提升。该模型通过模仿学习(监督微调)的方式,学习推理模式,能够有效解决复杂的数学问题和编程任务。其主要优点在于强大的推理能力和对数学问题的准确处理,适用于需要复杂逻辑推理的场景。该模型由PRIME-RL团队开发,旨在通过隐式奖励的方式提升模型的推理能力。
Sonus-1:开启大型语言模型(LLMs)的新时代
Sonus-1是Sonus AI推出的一系列大型语言模型(LLMs),旨在推动人工智能的边界。这些模型以其高性能和多应用场景的多功能性而设计,包括Sonus-1 Mini、Sonus-1 Air、Sonus-1 Pro和Sonus-1 Pro (w/ Reasoning)等不同版本,以满足不同需求。Sonus-1 Pro (w/ Reasoning)在多个基准测试中表现突出,特别是在推理和数学问题上,展现了其超越其他专有模型的能力。Sonus AI致力于开发高性能、可负担、可靠且注重隐私的大型语言模型。
一款高效率的2.4亿参数轻量级语言模型
YuLan-Mini是由中国人民大学AI Box团队开发的一款轻量级语言模型,具有2.4亿参数,尽管仅使用1.08T的预训练数据,但其性能可与使用更多数据训练的行业领先模型相媲美。该模型特别擅长数学和代码领域,为了促进可复现性,团队将开源相关的预训练资源。
多模态大型语言模型,提升文本、图像和视频数据处理能力。
Valley是由字节跳动开发的多模态大型模型(MLLM),旨在处理涉及文本、图像和视频数据的多种任务。该模型在内部电子商务和短视频基准测试中取得了最佳结果,远超过其他开源模型,并在OpenCompass多模态模型评估排行榜上展现了出色的性能,平均得分67.40,位列已知开源MLLMs(<10B)中的前两名。
模型评测平台
FlagEval是一个模型评测平台,专注于大语言模型和多模态模型的评测。它提供了一个公正、透明的环境,让不同的模型在同一标准下进行比较,帮助研究者和开发者了解模型性能,推动人工智能技术的发展。该平台涵盖了对话模型、视觉语言模型等多种模型类型,支持开源和闭源模型的评测,并提供专项评测如K12学科测验和金融量化交易评测。
开源图像到视频生成模型
Ruyi-Mini-7B是由CreateAI团队开发的开源图像到视频生成模型,具有约71亿参数,能够从输入图像生成360p到720p分辨率的视频帧,最长5秒。模型支持不同宽高比,并增强了运动和相机控制功能,提供更大的灵活性和创造力。该模型在Apache 2.0许可下发布,意味着用户可以自由使用和修改。
开源多模态大型语言模型系列
InternVL 2.5是基于InternVL 2.0的高级多模态大型语言模型系列,它在保持核心模型架构的同时,在训练和测试策略以及数据质量方面引入了显著的增强。该模型深入探讨了模型扩展与性能之间的关系,系统地探索了视觉编码器、语言模型、数据集大小和测试时配置的性能趋势。通过在包括多学科推理、文档理解、多图像/视频理解、现实世界理解、多模态幻觉检测、视觉定位、多语言能力和纯语言处理在内的广泛基准测试中进行的广泛评估,InternVL 2.5展现出了与GPT-4o和Claude-3.5-Sonnet等领先商业模型相媲美的竞争力。特别是,该模型是第一个在MMMU基准测试中超过70%的开源MLLM,通过链式思考(CoT)推理实现了3.7个百分点的提升,并展示了测试时扩展的强大潜力。
MCP服务器目录,汇集多个MCP服务器资源。
MCP Directory是一个为MCP服务器提供目录服务的网站,它允许用户发现和共享MCP服务器资源。该网站使用TypeScript开发,并且提供了一个友好的用户界面,方便用户快速找到所需的MCP服务器。它的重要性在于为MCP服务器用户提供了一个集中的平台,促进了资源共享和技术交流。
探索AI前沿,精选国内外AI产品与应用。
智趣AI甄选是一个专注于人工智能领域的综合性平台,旨在洞察行业发展前景,精选并展示国内外的AI产品与应用。平台提供丰富的学习资源,行业融合案例分析,助力用户洞悉AI发展趋势,与AI技术同行,共创未来。
腾讯开源的大型视频生成模型训练框架
HunyuanVideo是腾讯开源的一个系统性框架,用于训练大型视频生成模型。该框架通过采用数据策划、图像-视频联合模型训练和高效的基础设施等关键技术,成功训练了一个超过130亿参数的视频生成模型,是所有开源模型中最大的。HunyuanVideo在视觉质量、运动多样性、文本-视频对齐和生成稳定性方面表现出色,超越了包括Runway Gen-3、Luma 1.6在内的多个行业领先模型。通过开源代码和模型权重,HunyuanVideo旨在缩小闭源和开源视频生成模型之间的差距,推动视频生成生态系统的活跃发展。
科学文献综合检索增强型语言模型
Ai2 OpenScholar是由艾伦人工智能研究所与华盛顿大学合作开发的检索增强型语言模型,旨在帮助科学家通过检索相关文献并基于这些文献生成回答来有效导航和综合科学文献。该模型在多个科学领域中表现出色,特别是在引用准确性和事实性方面。它代表了人工智能在科学研究中应用的重要进步,能够加速科学发现并提高研究效率。
社区驱动的专家级LLMs市场,专为技术主题设计。
Lune AI是一个社区驱动的专家级大型语言模型(LLMs)市场,由开发者在技术主题上创建,以超越单独的AI模型。它通过集成各种技术知识源,如GitHub仓库、文档等,减少技术查询的幻觉,并提供准确的参考。Lune AI的API与OpenAI兼容,可以轻松集成到各种支持OpenAI兼容模型的工具中,如Cursor、Continue等。此外,Lune AI还提供了一个付费计划,用户可以通过贡献和创建Lunes来获得报酬。
先进的指令遵循模型,提供开源数据和代码。
Llama-3.1-Tulu-3-8B是Tülu3指令遵循模型家族的一部分,专为多样化任务设计,包括聊天、数学问题解答、GSM8K和IFEval等。这个模型家族以其卓越的性能和完全开源的数据、代码以及现代后训练技术的全面指南而著称。模型主要使用英文,并且是基于allenai/Llama-3.1-Tulu-3-8B-DPO模型微调而来。
Qwen2.5-Coder系列的1.5B参数指令调优模型
Qwen2.5-Coder是Qwen大型语言模型的最新系列,专为代码生成、代码推理和代码修复而设计。基于强大的Qwen2.5,通过增加训练令牌至5.5万亿,包括源代码、文本代码基础、合成数据等,Qwen2.5-Coder-32B已成为当前最先进的开源代码大型语言模型,其编码能力与GPT-4o相匹配。此模型是1.5B参数的指令调优版本,采用GGUF格式,具有因果语言模型、预训练和后训练阶段、transformers架构等特点。
Qwen2.5-Coder系列中的0.5B参数代码生成模型
Qwen2.5-Coder是Qwen大型语言模型的最新系列,专注于代码生成、代码推理和代码修复。基于强大的Qwen2.5,该系列模型通过增加训练令牌至5.5万亿,包括源代码、文本代码基础、合成数据等,显著提升了编码能力。Qwen2.5-Coder-32B已成为当前最先进的开源代码大型语言模型,编码能力与GPT-4o相当。此外,Qwen2.5-Coder还为实际应用如代码代理提供了更全面的基础,不仅增强了编码能力,还保持了在数学和通用能力方面的优势。
Qwen2.5-Coder系列中的7B参数代码生成模型
Qwen2.5-Coder-7B是基于Qwen2.5的大型语言模型,专注于代码生成、代码推理和代码修复。它在5.5万亿的训练令牌上进行了扩展,包括源代码、文本代码接地、合成数据等,是目前开源代码语言模型的最新进展。该模型不仅在编程能力上与GPT-4o相匹配,还保持了在数学和一般能力上的优势,并支持长达128K令牌的长上下文。
Qwen2.5-Coder系列中的14B参数代码生成模型
Qwen2.5-Coder-14B-Instruct是Qwen2.5-Coder系列中的一个大型语言模型,专注于代码生成、代码推理和代码修复。基于强大的Qwen2.5,该模型通过扩展训练令牌到5.5万亿,包括源代码、文本代码接地、合成数据等,成为当前开源代码LLM的最新技术。它不仅增强了编码能力,还保持了在数学和通用能力方面的优势,并支持长达128K令牌的长上下文。
开源代码生成大型语言模型
Qwen2.5-Coder是一系列专为代码生成设计的Qwen大型语言模型,包含0.5、1.5、3、7、14、32亿参数的六种主流模型尺寸,以满足不同开发者的需求。该模型在代码生成、代码推理和代码修复方面有显著提升,基于强大的Qwen2.5,训练令牌扩展到5.5万亿,包括源代码、文本代码基础、合成数据等。Qwen2.5-Coder-32B是目前最先进的开源代码生成大型语言模型,其编码能力与GPT-4o相匹配。它不仅增强了编码能力,还保持了在数学和通用能力方面的优势,并支持长达128K令牌的长上下文。
© 2024 AIbase 备案号:闽ICP备08105208号-14