需求人群:
"该产品适合软件开发人员、研究人员和技术团队,特别是那些需要自动化软件改进和智能化开发支持的用户。Lingma SWE-GPT通过其强大的模型能力,能够帮助用户提高开发效率,减少错误率,提升软件质量。"
使用场景示例:
使用Lingma SWE-GPT进行代码自动生成,提升开发效率。
利用模型进行代码审查和修复,减少人为错误。
在教育环境中使用,帮助学生理解软件工程概念和实践。
产品特色:
提供智能化的代码生成和修复建议。
支持复杂的软件工程任务的自动化处理。
基于软件工程开发过程数据进行训练,提升模型的专业性。
在SWE-bench排行榜上取得了优异的解决率和故障定位成功率。
支持多种开发环境的集成与部署。
提供详细的使用文档和示例,方便开发者快速上手。
支持虚拟环境配置,简化模型的安装与使用流程。
可通过API进行调用,方便与现有系统集成。
使用教程:
访问产品页面并克隆代码库:`git clone https://github.com/LingmaTongyi/SWESynInfer.git`。
进入项目目录并创建虚拟环境:`cd SWESynInfer`,`conda env create -f environment.yml`。
激活虚拟环境:`conda activate swesyninfer`。
设置模型路径并运行测试脚本:`python scripts/1_change_testbed_path.py YOUR_ABSOLUTE_PATH/SWESynInfer/SWE-bench/repos/testbed`。
启动API服务器并调用模型进行推理。
浏览量:10
最新流量情况
月访问量
5.16m
平均访问时长
00:06:42
每次访问页数
5.81
跳出率
37.20%
流量来源
直接访问
52.27%
自然搜索
32.92%
邮件
0.05%
外链引荐
12.52%
社交媒体
2.15%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
11.99%
德国
3.63%
印度
9.20%
俄罗斯
5.25%
美国
19.02%
专为软件改进设计的开源大型语言模型。
Lingma SWE-GPT是一个开源的大型语言模型,专注于软件工程领域的任务,旨在提供智能化的开发支持。该模型基于Qwen系列基础模型,经过额外训练以增强其在复杂软件工程任务中的能力。它在软件工程智能代理的权威排行榜上表现出色,适合需要自动化软件改进的开发团队和研究人员。
一个完全开源的大型语言模型,提供先进的自然语言处理能力。
MAP-NEO是一个完全开源的大型语言模型,它包括预训练数据、数据处理管道(Matrix)、预训练脚本和对齐代码。该模型从零开始训练,使用了4.5T的英文和中文token,展现出与LLaMA2 7B相当的性能。MAP-NEO在推理、数学和编码等具有挑战性的任务中表现出色,超越了同等规模的模型。为了研究目的,我们致力于实现LLM训练过程的完全透明度,因此我们全面发布了MAP-NEO,包括最终和中间检查点、自训练的分词器、预训练语料库以及高效稳定的优化预训练代码库。
下一代本地优先的大型语言模型(LLMs)
anime.gf 是由 moecorp 发起的下一代本地优先的大型语言模型(LLMs),目前正处于积极开发阶段。它代表了一种新兴的本地化和开源的人工智能技术,旨在提供更高效、更个性化的用户体验。
泰勒AI帮助您的工程师训练模型。
Taylor AI是一个平台,可以使您的工程团队在不需要设置GPU和解密复杂库的情况下训练语言模型。它允许您按照自己的条件训练和部署开源语言模型,让您拥有完全的控制权和数据隐私。使用Taylor AI,您可以摆脱按标记付费的定价方式,自由地部署和与您的AI模型交互。它简化了训练和优化语言模型的过程,让您的团队可以专注于构建和迭代。Taylor AI始终跟上最新的开源模型,确保您可以使用最先进的语言模型进行训练。根据您独特的合规和安全标准安全地部署您的模型。
开源 13B 大规模语言模型
百川 - 13B 是由百川智能开发的开源可商用的大规模语言模型,参数量达到 130 亿,训练数据量达到 1.4 万亿 tokens。该模型支持中英双语,具有高质量的预测和对话能力。模型支持量化部署和 CPU 推理,并在多个基准测试中取得优秀结果。可以广泛应用于自然语言处理领域的任务,如问答系统、对话系统、文本生成等。
开源 AI 语言模型
Llama 2 是我们的下一代开源大型语言模型,提供免费的研究和商业使用。它具有强大的功能和性能,通过与外部合作伙伴和内部团队的测试,不断提升安全性和性能。Llama 2 支持广泛的使用场景,是解决难题和推动创新的理想选择。
人类中心语言模型和模拟器的领导者
Nous Research专注于开发以人为中心的语言模型和模拟器,致力于将AI系统与现实世界用户体验对齐。我们的主要研究领域包括模型架构、数据合成、微调和推理。我们优先开发开源、人类兼容的模型,挑战传统的封闭模型方法。
开源的网页自动化库,支持任何大型语言模型(LLM)
browser-use是一个开源的网页自动化库,允许大型语言模型(LLM)与网站进行交互,通过简单的接口实现复杂的网页操作。该技术的主要优点包括对多种语言模型的通用支持、交互元素自动检测、多标签页管理、XPath提取、视觉模型支持等。它解决了传统网页自动化中的一些痛点,如动态内容处理、长任务解决等。browser-use以其灵活性和易用性,为开发者提供了一个强大的工具,以构建更加智能和自动化的网页交互体验。
业界领先的开源大型混合专家模型
Tencent-Hunyuan-Large(混元大模型)是由腾讯推出的业界领先的开源大型混合专家(MoE)模型,拥有3890亿总参数和520亿激活参数。该模型在自然语言处理、计算机视觉和科学任务等领域取得了显著进展,特别是在处理长上下文输入和提升长上下文任务处理能力方面表现出色。混元大模型的开源,旨在激发更多研究者的创新灵感,共同推动AI技术的进步和应用。
开源人工智能定义,推动AI领域的开放与合作
Open Source AI Definition(OSAID)是由Open Source Initiative(OSI)发布的行业首个开源人工智能定义。它提供了一个标准,通过社区领导的开放和公共评估来验证一个AI系统是否可以被认为是开源AI。OSAID v1.0的发布是多年研究和合作的结果,经过国际研讨会和为期一年的共同设计过程。这个定义要求开源模型提供足够的训练数据信息,以便熟练的人可以使用相同或类似的数据重建一个大致等效的系统。OSAID的发布对于推动AI领域的开放性、透明度和合作具有重要意义,它强调了开源原则在AI发展中的核心地位,并为独立机器学习研究人员和大型AI开发者之间的透明度提供了支持。
超轻量级数字人模型,移动端实时运行
Ultralight-Digital-Human是一个超轻量级的数字人模型,可以在移动端实时运行。这个模型是开源的,据开发者所知,它是第一个如此轻量级的开源数字人模型。该模型的主要优点包括轻量级设计,适合移动端部署,以及实时运行的能力。它的背后是深度学习技术,特别是在人脸合成和声音模拟方面的应用,这使得数字人模型能够以较低的资源消耗实现高质量的表现。产品目前是免费的,主要面向技术爱好者和开发者。
全栈开源机器人
智元灵犀X1是一款开源人形机器人,具有29个关节和2个夹爪,支持扩展头部3自由度。它提供了详细的开发指南和开源代码,使开发者能够快速搭建并进行二次开发。该产品代表了智能机器人领域的先进技术,具有高度的灵活性和可扩展性,适用于教育、研究和商业开发等多种场景。
开源视频生成模型
genmoai/models 是一个开源的视频生成模型,代表了视频生成技术的最新进展。该模型名为 Mochi 1,是一个基于 Asymmetric Diffusion Transformer (AsymmDiT) 架构的10亿参数扩散模型,从零开始训练,是迄今为止公开发布的最大的视频生成模型。它具有高保真运动和强提示遵循性,显著缩小了封闭和开放视频生成系统之间的差距。该模型在 Apache 2.0 许可下发布,用户可以在 Genmo 的 playground 上免费试用此模型。
多模态语言模型,融合文本和语音
Spirit LM是一个基础多模态语言模型,能够自由混合文本和语音。该模型基于一个7B预训练的文本语言模型,通过持续在文本和语音单元上训练来扩展到语音模式。语音和文本序列被串联为单个令牌流,并使用一个小的自动策划的语音-文本平行语料库,采用词级交错方法进行训练。Spirit LM有两个版本:基础版使用语音音素单元(HuBERT),而表达版除了音素单元外,还使用音高和风格单元来模拟表达性。对于两个版本,文本都使用子词BPE令牌进行编码。该模型不仅展现了文本模型的语义能力,还展现了语音模型的表达能力。此外,我们展示了Spirit LM能够在少量样本的情况下跨模态学习新任务(例如ASR、TTS、语音分类)。
行业领先的面部操作平台
FaceFusion Labs 是一个专注于面部操作的领先平台,它利用先进的技术来实现面部特征的融合和操作。该平台主要优点包括高精度的面部识别和融合能力,以及对开发者友好的API接口。FaceFusion Labs 背景信息显示,它在2024年10月15日进行了初始提交,由Henry Ruhs主导开发。产品定位为开源项目,鼓励社区贡献和协作。
高效能小型语言模型
Zamba2-7B是由Zyphra团队开发的一款小型语言模型,它在7B规模上超越了当前领先的模型,如Mistral、Google的Gemma和Meta的Llama3系列,无论是在质量还是性能上。该模型专为在设备上和消费级GPU上运行以及需要强大但紧凑高效模型的众多企业应用而设计。Zamba2-7B的发布,展示了即使在7B规模上,前沿技术仍然可以被小团队和适度预算所触及和超越。
与您的PDF文件进行对话
PDFtoChat是一个允许用户与PDF文件进行对话的平台。它通过AI技术分析PDF内容,让用户能够以提问的方式获取信息,极大地提高了处理文档的效率。该产品背景信息显示,它是由Together AI和Mixtral提供支持的,并且是开源的,源代码可在GitHub上找到。PDFtoChat的主要优点包括免费使用、易于上手、能够处理复杂的文档内容,并且支持开源社区的贡献。
AI在医学领域的初步研究
o1 in Medicine是一个专注于医学领域的人工智能模型,旨在通过先进的语言模型技术,提升医学数据的处理能力和诊断准确性。该模型由UC Santa Cruz、University of Edinburgh和National Institutes of Health的研究人员共同开发,通过在多个医学数据集上的测试,展示了其在医学领域的应用潜力。o1模型的主要优点包括高准确率、多语言支持以及对复杂医学问题的深入理解能力。该模型的开发背景是基于当前医疗领域对于高效、准确的数据处理和分析的需求,尤其是在诊断和治疗建议方面。目前,该模型的研究和应用还处于初步阶段,但其在医学教育和临床实践中的应用前景广阔。
将任何PDF转换为播客集!
Open NotebookLM是一个利用开源语言模型和文本到语音模型的工具,它可以处理PDF内容,生成适合音频播客的自然对话,并将其输出为MP3文件。该项目的灵感来自于NotebookLM工具,通过使用开源的大型语言模型(LLMs)和文本到语音模型来实现。它不仅提高了信息的可访问性,还为内容创作者提供了一种新的媒体形式,使他们能够将书面内容转换为音频格式,扩大其受众范围。
加速模型评估和微调的智能评估工具
SFR-Judge 是 Salesforce AI Research 推出的一系列评估模型,旨在通过人工智能技术加速大型语言模型(LLMs)的评估和微调过程。这些模型能够执行多种评估任务,包括成对比较、单项评分和二元分类,同时提供解释,避免黑箱问题。SFR-Judge 在多个基准测试中表现优异,证明了其在评估模型输出和指导微调方面的有效性。
可视化和透明的开源ChatGPT替代品
Show-Me是一个开源应用程序,旨在提供传统大型语言模型(如ChatGPT)交互的可视化和透明替代方案。它通过将复杂问题分解成一系列推理子任务,使用户能够理解语言模型的逐步思考过程。该应用程序使用LangChain与语言模型交互,并通过动态图形界面可视化推理过程。
前沿级多模态大型语言模型,实现视觉-语言任务的先进性能。
NVLM 1.0是一系列前沿级的多模态大型语言模型(LLMs),在视觉-语言任务上取得了与领先专有模型和开放访问模型相媲美的先进成果。值得注意的是,NVLM 1.0在多模态训练后,其文本性能甚至超过了其LLM主干模型。我们为社区开源了模型权重和代码。
高效编码的开源大型语言模型
Yi-Coder是一系列开源的代码大型语言模型(LLMs),在少于100亿参数的情况下提供最先进的编码性能。它有两种尺寸—1.5B和9B参数—提供基础和聊天版本,旨在高效推理和灵活训练。Yi-Coder-9B在GitHub的代码库级别代码语料库和从CommonCrawl筛选的代码相关数据上,额外训练了2.4万亿高质量token。Yi-Coder在多种编程任务中表现出色,包括基础和竞技编程、代码编辑和仓库级完成、长上下文理解以及数学推理。
一个用于与ChatGPT模型交互的提示集合
Awesome ChatGPT Prompts是一个开源仓库,收集了用于与ChatGPT模型交互的提示示例。这个仓库鼓励用户添加自己的提示,并使用ChatGPT生成新的提示。
RWKV v6 Finch 14B,开源大模型,高效处理长文本。
RWKV v6 Finch 14B是RWKV架构的第六个版本,也是该系列中最大的模型。它通过引入数据依赖性到token shift和time-mixing中,提高了处理长文本时的效率。Finch 14B模型在处理提示时,能够更好地管理其长期记忆,从而提供更广泛的应用范围。该模型是开源的,由Linux Foundation认可,并且接受社区的GPU集群时间捐赠以支持训练。
先进的小型语言模型,专为设备端应用设计。
Zamba2-mini是由Zyphra Technologies Inc.发布的小型语言模型,专为设备端应用设计。它在保持极小的内存占用(<700MB)的同时,实现了与更大模型相媲美的评估分数和性能。该模型采用了4bit量化技术,具有7倍参数下降的同时保持相同性能的特点。Zamba2-mini在推理效率上表现出色,与Phi3-3.8B等更大模型相比,具有更快的首令牌生成时间、更低的内存开销和更低的生成延迟。此外,该模型的权重已开源发布(Apache 2.0),允许研究人员、开发者和公司利用其能力,推动高效基础模型的边界。
小型语言模型,提供高准确度的AI能力。
Mistral-NeMo-Minitron 8B是由NVIDIA发布的小型语言模型,它是Mistral NeMo 12B模型的精简版,能够在保持高准确度的同时,提供计算效率,使其能够在GPU加速的数据中心、云和工作站上运行。该模型通过NVIDIA NeMo平台进行定制开发,结合了剪枝和蒸馏两种AI优化方法,以降低计算成本的同时提供与原始模型相当的准确度。
通过街霸3对战评估大型语言模型
llm-colosseum是一个创新的基准测试工具,它使用街霸3游戏来评估大型语言模型(LLM)的实时决策能力。与传统的基准测试不同,这个工具通过模拟实际游戏场景来测试模型的快速反应、智能策略、创新思维、适应性和恢复力。
© 2024 AIbase 备案号:闽ICP备08105208号-14