浏览量:152
最新流量情况
月访问量
7580
平均访问时长
00:00:13
每次访问页数
1.72
跳出率
47.26%
流量来源
直接访问
41.21%
自然搜索
45.37%
邮件
0.08%
外链引荐
7.14%
社交媒体
5.58%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
加拿大
6.51%
德国
5.87%
印度尼西亚
13.39%
印度
12.74%
美国
57.34%
生成合成数据,训练和对齐模型的工具
DataDreamer是一个强大的开源Python库,用于提示、生成合成数据和训练工作流。它旨在简单易用,极其高效,且具有研究级质量。DataDreamer支持创建提示工作流、生成合成数据集、对齐模型、微调模型、指令调优模型和模型蒸馏。它具有简单、研究级、高效、可复现的特点,并简化了数据集和模型的共享。
构建计算机视觉应用的全方位AI视觉平台
Datature是一个全方位的AI视觉平台,帮助团队和企业快速构建计算机视觉应用,无需编码。它提供了管理数据集、标注、训练和部署的功能。Datature的主要功能包括数据集管理、数据标注工具、模型训练、模型部署等。其优势在于提供了一站式解决方案,让团队和企业能够高效地开发和部署计算机视觉应用。定价方面,请访问官方网站获取详细信息。
一个全面的Prompt Engineering技术资源库
Prompt Engineering是人工智能领域的前沿技术,它改变了我们与AI技术的交互方式。这个开源项目旨在为初学者和经验丰富的实践者提供一个学习、构建和分享Prompt Engineering技术的平台。该项目包含了从基础到高级的各种示例,旨在促进Prompt Engineering领域的学习、实验和创新。此外,它还鼓励社区成员分享自己的创新技术,共同推动Prompt Engineering技术的发展。
多模态大型语言模型的优化与分析
MM1.5是一系列多模态大型语言模型(MLLMs),旨在增强文本丰富的图像理解、视觉指代表明和接地以及多图像推理的能力。该模型基于MM1架构,采用以数据为中心的模型训练方法,系统地探索了整个模型训练生命周期中不同数据混合的影响。MM1.5模型从1B到30B参数不等,包括密集型和混合专家(MoE)变体,并通过广泛的实证研究和消融研究,提供了详细的训练过程和决策见解,为未来MLLM开发研究提供了宝贵的指导。
一个全面的生成式AI代理开发和实现资源库
GenAI_Agents是一个开源的、面向生成式AI代理开发和实现的资源库。它提供了从基础到高级的教程和实现,旨在帮助开发者学习、构建和分享生成式AI代理。这个资源库不仅适合初学者,也适合经验丰富的从业者,通过提供丰富的示例和文档,促进学习和创新。
全栈式虚拟人多场景应用服务
讯飞虚拟人利用最新的AI虚拟形象技术,结合语音识别、语义理解、语音合成、NLP、星火大模型等AI核心技术,提供虚拟人形象资产构建、AI驱动、多模态交互的多场景虚拟人产品服务。一站式虚拟人音视频内容生产,AIGC助力创作灵活高效;在虚拟'AI演播室'中输入文本或录音,一键完成音、视频作品的输出,3分钟内渲染出稿。
一种用于文本到图像扩散模型的概念擦除技术
RECE是一种文本到图像扩散模型的概念擦除技术,它通过在模型训练过程中引入正则化项来实现对特定概念的可靠和高效擦除。这项技术对于提高图像生成模型的安全性和控制性具有重要意义,特别是在需要避免生成不适当内容的场景中。RECE技术的主要优点包括高效率、高可靠性和易于集成到现有模型中。
简洁的FLUX LoRA训练UI,支持低VRAM配置。
Flux Gym是一个为FLUX LoRA模型训练设计的简洁Web UI,特别适合只有12GB、16GB或20GB VRAM的设备使用。它结合了AI-Toolkit项目的易用性和Kohya Scripts的灵活性,使得用户无需复杂的终端操作即可进行模型训练。Flux Gym支持用户通过简单的界面上传图片和添加描述,然后启动训练过程。
本地部署的AI语音工具箱,支持语音识别、转录和转换。
Easy Voice Toolkit是一个基于开源语音项目的AI语音工具箱,提供包括语音模型训练在内的多种自动化音频工具。该工具箱能够无缝集成,形成完整的工作流程,用户可以根据需要选择性使用这些工具,或按顺序使用,逐步将原始音频文件转换为理想的语音模型。
AI艺术创作与模型分享平台
Civita Green是一个面向AI爱好者、艺术家和开发者的社区平台,提供AI模型训练、图像和视频创作、以及艺术作品分享。平台支持用户创建、分享和使用各种AI模型,推动AI艺术创作的发展。
革命性的检索增强生成系统技术集合。
RAG_Techniques 是一个专注于检索增强生成(Retrieval-Augmented Generation, RAG)系统的技术集合,旨在提升系统的准确性、效率和上下文丰富性。它提供了一个前沿技术的中心,通过社区贡献和协作环境,推动RAG技术的发展和创新。
专业的数据解决方案提供商
博登智能自主研发的数据标注处理平台——BASE(Boden Annotation Service Enhancement),具有超强适用性,可完成从数据采集、清洗、标注到验证的全套服务。BASE平台覆盖了包括语音、文本、图像、视频、点云等多种模态类型的数据处理能力,通过AI辅助标注的形式,相较于传统的标注方式,帮助企业节省了高达30%-40%的成本,并提升50%以上的效率,已经获得了市场的广泛认可。 数据处理平台——BASE平台能够支持开展包括通用图像标注,3D/4D点云标注,图片点云融合标注,NLP文本标注,医疗影像标注,视频描述标注,音素标注,音频标注等标注业务。
AI脚本集合,主要用于Stable Diffusion模型。
ai-toolkit是一个研究性质的GitHub仓库,由Ostris创建,主要用于Stable Diffusion模型的实验和训练。它包含了各种AI脚本,支持模型训练、图像生成、LoRA提取器等。该工具包仍在开发中,可能存在不稳定性,但提供了丰富的功能和高度的自定义性。
前端标注组件库,支持多种数据标注方式。
labelU-Kit 是一个开源的前端标注组件库,提供图片、视频和音频的标注功能,支持2D框、点、线、多边形、立体框等多种标注方式。它以NPM包的形式提供,方便开发者集成到自己的标注平台中,提高数据标注的效率和灵活性。
开源数据标注工具,提升机器学习模型性能。
LabelU是一个开源的数据标注工具,适用于需要对图像、视频、音频等数据进行高效标注的场景,以提升机器学习模型的性能和质量。它支持多种标注类型,包括标签分类、文本描述、拉框等,满足不同场景的标注需求。
7.8亿参数的双语生成模型
EXAONE-3.0-7.8B-Instruct是LG AI Research开发的一款具有7.8亿参数的双语(英语和韩语)预训练生成模型。模型通过8T的精选token进行预训练,并经过监督式微调和直接偏好优化进行后训练,展现出与同类大小的开放模型相比极具竞争力的基准性能。
深度学习模型训练脚本集
x-flux是由XLabs AI团队发布的深度学习模型训练脚本集,包括LoRA和ControlNet模型。这些模型使用DeepSpeed进行训练,支持512x512和1024x1024图片尺寸,并且提供了相应的训练配置文件和示例。x-flux模型训练旨在提高图像生成的质量和效率,对于AI图像生成领域具有重要意义。
多语言对话生成模型
Meta Llama 3.1系列模型是一套预训练和指令调整的多语言大型语言模型(LLMs),包含8B、70B和405B三种规模的模型,专为多语言对话使用案例优化,性能优于许多开源和闭源聊天模型。
AI数学奥林匹克解决方案
这个GitHub仓库包含了训练和推理代码,用于复制我们在AI数学奥林匹克(AIMO)进展奖1中的获胜解决方案。我们的解决方案由四个主要部分组成:一个用于微调DeepSeekMath-Base 7B以使用工具集成推理(TIR)解决数学问题的配方;两个约100万个数学问题和解决方案的高质量训练数据集;一个自洽解码算法,用于生成具有代码执行反馈的解决方案候选项(SC-TIR);四个来自AMC、AIME和MATH的精心选择的验证集,以指导模型选择并避免对公共排行榜的过拟合。
构建和训练大型语言模型的综合框架
DataComp-LM (DCLM) 是一个为构建和训练大型语言模型(LLMs)而设计的综合性框架,提供了标准化的语料库、基于open_lm框架的高效预训练配方,以及超过50种评估方法。DCLM 支持研究人员在不同的计算规模上实验不同的数据集构建策略,从411M到7B参数模型。DCLM 通过优化的数据集设计显著提高了模型性能,并且已经促成了多个高质量数据集的创建,这些数据集在不同规模上表现优异,超越了所有开放数据集。
依托AI与NLP的文本自动查错与智能纠错系统。
无忧智能审核系统是一款基于大数据、人工智能(AI)和自然语言处理技术(NLP)的文本自动查错与智能纠错系统。它通过深度学习能够全面校对多种文本错误类型,有效提升人工检校效率,消除审校盲区,提升内容安全和文本质量。系统支持多种部署方式,包括嵌入版、整站审核和接口版,能够满足不同行业和场景的需求。
AI开发规模化的民主化平台
Prime Intellect是一个致力于AI开发规模化民主化的平台,提供全球计算资源的发现、模型训练以及共同拥有智能创新的能力。它通过分布式训练跨集群,使得用户能够训练最前沿的模型,并且共同拥有由此产生的开放AI创新成果,包括语言模型和科学突破。
全切片基础模型,用于从真实世界数据中进行数字病理学分析。
Prov-GigaPath是一个用于数字病理学研究的全切片基础模型,它通过真实世界数据进行训练,旨在支持AI研究人员在病理学基础模型和数字病理幻灯片数据编码方面的研究。该模型由多位作者共同开发,并在Nature期刊上发表。它不适用于临床护理或任何临床决策制定目的,仅限于研究使用。
专为数据标注、清洗和丰富设计的先进语言模型
Refuel LLM-2 是一款为数据标注、清洗和丰富而设计的先进语言模型。它在约30种数据标注任务的基准测试中超越了所有现有的最先进语言模型,包括GPT-4-Turbo、Claude-3-Opus和Gemini-1.5-Pro。Refuel LLM-2 旨在提高数据团队的工作效率,减少在数据清洗、规范化、标注等前期工作上的手动劳动,从而更快地实现数据的商业价值。
低代码生成AI应用程序的生成性AI RAG工具包。
create-tsi是一个生成性AI RAG(Retrieval-Augmented Generation)工具包,用于低代码生成AI应用程序。它利用LlamaIndex和T-Systems在Open Telekom Cloud上托管的大型语言模型(LLMs),简化了AI应用程序的创建过程,使其变得快捷、灵活。用户可以使用create-tsi生成聊天机器人、编写代理并针对特定用例进行定制。
构建定制的大型语言模型(LLM)以增强聊天机器人的能力。
ChatRTX 是 NVIDIA 提供的一个用于构建定制大型语言模型(LLM)的平台,旨在提升聊天机器人的智能水平和交互能力。它利用先进的 AI 技术,通过理解自然语言处理(NLP)来提供更加人性化的对话体验。ChatRTX 的主要优点包括高度的可定制性、强大的语言理解能力和高效的交互设计,适合需要高级对话系统的各种商业应用。
CoreNet 是一个用于训练深度神经网络的库。
CoreNet 是一个深度神经网络工具包,使研究人员和工程师能够训练标准和新颖的小型和大型规模模型,用于各种任务,包括基础模型(例如 CLIP 和 LLM)、对象分类、对象检测和语义分割。
© 2024 AIbase 备案号:闽ICP备08105208号-14