需求人群:
"MedTrinity-25M主要面向医学图像处理和自然语言处理领域的研究人员和开发者。它提供了丰富的医学图像和文本数据,支持他们进行模型训练、算法测试和新方法的开发。"
使用场景示例:
研究人员使用MedTrinity-25M数据集训练了一个能够识别医学图像中病变的深度学习模型。
开发者利用该数据集开发了一个自动生成医学图像报告的系统。
教育机构使用MedTrinity-25M作为教学资源,帮助学生理解医学图像分析的复杂性。
产品特色:
数据提取:从收集的数据中提取关键信息,包括元数据整合以生成粗略的标题、感兴趣区域定位和医学知识收集。
多粒度文本描述生成:使用这些信息来提示大型语言模型生成细粒度的注释。
模型训练和评估:提供了模型训练和评估的脚本,支持在特定数据集上进行预训练和微调。
模型库:提供了多种预训练模型,如LLaVA-Med++,支持在特定医学图像分析任务上进行微调。
快速开始指南:提供了详细的安装和使用指南,帮助用户快速开始使用数据集。
论文发布:相关的研究成果已在arXiv上发布,提供了研究背景和方法的详细介绍。
社区支持:感谢多个研究和云计算项目的支持,为数据集的开发和研究提供了计算资源。
使用教程:
1. 访问GitHub页面,克隆MedTrinity-25M数据集到本地。
2. 根据快速开始指南安装必要的软件包和依赖。
3. 下载并安装基础模型LLaVA-Meta-Llama-3-8B-Instruct-FT-S2。
4. 按照提供的脚本进行模型的预训练和微调。
5. 使用评估脚本对训练好的模型进行性能评估。
6. 根据研究需求,利用数据集进行自定义的算法开发和测试。
浏览量:79
最新流量情况
月访问量
5.16m
平均访问时长
00:06:42
每次访问页数
5.81
跳出率
37.20%
流量来源
直接访问
52.27%
自然搜索
32.92%
邮件
0.05%
外链引荐
12.52%
社交媒体
2.15%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
11.99%
德国
3.63%
印度
9.20%
俄罗斯
5.25%
美国
19.02%
大规模多模态医学数据集
MedTrinity-25M是一个大规模多模态数据集,包含多粒度的医学注释。它由多位作者共同开发,旨在推动医学图像和文本处理领域的研究。数据集的构建包括数据提取、多粒度文本描述生成等步骤,支持多种医学图像分析任务,如视觉问答(VQA)、病理学图像分析等。
先进的多模态AI模型家族
Molmo是一个开放的、最先进的多模态AI模型家族,旨在通过学习指向其感知的内容,实现与物理和虚拟世界的丰富互动,为下一代应用程序提供行动和交互的能力。Molmo通过学习指向其感知的内容,实现了与物理和虚拟世界的丰富互动,为下一代应用程序提供行动和交互的能力。
多模态大型语言模型,支持图像和文本理解。
Pixtral-12b-240910是由Mistral AI团队发布的多模态大型语言模型,它能够处理和理解图像以及文本信息。该模型采用了先进的神经网络架构,能够通过图像和文本的结合输入,提供更加丰富和准确的输出结果。它在图像识别、自然语言处理和多模态交互方面展现出卓越的性能,对于需要图像和文本同时处理的应用场景具有重要意义。
情商智商俱佳的多模态大模型
西湖大模型是心辰智能云推出的一款具有高情商和智商的多模态大模型,它能够处理包括文本、图像、声音等多种数据类型,为用户提供智能对话、写作、绘画、语音等AI服务。该模型通过先进的人工智能算法,能够理解和生成自然语言,适用于多种场景,如心理咨询、内容创作、客户服务等,具有高度的定制性和灵活性。西湖大模型的推出,标志着心辰智能云在AI领域的技术实力和创新能力,为用户提供了更加丰富和高效的智能服务体验。
高效的检索增强生成研究工具包
FlashRAG是一个Python工具包,用于检索增强生成(RAG)研究的复现和开发。它包括32个预处理的基准RAG数据集和12种最先进的RAG算法。FlashRAG提供了一个广泛且可定制的框架,包括检索器、重排器、生成器和压缩器等RAG场景所需的基本组件,允许灵活组装复杂流程。此外,FlashRAG还提供了高效的预处理阶段和优化的执行,支持vLLM、FastChat等工具加速LLM推理和向量索引管理。
Google 一款轻量级、高效能的AI模型,专为大规模高频任务设计。
Gemini 1.5 Flash是Google DeepMind团队推出的最新AI模型,它通过'蒸馏'过程从更大的1.5 Pro模型中提炼出核心知识和技能,以更小、更高效的模型形式提供服务。该模型在多模态推理、长文本处理、聊天应用、图像和视频字幕生成、长文档和表格数据提取等方面表现出色。它的重要性在于为需要低延迟和低成本服务的应用提供了解决方案,同时保持了高质量的输出。
MNBVC是一个超大规模的中文语料集,对标chatGPT训练的40T数据
MNBVC(Massive Never-ending BT Vast Chinese corpus)是一个旨在为AI提供丰富中文语料的项目。它不仅包括主流文化内容,还涵盖了小众文化和网络用语。数据集包括新闻、作文、小说、书籍、杂志、论文、台词、帖子、wiki、古诗、歌词、商品介绍、笑话、糗事、聊天记录等多种形式的纯文本中文数据。
端到端MLLM,实现精准引用和定位
ml-ferret是一个端到端的机器学习语言模型(MLLM),能够接受各种形式的引用并响应性地在多模态环境中进行精准定位。它结合了混合区域表示和空间感知的视觉采样器,支持细粒度和开放词汇的引用和定位。此外,ml-ferret还包括GRIT数据集(约110万个样本)和Ferret-Bench评估基准。
模型和数据集的集合
Distil-Whisper是一个提供模型和数据集的平台,用户可以在该平台上访问各种预训练模型和数据集,并进行相关的应用和研究。该平台提供了丰富的模型和数据集资源,帮助用户快速开展自然语言处理和机器学习相关工作。
Qwen Turbo 1M Demo是一个由Qwen提供的Hugging Face空间。
Qwen Turbo 1M Demo是一个基于Hugging Face平台的人工智能模型演示。这个模型代表了自然语言处理技术的最新进展,特别是在中文文本理解和生成方面。它的重要性在于能够提供高效、准确的语言模型,以支持各种语言相关的应用,如机器翻译、文本摘要、问答系统等。Qwen Turbo 1M Demo以其较小的模型尺寸和快速的处理速度而受到青睐,适合需要快速部署和高效运行的场合。目前,该模型是免费试用的,具体价格和定位可能需要进一步的商业洽谈。
124B参数的多模态大型语言模型
Pixtral-Large-Instruct-2411是由Mistral AI研发的124B参数的大型多模态模型,基于Mistral Large 2构建,展现出前沿级别的图像理解能力。该模型不仅能够理解文档、图表和自然图像,同时保持了Mistral Large 2在文本理解方面的领先地位。它在MathVista、DocVQA、VQAv2等数据集上达到了最先进的性能,是科研和商业应用的强大工具。
Qwen2.5-Coder系列中的0.5B参数代码生成模型
Qwen2.5-Coder是Qwen大型语言模型的最新系列,专注于代码生成、代码推理和代码修复。基于强大的Qwen2.5,该系列模型通过增加训练令牌至5.5万亿,包括源代码、文本代码基础、合成数据等,显著提升了编码能力。Qwen2.5-Coder-32B已成为当前最先进的开源代码大型语言模型,编码能力与GPT-4o相当。此外,Qwen2.5-Coder还为实际应用如代码代理提供了更全面的基础,不仅增强了编码能力,还保持了在数学和通用能力方面的优势。
现代Python数据框库,专为人工智能设计。
DataChain是一个现代的Python数据框库,专为人工智能设计。它旨在将非结构化数据组织成数据集,并在本地机器上大规模处理数据。DataChain不抽象或隐藏AI模型和API调用,而是帮助将它们集成到后现代数据堆栈中。该产品以其高效性、易用性和强大的数据处理能力为主要优点,支持多种数据存储和处理方式,包括图像、视频、文本等多种数据类型,并且能够与PyTorch和TensorFlow等深度学习框架无缝对接。DataChain是开源的,遵循Apache-2.0许可协议,免费供用户使用。
一个实验性的文本到语音模型
OuteTTS是一个使用纯语言建模方法生成语音的实验性文本到语音模型。它的重要性在于能够通过先进的语言模型技术,将文本转换为自然听起来的语音,这对于语音合成、语音助手和自动配音等领域具有重要意义。该模型由OuteAI开发,提供了Hugging Face模型和GGUF模型的支持,并且可以通过接口进行语音克隆等高级功能。
生成任何3D和4D场景的先进框架
GenXD是一个专注于3D和4D场景生成的框架,它利用日常生活中常见的相机和物体运动来联合研究一般的3D和4D生成。由于社区缺乏大规模的4D数据,GenXD首先提出了一个数据策划流程,从视频中获取相机姿态和物体运动强度。基于此流程,GenXD引入了一个大规模的现实世界4D场景数据集:CamVid-30K。通过利用所有3D和4D数据,GenXD框架能够生成任何3D或4D场景。它提出了多视图-时间模块,这些模块分离相机和物体运动,无缝地从3D和4D数据中学习。此外,GenXD还采用了掩码潜在条件,以支持多种条件视图。GenXD能够生成遵循相机轨迹的视频以及可以提升到3D表示的一致3D视图。它在各种现实世界和合成数据集上进行了广泛的评估,展示了GenXD在3D和4D生成方面与以前方法相比的有效性和多功能性。
视觉语言模型,结合图像和文本信息进行智能处理。
Aquila-VL-2B模型是一个基于LLava-one-vision框架训练的视觉语言模型(VLM),选用Qwen2.5-1.5B-instruct模型作为语言模型(LLM),并使用siglip-so400m-patch14-384作为视觉塔。该模型在自建的Infinity-MM数据集上进行训练,包含约4000万图像-文本对。该数据集结合了从互联网收集的开源数据和使用开源VLM模型生成的合成指令数据。Aquila-VL-2B模型的开源,旨在推动多模态性能的发展,特别是在图像和文本的结合处理方面。
O1复制之旅:战略进展报告第一部分
O1-Journey是由上海交通大学GAIR研究组发起的一个项目,旨在复制和重新想象OpenAI的O1模型的能力。该项目提出了“旅程学习”的新训练范式,并构建了首个成功整合搜索和学习在数学推理中的模型。这个模型通过试错、纠正、回溯和反思等过程,成为处理复杂推理任务的有效方法。
自监督触觉表示,用于基于视觉的触觉传感。
Sparsh是一系列通过自监督算法(如MAE、DINO和JEPA)训练的通用触觉表示。它能够为DIGIT、Gelsight'17和Gelsight Mini生成有用的表示,并在TacBench提出的下游任务中大幅度超越端到端模型,同时能够为新下游任务的数据高效训练提供支持。Sparsh项目包含PyTorch实现、预训练模型和与Sparsh一起发布的数据集。
开发者可使用的Grok系列基础模型API
xAI API提供了对Grok系列基础模型的程序化访问,支持文本和图像输入,具有128,000个token的上下文长度,并支持函数调用和系统提示。该API与OpenAI和Anthropic的API完全兼容,简化了迁移过程。产品背景信息显示,xAI正在进行公共Beta测试,直至2024年底,期间每位用户每月可获得25美元的免费API积分。
多语言生成语言模型
Aya模型是一个大规模的多语言生成性语言模型,能够在101种语言中遵循指令。该模型在多种自动和人类评估中优于mT0和BLOOMZ,尽管它覆盖的语言数量是后者的两倍。Aya模型使用包括xP3x、Aya数据集、Aya集合、DataProvenance集合的一个子集和ShareGPT-Command等多个数据集进行训练,并在Apache-2.0许可下发布,以推动多语言技术的发展。
由CohereForAI开发的Hugging Face Space
Aya Expanse是一个由CohereForAI开发的Hugging Face Space,它可能涉及到机器学习模型的开发和应用。Hugging Face是一个专注于自然语言处理的人工智能平台,提供各种模型和工具,以帮助开发者构建、训练和部署NLP应用。Aya Expanse作为该平台上的一个Space,可能具有特定的功能或技术,用于支持开发者在NLP领域的工作。
开源的PDF到Podcast工作流构建工具
NotebookLlama是一个开源项目,旨在通过一系列教程和笔记本指导用户构建从PDF到Podcast的工作流。该项目涵盖了从文本预处理到使用文本到语音模型的整个流程,适合对大型语言模型(LLMs)、提示和音频模型零知识的用户。NotebookLlama的主要优点包括易用性、教育性和实验性,它不仅提供了一个参考实现,还鼓励用户通过实验不同的模型和提示来优化结果。
IBM Granite 3.0模型,高效能AI语言模型
IBM Granite 3.0模型是一系列高性能的AI语言模型,由IBM开发,并通过Ollama平台提供。这些模型在超过12万亿个token上进行训练,展示了在性能和速度上的显著提升。它们支持基于工具的用例,包括检索增强生成(RAG)、代码生成、翻译和错误修复。IBM Granite 3.0模型包括密集型模型和Mixture of Expert(MoE)模型,后者专为低延迟使用而设计,适合在设备上应用或需要即时推理的场景。
全球大语言模型资源汇总
awesome-LLM-resourses是一个汇总了全球大语言模型(LLM)资源的平台,提供了从数据获取、微调、推理、评估到实际应用等一系列资源和工具。它的重要性在于为研究人员和开发者提供了一个全面的资源库,以便于他们能够更高效地开发和优化自己的语言模型。该平台由王荣胜维护,持续更新,为LLM领域的发展提供了强有力的支持。
高效能小型语言模型
Zamba2-7B是由Zyphra团队开发的一款小型语言模型,它在7B规模上超越了当前领先的模型,如Mistral、Google的Gemma和Meta的Llama3系列,无论是在质量还是性能上。该模型专为在设备上和消费级GPU上运行以及需要强大但紧凑高效模型的众多企业应用而设计。Zamba2-7B的发布,展示了即使在7B规模上,前沿技术仍然可以被小团队和适度预算所触及和超越。
高性能的7B参数因果语言模型
tiiuae/falcon-mamba-7b是由TII UAE开发的高性能因果语言模型,基于Mamba架构,专为生成任务设计。该模型在多个基准测试中展现出色的表现,并且能够在不同的硬件配置上运行,支持多种精度设置,以适应不同的性能和资源需求。模型的训练使用了先进的3D并行策略和ZeRO优化技术,使其在大规模GPU集群上高效训练成为可能。
AIGC 应用快速构建平台
派欧算力云大模型 API 提供易于集成的各模态 API 服务,包括大语言模型、图像、音频、视频等,旨在帮助用户轻松构建专属的 AIGC 应用。该平台拥有丰富的模型资源,支持个性化需求的模型训练和托管,同时保证用户私有模型的保密性。它以高性价比、高吞吐量和高性能推理引擎为特点,适用于多种 AI 应用场景,如聊天机器人、总结摘要、小说生成器等。
小型语言模型调研、测量与洞察
SLM_Survey是一个专注于小型语言模型(SLMs)的研究项目,旨在通过调研和测量,提供对这些模型的深入了解和技术评估。该项目涵盖了基于Transformer的、仅解码器的语言模型,参数范围在100M至5B之间。通过对59个最先进的开源SLMs进行调研,分析了它们的技术创新,并在多个领域评估了它们的能力,包括常识推理、上下文学习、数学和编程。此外,还对它们的运行时成本进行了基准测试,包括推理延迟和内存占用。这些研究对于推动SLMs领域的研究具有重要价值。
© 2024 AIbase 备案号:闽ICP备08105208号-14