需求人群:
"UltraMedical模型适合生物医学领域的研究人员、医生和学生使用,因为它可以提供与考试、临床场景和研究问题相关的专业答案,同时具备广泛的通用知识基础,帮助他们更有效地处理跨领域的医学问题。"
使用场景示例:
医学考试中的问题解答。
临床场景下的专业咨询。
生物医学研究问题的专业分析。
产品特色:
构建大规模、高质量的生物医学指令数据集UltraMedical。
使用合成数据和人工数据混合以及偏好注释来增强数据多样性和复杂性。
采用先进的对齐技术,如监督微调(SFT)、直接偏好优化(DPO)和赔率比偏好优化(ORPO)。
提供不同规模的语言模型,包括7B级别和70B级别的模型。
在多个医学基准测试中取得了优异的平均结果。
计划在未来的研究中解决模型的局限性,如幻觉问题和潜在的偏见。
使用教程:
访问UltraMedical的GitHub页面以获取项目信息和资源。
阅读项目文档以了解模型的架构和功能。
下载或访问模型训练的数据集UltraMedical。
根据需要选择合适的语言模型规模进行实验或应用。
在生物医学问题上测试模型的性能和准确性。
根据反馈和结果调整模型的使用方式或参数。
浏览量:8
最新流量情况
月访问量
4.62m
平均访问时长
00:07:21
每次访问页数
6.60
跳出率
38.26%
流量来源
直接访问
51.51%
自然搜索
29.89%
邮件
0.83%
外链引荐
11.04%
社交媒体
6.68%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
15.78%
中国
14.70%
印度
9.07%
日本
3.91%
德国
3.32%
一款基于生物医学数据的8亿参数大型语言模型
Llama-3[8B] Meditron V1.0是一款专为生物医学领域设计的8亿参数的大型语言模型(LLM),在Meta发布Llama-3后24小时内完成微调。该模型在MedQA和MedMCQA等标准基准测试中超越了同参数级别的所有现有开放模型,并且接近70B参数级别医学领域领先的开放模型Llama-2[70B]-Meditron的性能。该工作展示了开放基础模型的创新潜力,是确保资源匮乏地区公平参与访问该技术更大倡议的一部分。
一款专为生物医学领域设计的开源大型语言模型
OpenBioLLM-8B是由Saama AI Labs开发的先进开源语言模型,专为生物医学领域设计。该模型在大量高质量的生物医学数据上进行了微调,能够理解并生成具有领域特定准确性和流畅性的文字。它在生物医学基准测试中的表现超越了其他类似规模的开源生物医学语言模型,并与更大的专有和开源模型如GPT-3.5和Meditron-70B相比也展现出更好的结果。
先进的开源生物医学大型语言模型,专为医疗领域设计。
OpenBioLLM-70B是由Saama AI Labs开发的先进开源语言模型,专为生物医学领域设计。该模型在大量高质量的生物医学数据上进行了微调,能够理解和生成具有领域特定准确性和流畅性的文字。它在生物医学基准测试中展示了超越其他类似规模开源生物医学语言模型的优越性能,并且在与更大的专有和开源模型如GPT-4、Gemini、Medtron-70B、Med-PaLM-1和Med-PaLM-2的比较中也展现了更好的结果。
跳到主要内容 Chrome 应用商店探索扩展程序
BenAI Research Assistant是一款基于人工智能的文献分析插件,用于增强生物医学研究。它可以帮助科学家更高效地阅读文献、快速发现证据,并提供工具来加快阅读速度。它支持决定是否阅读一篇文章、理解和发现文章的关键见解、回答科学问题、保持研究流程无需额外工具等主要功能。适用于学术界、制药和生物技术公司的科学家。
基于知识图谱的检索增强生成框架,赋能大型语言模型处理知识密集型任务
KG-RAG是一个任务无关的框架,它结合知识图谱的显性知识和大型语言模型的隐性知识。这里,我们利用一个巨大的生物医学知识图谱SPOKE作为生物医学上下文的提供者。KG-RAG的主要特征是它从SPOKE知识图谱中提取“与提示相关的上下文”,这被定义为响应用户提示所需的最小上下文。
视频超分辨率纹理增强技术
EvTexture是一种基于事件的视觉驱动的视频超分辨率(VSR)技术,它利用事件信号中的高频细节来更好地恢复VSR中的纹理区域。该技术首次提出使用事件信号进行纹理增强,通过迭代纹理增强模块逐步探索高时间分辨率的事件信息,实现纹理区域的逐步细化,从而获得更准确、丰富的高分辨率细节。在四个数据集上,EvTexture达到了最先进的性能,特别是在Vid4数据集上,与最近的基于事件的方法相比,可以获得高达4.67dB的增益。
大规模图像描述数据集,提供超过16M的合成图像描述。
PixelProse是一个由tomg-group-umd创建的大规模数据集,它利用先进的视觉-语言模型Gemini 1.0 Pro Vision生成了超过1600万个详细的图像描述。这个数据集对于开发和改进图像到文本的转换技术具有重要意义,可以用于图像描述生成、视觉问答等任务。
快速生成高质量图像的扩散模型
Flash Diffusion 是一种高效的图像生成模型,通过少步骤生成高质量的图像,适用于多种图像处理任务,如文本到图像、修复、超分辨率等。该模型在 COCO2014 和 COCO2017 数据集上达到了最先进的性能,同时训练时间少,参数数量少。
探索大型语言模型的偏好和价值观对齐。
prism-alignment 是一个由 HannahRoseKirk 创建的数据集,专注于研究大型语言模型(LLMs)的偏好和价值观对齐问题。数据集通过调查问卷和与语言模型的多轮对话,收集了来自不同国家和文化背景的参与者对模型回答的评分和反馈。这些数据对于理解和改进人工智能的价值观对齐至关重要。
70亿参数的多方面奖励模型
Llama3-70B-SteerLM-RM是一个70亿参数的语言模型,用作属性预测模型,一个多方面的奖励模型,它在多个方面对模型响应进行评分,而不是传统奖励模型中的单一分数。该模型使用HelpSteer2数据集训练,并通过NVIDIA NeMo-Aligner进行训练,这是一个可扩展的工具包,用于高效和高效的模型对齐。
评估图像生成模型在不同地理区域的质量、多样性和一致性。
DIG-In是一个用于评估文本到图像生成模型在不同地理区域中质量、多样性和一致性差异的库。它使用GeoDE和DollarStreet作为参考数据集,通过计算生成图像的相关特征和精度、覆盖度指标,以及使用CLIPScore指标来衡量模型的表现。该库支持研究人员和开发者对图像生成模型进行地理多样性的审计,以确保其在全球范围内的公平性和包容性。
数学作为黑箱的深度学习模型
MathBlackBox是一个深度学习模型,旨在探索数学问题解决的黑箱方法。它使用VLLM或其他OpenAI兼容的方法,通过Huggingface工具包和OpenAI进行推理,支持在Slurm环境下运行,并能够处理多种数据集。该项目目前处于早期阶段,需要充分测试后才能部署到实际产品中。
多语言视觉文本渲染的强有力美学基线
Glyph-ByT5-v2 是微软亚洲研究院推出的一个用于准确多语言视觉文本渲染的模型。它不仅支持10种不同语言的准确视觉文本渲染,而且在美学质量上也有显著提升。该模型通过创建高质量的多语言字形文本和平面设计数据集,构建多语言视觉段落基准,并利用最新的步态感知偏好学习方法来提高视觉美学质量。
一个用于训练高性能奖励模型的开源数据集。
HelpSteer2是由NVIDIA发布的一个开源数据集,旨在支持训练能够对齐模型以使其更加有帮助、事实正确和连贯,同时在响应的复杂性和冗余度方面具有可调节性。该数据集与Scale AI合作创建,当与Llama 3 70B基础模型一起使用时,在RewardBench上达到了88.8%的表现,是截至2024年6月12日最佳的奖励模型之一。
高效无限上下文语言模型的官方实现
Samba是一个简单而强大的混合模型,具有无限的上下文长度。它的架构非常简单:Samba = Mamba + MLP + 滑动窗口注意力 + 层级MLP堆叠。Samba-3.8B模型在Phi3数据集上训练了3.2万亿个token,主要基准测试(例如MMLU、GSM8K和HumanEval)上的表现大大超过了Phi3-mini。Samba还可以通过最少的指令调整实现完美的长上下文检索能力,同时保持与序列长度的线性复杂度。这使得Samba-3.8B-instruct在下游任务(如长上下文摘要)上表现出色。
开源视觉-语言-动作模型,推动机器人操作技术发展。
OpenVLA是一个具有7亿参数的开源视觉-语言-动作(VLA)模型,通过在Open X-Embodiment数据集上的970k机器人剧集进行预训练。该模型在通用机器人操作策略上设定了新的行业标准,支持开箱即用控制多个机器人,并且可以通过参数高效的微调快速适应新的机器人设置。OpenVLA的检查点和PyTorch训练流程完全开源,模型可以从HuggingFace下载并进行微调。
人工智能通用推理测试集
ARC-AGI是一个旨在测试人工智能系统是否具备类似人类一般流体智力的抽象和推理能力的数据集。它由400个训练任务和400个评估任务组成,每个任务都以JSON格式存储,包括输入输出对。该数据集可以作为人工智能基准测试、程序合成基准测试或心理测量智力测试。
表情包视觉标注数据集
emo-visual-data 是一个公开的表情包视觉标注数据集,它通过使用 glm-4v 和 step-free-api 项目完成的视觉标注,收集了5329个表情包。这个数据集可以用于训练和测试多模态大模型,对于理解图像内容和文本描述之间的关系具有重要意义。
先进的文本到图像AI模型,实现高质量图像生成。
Stable Diffusion 3 Medium是Stability AI迄今为止发布的最先进文本到图像生成模型。它具有2亿参数,提供出色的细节、色彩和光照效果,支持多种风格。模型对长文本和复杂提示的理解能力强,能够生成具有空间推理、构图元素、动作和风格的图像。此外,它还实现了前所未有的文本质量,减少了拼写、字距、字母形成和间距的错误。模型资源效率高,适合在标准消费级GPU上运行,且具备微调能力,可以吸收小数据集中的细微细节,非常适合定制化。
AI训练数据的搜索、整理和丰富工具
Source.Plus是一个专业的AI训练数据搜索平台,它允许用户通过高级搜索操作符来精确地搜索、筛选和整理所需的数据集。它支持多种数据来源,包括Wikimedia Commons、NMNH - Botany Dept.等,提供广泛的图像和文档资源。平台还具备文件上传功能,使用户能够进一步自定义和丰富自己的数据集。Source.Plus的主要优点包括其强大的搜索能力、数据来源的多样性以及对AI训练数据的特别优化。
文本到视频生成的创新模型,实现姿势引导的动画制作。
Follow-Your-Pose是一个文本到视频生成的模型,它利用姿势信息和文本描述来生成可编辑、可控制姿势的角色视频。这项技术在数字人物创作领域具有重要应用价值,解决了缺乏综合数据集和视频生成先验模型的限制。通过两阶段训练方案,结合预训练的文本到图像模型,实现了姿势可控的视频生成。
一种用于跨领域视频帧中对象匹配的通用模型。
MASA是一个用于视频帧中对象匹配的先进模型,它能够处理复杂场景中的多目标跟踪(MOT)。MASA不依赖于特定领域的标注视频数据集,而是通过Segment Anything Model(SAM)丰富的对象分割,学习实例级别的对应关系。MASA设计了一个通用适配器,可以与基础的分割或检测模型配合使用,实现零样本跟踪能力,即使在复杂领域中也能表现出色。
简化技术供应商选择流程的协作工具
Taloflow是一个旨在简化技术供应商选择流程的在线平台,它通过使用AI和专家协作工具,帮助企业在云数据库管理、数据集成、ERP、CRM等多个领域快速做出决策。平台提供超过10万个数据点,支持用户根据优先级筛选解决方案,评估供应商,并在一周内选出合适的解决方案。
用于评估模型零样本语音生成能力的测试集
seed-tts-eval 是一个用于评估模型零样本语音生成能力的测试集,它提供了一个跨领域目标的客观评估测试集,包含从英语和普通话公共语料库中提取的样本,用于衡量模型在各种客观指标上的表现。它使用了Common Voice数据集的1000个样本和DiDiSpeech-2数据集的2000个样本。
基于文本提示生成可变长度立体声音频的AI模型。
Stable Audio Open 1.0是一个利用自编码器、基于T5的文本嵌入和基于变压器的扩散模型来生成长达47秒的立体声音频的AI模型。它通过文本提示生成音乐和音频,支持研究和实验,以探索生成性AI模型的当前能力。该模型在Freesound和Free Music Archive (FMA)的数据集上进行训练,确保了数据的多样性和版权合法性。
新一代开源预训练模型,支持多轮对话和多语言。
GLM-4-9B-Chat-1M 是智谱 AI 推出的新一代预训练模型,属于 GLM-4 系列的开源版本。它在语义、数学、推理、代码和知识等多方面的数据集测评中展现出较高的性能。该模型不仅支持多轮对话,还具备网页浏览、代码执行、自定义工具调用和长文本推理等高级功能。支持包括日语、韩语、德语在内的26种语言,并特别推出了支持1M上下文长度的模型版本,适合需要处理大量数据和多语言环境的开发者和研究人员使用。
新一代开源预训练模型,支持多语言和高级功能
GLM-4-9B是智谱AI推出的新一代预训练模型,属于GLM-4系列中的开源版本。它在语义、数学、推理、代码和知识等多方面的数据集测评中表现优异,具备多轮对话、网页浏览、代码执行、自定义工具调用和长文本推理等高级功能。此外,还支持包括日语、韩语、德语在内的26种语言,并有支持1M上下文长度的模型版本。
代码生成任务的新型模型,测试准确率高于GPT-4 Turbo。
AutoCoder是一个专为代码生成任务设计的新型模型,其在HumanEval基准数据集上的测试准确率超过了GPT-4 Turbo(2024年4月)和GPT-4o。与之前的开源模型相比,AutoCoder提供了一个新功能:它可以自动安装所需的包,并在用户希望执行代码时尝试运行代码,直到确定没有问题。
© 2024 AIbase 备案号:闽ICP备08105208号-14