需求人群:
"忆我(ReMe)的目标受众主要是认知障碍患者,包括阿尔茨海默病、帕金森病、路易体痴呆、脑血管性认知障碍等患者。该产品适合他们,因为它提供了一个个性化和多模态的认知训练平台,能够根据每个患者的记忆类型和认知水平提供定制化的训练方案,有助于延缓认知功能的衰退,提高生活质量。"
使用场景示例:
患者通过忆我(ReMe)进行日常记忆训练,提高了记忆保持能力。
医生利用忆我(ReMe)为患者设计个性化的认知训练计划,取得了良好的治疗效果。
研究者使用忆我(ReMe)进行认知障碍的临床研究,验证了其在认知训练中的有效性。
产品特色:
支持文字、图像、语音等多种模态的输入输出,实现多模态交互。
提供个性化的认知训练方案,根据用户的记忆内容和认知水平进行定制。
通过手机或可穿戴设备上传个人记忆内容,便于用户参与训练。
内置认知游戏模板,便于医生和研究者快速创建个性化训练游戏。
包括交互式评估功能,追踪患者的认知水平并调整训练任务。
兼容并实现已被验证有效的成熟认知训练任务,如颜色识别和数学运算。
尝试通过传感器技术和可穿戴设备记录日常生活中的重要节点和事件。
使用教程:
1. 通过手机或可穿戴设备上传个人记忆内容。
2. 根据个人记忆内容和认知水平,选择或创建个性化的训练方案。
3. 利用忆我(ReMe)的多模态交互功能,进行认知训练。
4. 完成训练后,通过内置的交互式评估功能,追踪认知水平的变化。
5. 根据评估结果,调整训练方案,以适应患者的认知进步。
6. 医生和研究者可以利用忆我(ReMe)的模板,快速创建新的训练游戏。
7. 通过传感器技术和可穿戴设备,记录日常生活中的重要节点和事件,用于训练。
浏览量:149
个性化认知训练框架,助力认知障碍患者康复。
忆我(ReMe)是由微软亚洲研究院与上海市精神卫生中心联合开发的个性化认知训练框架,旨在为认知障碍患者提供个性化的认知训练。该框架基于微软Azure OpenAI服务,利用多模态大模型技术,通过文字、图像、语音等多种模态的输入输出,以对话机器人的形式为用户提供认知训练体验。忆我(ReMe)的创新之处在于其个性化和多模态交互能力,能够根据用户的记忆内容和认知水平,提供定制化的训练方案,从而提高训练的针对性和效果。
字节跳动自研大模型,提供多模态能力
豆包大模型是字节跳动推出的自研大模型,通过内部50+业务场景实践验证,每日万亿级tokens大使用量持续打磨,提供多模态能力,以优质模型效果为企业打造丰富的业务体验。产品家族包括多种模型,如通用模型、视频生成、文生图、图生图、同声传译等,满足不同业务需求。
一款支持多模态功能的全功能大语言模型安卓应用。
MNN 大模型 Android App 是阿里巴巴开发的一款基于大语言模型(LLM)的安卓应用。它支持多种模态输入和输出,包括文本生成、图像识别、音频转录等。该应用通过优化推理性能,确保在移动设备上高效运行,同时保护用户数据隐私,所有处理均在本地完成。它支持多种领先的模型提供商,如 Qwen、Gemma、Llama 等,适用于多种场景。
情商智商俱佳的多模态大模型
西湖大模型是心辰智能云推出的一款具有高情商和智商的多模态大模型,它能够处理包括文本、图像、声音等多种数据类型,为用户提供智能对话、写作、绘画、语音等AI服务。该模型通过先进的人工智能算法,能够理解和生成自然语言,适用于多种场景,如心理咨询、内容创作、客户服务等,具有高度的定制性和灵活性。西湖大模型的推出,标志着心辰智能云在AI领域的技术实力和创新能力,为用户提供了更加丰富和高效的智能服务体验。
文档理解的模块化多模态大语言模型
mPLUG-DocOwl 是一款用于文档理解的模块化多模态大语言模型,能够处理 OCR-free 文档理解任务。该模型具有出色的性能表现,支持文档视觉问答、信息问答、图表问答等多种任务。用户可以通过模型提供的在线演示来体验其强大功能。
大模型重塑千行百业
盘古大模型是华为云推出的人工智能解决方案,通过 NLP 大模型、CV 大模型、多模态大模型、预测大模型和科学计算大模型等多个模型,实现对话问答、图像识别、多模态处理、预测分析和科学计算等多种功能。盘古大模型具有高效适配、高效标注和准确可控的特点,可广泛应用于各行各业。详情请访问官方网址。
多模态大语言模型,提升多模态推理能力
InternVL2-8B-MPO是一个多模态大语言模型(MLLM),通过引入混合偏好优化(MPO)过程,增强了模型的多模态推理能力。该模型在数据方面设计了自动化的偏好数据构建管线,并构建了MMPR这一大规模多模态推理偏好数据集。在模型方面,InternVL2-8B-MPO基于InternVL2-8B初始化,并使用MMPR数据集进行微调,展现出更强的多模态推理能力,且幻觉现象更少。该模型在MathVista上取得了67.0%的准确率,超越InternVL2-8B 8.7个点,且表现接近于大10倍的InternVL2-76B。
基于大语言模型的个性化图像生成工具
MoMA Personalization 是一款基于开源 Multimodal Large Language Model (MLLM) 的个性化图像生成工具。它专注于主题驱动的个性化图像生成,可以根据参考图像和文本提示生成高质量、保留目标物体特征的图像。MoMA 不需要任何 fine-tuning,是一个插件式的模型,可以直接应用于现有的 diffusion 模型中,并在保留原模型性能的同时提高生成图像的细节和 prompt 忠实度。
几行代码接入大模型
智谱AI大模型开放平台是一个提供多种AI模型服务的平台,支持开发者和企业快速接入大模型API,构建变革性AI体验。平台提供GLM-4系列大模型,包括免费模型GLM-4-Flash、全自研最新版本GLM-4-Plus、支持200万上下文的GLM-4-Long等。此外,还提供多模态大模型,如视觉能力GLM-4V-Plus、文生图CogView-3-Plus、文生视频CogVideoX。平台面向开发者提供模型API、Alltools API、批处理API等服务,面向企业服务提供医疗健康、汽车、游戏娱乐、文旅、智能终端、智能制造、消费等行业解决方案。
多功能智能大模型
讯飞星火认知大模型是科大讯飞推出的新一代认知智能大模型,拥有跨领域的知识和语言理解能力,能够基于自然对话方式理解与执行任务。它具有语言理解、知识问答、逻辑推理、数学题解答、代码理解与编写等多种能力。该产品定位于为用户提供全面的语言理解与执行任务的解决方案。
第二代多模态预训练对话模型
CogVLM2是由清华大学团队开发的第二代多模态预训练对话模型,它在多个基准测试中取得了显著的改进,支持8K内容长度和1344*1344的图像分辨率。CogVLM2系列模型提供了支持中文和英文的开源版本,能够与一些非开源模型相媲美的性能。
个性化数字健身训练应用
Shred是一款提供个性化数字健身训练的应用程序,旨在帮助用户根据个人目标定制训练计划。它通过AI技术为用户提供个性化的健身指导,包括训练程序、视频课程和来自全球社区的激励。Shred还支持与Apple Healthkit集成,跟踪用户的步数、体重和水分摄入,以优化锻炼效果。
多模态文本到图像生成模型
EMMA是一个基于最前沿的文本到图像扩散模型ELLA构建的新型图像生成模型,能够接受多模态提示,通过创新的多模态特征连接器设计,有效整合文本和补充模态信息。该模型通过冻结原始T2I扩散模型的所有参数,并仅调整一些额外层,揭示了预训练的T2I扩散模型可以秘密接受多模态提示的有趣特性。EMMA易于适应不同的现有框架,是生成个性化和上下文感知图像甚至视频的灵活有效工具。
无需训练的扩散模型个性化定制
RB-Modulation是谷歌发布的一种基于随机最优控制的新型训练免费个性化扩散模型解决方案。它通过终端成本编码所需属性,实现风格和内容的精确提取与控制,无需额外训练,即可生成与参考图像风格一致且遵循给定文本提示的图像。该技术在无需训练的情况下,通过新颖的注意力特征聚合(AFA)模块,保持对参考图像的高保真度,并遵循给定的提示,具有重要的研究和应用价值。
全模态大模型,拥有更强的认知、理解、创作能力
紫东太初是中科院自动化所和武汉人工智能研究院推出的新一代大模型,支持多轮问答、文本创作、图像生成、3D理解、信号分析等全面问答任务,拥有更强的认知、理解、创作能力。具有广泛的应用场景,包括文本创作、知识问答、图文音理解、音乐生成、3D理解和信号分析等功能。产品定位于提供高质量的人工智能交互体验。
开源多模态预训练模型,具备中英双语对话能力。
GLM-4V-9B是智谱AI推出的新一代预训练模型,支持1120*1120高分辨率下的中英双语多轮对话,以及视觉理解能力。在多模态评测中,GLM-4V-9B展现出超越GPT-4-turbo-2024-04-09、Gemini 1.0 Pro、Qwen-VL-Max和Claude 3 Opus的卓越性能。
国产化大模型,支持多模态,快速低成本智能化转型。
岩芯数智是一家专注于人工智能领域的公司,提供多种智能模型服务,包括Yan模型和Dolphin模型。Yan模型是国产化的大模型,支持多模态,承诺为用户提供训练周期短、数据集需求小、性价比更高的服务,帮助各产业链快速、低成本向智能化转型。Dolphin模型则提供智能对话、文章生成、文案摘要等功能,支持私域模型微调,以满足不同行业的需求。
多模态大模型,赋能企业智能化转型。
西湖心辰是心辰智能云旗下的一款多模态大模型产品,它集成了先进的人工智能技术,包括自然语言处理、机器学习和数据挖掘等,旨在为企业提供全面的AI解决方案。西湖心辰通过其高情商、高智商的AI能力,帮助企业在客服、销售、人事、研发和运营等多个领域实现智能化升级,提升工作效率和服务质量。
TokenVerse 是一种基于预训练文本到图像扩散模型的多概念个性化方法。
TokenVerse 是一种创新的多概念个性化方法,它利用预训练的文本到图像扩散模型,能够从单张图像中解耦复杂的视觉元素和属性,并实现无缝的概念组合生成。这种方法突破了现有技术在概念类型或广度上的限制,支持多种概念,包括物体、配饰、材质、姿势和光照等。TokenVerse 的重要性在于其能够为图像生成领域带来更灵活、更个性化的解决方案,满足用户在不同场景下的多样化需求。目前,TokenVerse 的代码尚未公开,但其在个性化图像生成方面的潜力已经引起了广泛关注。
基于多模态大语言模型的可解释图像检测与定位
FakeShield是一个多模态框架,旨在解决图像检测和定位(IFDL)领域中的两个主要挑战:检测原理的黑箱性和在不同篡改方法间的有限泛化能力。FakeShield通过利用GPT-4o增强现有的IFDL数据集,创建了多模态篡改描述数据集(MMTD-Set),用于训练FakeShield的篡改分析能力。该框架包括领域标签引导的可解释检测模块(DTE-FDM)和定位模块(MFLM),能够处理各种类型的篡改检测解释,并实现由详细文本描述引导的定位。FakeShield在检测准确性和F1分数上优于其他方法,提供了一个可解释且优越的解决方案。
个性化马拉松训练计划
MyTrainingPlan是一个提供个性化马拉松和半程马拉松训练计划的网站。它通过AI技术根据用户在Strava上的活动历史和当前健康状况来创建定制的训练计划。用户可以轻松调整计划以适应变化,并与之前的训练周期进行比较,以保持动力。此外,网站还提供里程统计、配速计算器和比赛倒计时等工具,帮助用户更好地准备比赛。
VITA-1.5: 实时视觉和语音交互的GPT-4o级多模态大语言模型
VITA-1.5 是一款开源的多模态大语言模型,旨在实现接近实时的视觉和语音交互。它通过显著降低交互延迟和提升多模态性能,为用户提供更流畅的交互体验。该模型支持英语和中文,适用于多种应用场景,如图像识别、语音识别和自然语言处理等。其主要优点包括高效的语音处理能力和强大的多模态理解能力。
支持虚拟人口语教练等
网易有道 “子曰” 教育大模型是一款面向教育领域的大型模型,提供多个应用,包括 LLM 翻译、虚拟人口语教练、AI 作文指导、语法精讲、AI Box 以及文档问答。它具有强大的语言理解和生成能力,能够个性化分析与指导学生,通过人类反馈塑造性格和语言习惯,实现引导式学习。同时,它还能提供全学科和跨学科知识答疑支持。该产品将推出有道 AI 学习机 X20、网易有道词典笔新品等硬件设备,并且手机端也可以使用口语教练功能。
基于Linux环境快速部署开源大模型的教程
该项目是一个围绕开源大模型的全流程指导教程,包括环境配置、模型部署、高效微调等,简化开源大模型的使用和应用,让更多普通学习者能够使用开源大模型。项目面向对开源大模型感兴趣且想自主上手的学习者,提供详细的环境配置、模型部署和微调方法。
无需训练即可定制化生成个性化人像图像
MagicFace是一种无需训练即可实现个性化人像合成的技术,它能够根据给定的多个概念生成高保真度的人像图像。这项技术通过精确地将参考概念特征在像素级别集成到生成区域中,实现了多概念的个性化定制。MagicFace引入了粗到细的生成流程,包括语义布局构建和概念特征注入两个阶段,通过Reference-aware Self-Attention (RSA)和Region-grouped Blend Attention (RBA)机制实现。该技术不仅在人像合成和多概念人像定制方面表现出色,还可用于纹理转移,增强其多功能性和实用性。
多模态和多任务模型训练框架
4M是一个用于训练多模态和多任务模型的框架,能够处理多种视觉任务,并且能够进行多模态条件生成。该模型通过实验分析展示了其在视觉任务上的通用性和可扩展性,为多模态学习在视觉和其他领域的进一步探索奠定了基础。
大规模多模态预训练数据集
allenai/olmo-mix-1124数据集是由Hugging Face提供的一个大规模多模态预训练数据集,主要用于训练和优化自然语言处理模型。该数据集包含了大量的文本信息,覆盖了多种语言,并且可以用于各种文本生成任务。它的重要性在于提供了一个丰富的资源,使得研究人员和开发者能够训练出更加精准和高效的语言模型,进而推动自然语言处理技术的发展。
多模态语音大型语言模型
ultravox-v0_4_1-mistral-nemo是一个基于预训练的Mistral-Nemo-Instruct-2407和whisper-large-v3-turbo的多模态语音大型语言模型(LLM)。该模型能够同时处理语音和文本输入,例如,一个文本系统提示和一个语音用户消息。Ultravox通过特殊的<|audio|>伪标记将输入音频转换为嵌入,并生成输出文本。未来版本计划扩展标记词汇以支持生成语义和声学音频标记,进而可以输入到声码器中产生语音输出。该模型由Fixie.ai开发,采用MIT许可。
© 2025 AIbase 备案号:闽ICP备08105208号-14