需求人群:
"聊天机器人、自动问答、文本摘要、语言翻译等各种要求语言理解和生成的任务"
使用场景示例:
将Miqu 1-70b fine-tuning后应用于客户服务聊天机器人,可自动回复用户问题
使用Miqu 1-70b生成高质量的文本摘要
Miqu 1-70b可通过迁移学习适应不同的下游NLP任务
产品特色:
语言理解
文本生成
多任务学习
知识问答
浏览量:287
最新流量情况
月访问量
23904.81k
平均访问时长
00:04:51
每次访问页数
5.82
跳出率
43.33%
流量来源
直接访问
48.28%
自然搜索
35.88%
邮件
0.03%
外链引荐
12.71%
社交媒体
3.06%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.77%
印度
8.48%
日本
3.85%
俄罗斯
4.86%
美国
17.58%
自监督学习框架,用于音视觉语音处理
AV-HuBERT是一个自监督表示学习框架,专门用于音视觉语音处理。它在LRS3音视觉语音基准测试中实现了最先进的唇读、自动语音识别(ASR)和音视觉语音识别结果。该框架通过掩蔽多模态聚类预测来学习音视觉语音表示,并且提供了鲁棒的自监督音视觉语音识别。
Miqu 1-70b是一个开源的大规模语言模型
Miqu 1-70b是一个开源大规模语言模型,采用了新颖的自我监督学习方法,可以处理各种自然语言任务。该模型参数量达170亿,支持多种prompt格式,可fine-tuning生成高质量的文本。其强大的理解和生成能力,使其可广泛应用于聊天机器人、文本摘要、问答系统等领域。
一种自监督的视听特征对齐模型。
DenseAV是一种新颖的双编码器定位架构,通过观看视频学习高分辨率、语义有意义的视听对齐特征。它能够无需明确定位监督即可发现单词的“意义”和声音的“位置”,并且自动发现并区分这两种关联类型。DenseAV的定位能力来自于一种新的多头特征聚合操作符,它直接比较密集的图像和音频表示进行对比学习。此外,DenseAV在语义分割任务上显著超越了先前的艺术水平,并且在使用参数少于一半的情况下,在跨模态检索上超越了ImageBind。
构建无代码监督学习模型
Supervised AI是一个无代码AI开发平台,可帮助用户构建监督学习模型。利用OpenAI的GPT引擎,结合用户的数据,构建高准确性的AI模型。用户可以使用Supervised API将AI模型集成到任何地方。
自监督触觉表示,用于基于视觉的触觉传感。
Sparsh是一系列通过自监督算法(如MAE、DINO和JEPA)训练的通用触觉表示。它能够为DIGIT、Gelsight'17和Gelsight Mini生成有用的表示,并在TacBench提出的下游任务中大幅度超越端到端模型,同时能够为新下游任务的数据高效训练提供支持。Sparsh项目包含PyTorch实现、预训练模型和与Sparsh一起发布的数据集。
一种基于潜在扩散模型的自监督层次化化妆迁移技术
SHMT是一种自监督的层次化化妆迁移技术,通过潜在扩散模型实现。该技术能够在不需要显式标注的情况下,将一种面部妆容自然地迁移到另一种面部上。其主要优点在于能够处理复杂的面部特征和表情变化,提供高质量的迁移效果。该技术在NeurIPS 2024上被接受,展示了其在图像处理领域的创新性和实用性。
学习模型间字符串关系,检查视觉世界
这篇论文系统评估了大型语言模型(LLMs)生成和识别逐渐复杂的视觉概念的能力,并展示了如何使用文本模型训练初步的视觉表示学习系统。虽然语言模型不能直接处理像素级的视觉信息,但使用代码表示图像进行研究。LLM 生成的图像虽然不像自然图像,但在图像生成和纠正方面的结果表明,准确建模字符串可以教会语言模型许多关于视觉世界的方面。此外,利用文本模型生成的图像进行自监督视觉表示学习的实验,突出了只使用 LLMs 就能训练能够对自然图像进行语义评估的视觉模型的潜力。
基于 Transformer 的图像识别模型
Google Vision Transformer 是一款基于 Transformer 编码器的图像识别模型,使用大规模图像数据进行预训练,可用于图像分类等任务。该模型在 ImageNet-21k 数据集上进行了预训练,并在 ImageNet 数据集上进行了微调,具备良好的图像特征提取能力。该模型通过将图像切分为固定大小的图像块,并线性嵌入这些图像块来处理图像数据。同时,模型在输入序列前添加了位置编码,以便在 Transformer 编码器中处理序列数据。用户可以通过在预训练的编码器之上添加线性层进行图像分类等任务。Google Vision Transformer 的优势在于其强大的图像特征学习能力和广泛的适用性。该模型免费提供使用。
1.58-bit量化的先进文本到图像生成模型
1.58-bit FLUX是一种先进的文本到图像生成模型,通过使用1.58位权重(即{-1, 0, +1}中的值)来量化FLUX.1-dev模型,同时保持生成1024x1024图像的可比性能。该方法无需访问图像数据,完全依赖于FLUX.1-dev模型的自监督。此外,开发了一种定制的内核,优化了1.58位操作,实现了模型存储减少7.7倍,推理内存减少5.1倍,并改善了推理延迟。在GenEval和T2I Compbench基准测试中的广泛评估表明,1.58-bit FLUX在保持生成质量的同时显著提高了计算效率。
深入理解Transformer模型的可视化工具
Transformer Explainer是一个致力于帮助用户深入理解Transformer模型的在线可视化工具。它通过图形化的方式展示了Transformer模型的各个组件,包括自注意力机制、前馈网络等,让用户能够直观地看到数据在模型中的流动和处理过程。该工具对于教育和研究领域具有重要意义,可以帮助学生和研究人员更好地理解自然语言处理领域的先进技术。
生成高质量中文方言语音的大规模文本到语音模型。
Bailing-TTS是由Giant Network的AI Lab开发的大型文本到语音(TTS)模型系列,专注于生成高质量的中文方言语音。该模型采用持续的半监督学习和特定的Transformer架构,通过多阶段训练过程,有效对齐文本和语音标记,实现中文方言的高质量语音合成。Bailing-TTS在实验中展现出接近人类自然表达的语音合成效果,对于方言语音合成领域具有重要意义。
视频编辑中的手-物交互意识
HOI-Swap是一个基于扩散模型的视频编辑框架,专注于处理视频编辑中手与物体交互的复杂性。该模型通过自监督训练,能够在单帧中实现物体交换,并学习根据物体属性变化调整手的交互模式,如手的抓握方式。第二阶段将单帧编辑扩展到整个视频序列,通过运动对齐和视频生成,实现高质量的视频编辑。
将静态肖像和输入音频转化为生动的动画对话视频
AniTalker是一个创新的框架,它能够从单一的肖像生成逼真的对话面部动画。它通过两个自监督学习策略增强了动作表现力,同时通过度量学习开发了一个身份编码器,有效减少了对标记数据的需求。AniTalker不仅能够创建详细且逼真的面部动作,还强调了其在现实世界应用中制作动态头像的潜力。
基于Transformer的作者表示学习模型
LLNL/LUAR是一个基于Transformer的模型,用于学习作者表示,主要用于作者验证的跨领域迁移研究。该模型在EMNLP 2021论文中被介绍,研究了在一个领域学习的作者表示是否能迁移到另一个领域。模型的主要优点包括能够处理大规模数据集,并在多个不同的领域(如亚马逊评论、同人小说短篇故事和Reddit评论)中进行零样本迁移。产品背景信息包括其在跨领域作者验证领域的创新性研究,以及在自然语言处理领域的应用潜力。该产品是开源的,遵循Apache-2.0许可协议,可以免费使用。
零样本图像编辑,一键模仿参考图像风格
MimicBrush是一种创新的图像编辑模型,它允许用户通过指定源图像中的编辑区域和提供一张野外参考图像来实现零样本图像编辑。该模型能够自动捕捉两者之间的语义对应关系,并一次性完成编辑。MimicBrush的开发基于扩散先验,通过自监督学习捕捉不同图像间的语义关系,实验证明其在多种测试案例下的有效性及优越性。
视频到声音的同步生成系统
Video-Foley是一个创新的视频到声音生成系统,它通过使用均方根(RMS)作为时间事件条件,结合语义音色提示(音频或文本),实现高控制性和同步性的视频声音合成。该系统采用无需标注的自监督学习框架,包括Video2RMS和RMS2Sound两个阶段,结合了RMS离散化和RMS-ControlNet等新颖概念,与预训练的文本到音频模型相结合。Video-Foley在声音时间、强度、音色和细节的音视频对齐和控制性方面达到了最先进的性能。
从零开始学习深度学习,实现GPT模型
zero_to_gpt是一个旨在帮助用户从零基础学习深度学习,并最终实现训练自己的GPT模型的教程。随着人工智能技术走出实验室并广泛应用于各行各业,社会对于能够理解并应用AI技术的人才需求日益增长。本教程结合理论与实践,通过解决实际问题(如天气预测、语言翻译等)来深入讲解深度学习的理论基础,如梯度下降和反向传播。课程内容从基础的神经网络架构和训练方法开始,逐步深入到复杂主题,如变换器、GPU编程和分布式训练。
OpenAI推出的最新语言模型GPT-4.5,专注于提升无监督学习能力,提供更自然的交互体验。
GPT-4.5是OpenAI发布的最新语言模型,代表了当前无监督学习技术的前沿水平。该模型通过大规模计算和数据训练,提升了对世界知识的理解和模式识别能力,减少了幻觉现象,能够更自然地与人类进行交互。它在写作、编程、解决问题等任务上表现出色,尤其适合需要高创造力和情感理解的场景。GPT-4.5目前处于研究预览阶段,面向Pro用户和开发者开放,旨在探索其潜在能力。
视听源分离系统
PixelPlayer是一个能够通过观看大量无标注视频学会定位产生声音的图像区域并分离输入声音成一组表示每个像素声音的组件的系统。我们的方法利用视觉和听觉双模态的自然同步特点,在不需要额外人工标注的情况下学习联合解析声音和图像的模型。该系统使用大量包含不同乐器组合独奏和二重奏演奏的训练视频进行训练。对每个视频没有提供出现了哪些乐器、它们在哪里以及它们是什么声音的监督。在测试阶段,系统的输入是一个展示不同乐器演奏的视频和单声道听觉输入。系统执行音频视觉源分离和定位,将输入声音信号分离成N个声音通道,每个通道对应不同的乐器类别。此外,系统可以定位声音并为输入视频中的每个像素分配不同的音频波形。
大规模训练 Transformer 模型的持续研究
Megatron-LM 是由 NVIDIA 应用深度学习研究团队开发的一种强大的大规模 Transformer 模型。该产品用于大规模训练 Transformer 语言模型的持续研究。我们使用混合精度,高效的模型并行和数据并行,以及多节点的 Transformer 模型(如 GPT、BERT 和 T5)的预训练。
高效创作自媒体内容,卓越成果由AI助手提供支持
GPT AI Flow是一款专为自媒体内容创作者量身打造的AI助手工具。它融合了GPT大语言模型的强大功能,可以助力内容创作的方方面面,包括构思主题、撰写草稿、优化语言、分析受众反馈,以及提升内容在搜索引擎的曝光率。无论您是新手博主还是经验丰富的自媒体大V,GPT AI Flow都能成为您得力的创作助手,帮助您高效创作出高质量的内容。
为 Diffusion Transformer 提供高效灵活的控制框架。
EasyControl 是一个为 Diffusion Transformer(扩散变换器)提供高效灵活控制的框架,旨在解决当前 DiT 生态系统中存在的效率瓶颈和模型适应性不足等问题。其主要优点包括:支持多种条件组合、提高生成灵活性和推理效率。该产品是基于最新研究成果开发的,适合在图像生成、风格转换等领域使用。
Masked Diffusion Transformer是图像合成的最新技术,为ICCV 2023的SOTA(State of the Art)
MDT通过引入掩码潜在模型方案来显式增强扩散概率模型(DPMs)在图像中对象部分之间关系学习的能力。MDT在训练期间在潜在空间中操作,掩蔽某些标记,然后设计一个不对称的扩散变换器来从未掩蔽的标记中预测掩蔽的标记,同时保持扩散生成过程。MDTv2进一步通过更有效的宏网络结构和训练策略提高了MDT的性能。
自托管的网页数据抓取工具
Scraperr是一个自托管的网页数据抓取工具,允许用户通过指定XPath来抓取网页上的元素。用户可以提交URL和相应的元素进行抓取,结果会以表格形式展示,并支持下载为Excel文件。该工具的主要优点包括用户友好的界面、灵活的XPath选择器、批量处理能力以及对AI技术的支持。Scraperr适用于需要从网页上提取大量数据的用户,无论是研究人员、开发者还是市场营销人员。
提高大学生自学效率和质量的智能学习助手
夸克App推出的AI学习助手基于自研大模型,通过智能化的解题思路和讲解方式,提升大学生自学效率和质量。采用夸克宝宝的虚拟形象进行题目讲解,提供“考点分析”“详解步骤”“答案总结”等详细内容。并通过夸克网盘实现学习资料备份和使用,以及夸克扫描王提取核心复习内容。覆盖英语等学科的选择题、填空题、阅读题等常考题型,后续将加入数学等学科。
解释视频Transformer决策过程的概念发现
这篇论文研究了视频Transformer表示的概念解释问题。具体而言,我们试图解释基于高级时空概念的视频Transformer的决策过程,这些概念是自动发现的。以往关于基于概念的可解释性的研究仅集中在图像级任务上。相比之下,视频模型处理了额外的时间维度,增加了复杂性,并在识别随时间变化的动态概念方面提出了挑战。在这项工作中,我们通过引入第一个视频Transformer概念发现(VTCD)算法系统地解决了这些挑战。为此,我们提出了一种有效的无监督视频Transformer表示单元(概念)识别方法,并对它们在模型输出中的重要性进行排名。所得的概念具有很高的可解释性,揭示了非结构化视频模型中的时空推理机制和以对象为中心的表示。通过在多样的监督和自监督表示上联合进行这种分析,我们发现其中一些机制在视频Transformer中是普遍的。最后,我们证明VTCD可以用于改善精细任务的模型性能。
GPT Store - 为您挑选的最佳GPT
GPT Store是一个为用户提供手动挑选的最佳GPT(生成对抗网络)的在线商店。它为用户提供各种用途的GPT,包括写作、编程、数据分析、教育等领域。GPT Store的GPT经过精心挑选,确保质量和性能。用户可以浏览和购买适合自己需求的GPT。
通过模仿学习实现手术任务的机器人
Surgical Robot Transformer 是一种通过模仿学习在达芬奇机器人上执行手术操作任务的模型。该模型通过相对动作公式克服了达芬奇系统的前向运动学不准确的问题,使得机器人能够成功地训练和部署政策。这种方法的一个显著优势是可以直接利用包含近似运动学的大量临床数据进行机器人学习,而无需进一步校正。该模型展示了在执行三个基本手术任务(包括组织操作、针头处理和结扎)方面的成功。
实现增强物体跟踪的Transformer模型
CoTracker是一个基于Transformer的模型,可以在视频序列中联合跟踪稠密点。它与大多数现有的状态最先进的方法不同,后者独立跟踪点,而忽略了它们之间的相关性。我们展示了联合跟踪可以显著提高跟踪精度和鲁棒性。我们还提供了若干技术创新,包括虚拟轨迹的概念,这使CoTracker可以联合跟踪7万个点。此外,CoTracker因果地操作在短时间窗口上(因此适合在线任务),但通过在更长的视频序列上展开窗口进行训练,这使并显著改进了长期跟踪。我们展示了定性印象深刻的跟踪结果,其中点甚至在遮挡或离开视野时也可以跟踪很长时间。从定量上看,CoTracker在标准基准测试上优于所有最近的跟踪器,通常优势显著。
© 2025 AIbase 备案号:闽ICP备08105208号-14