浏览量:0
最新流量情况
月访问量
32.14k
平均访问时长
00:01:35
每次访问页数
0.36
跳出率
86.59%
流量来源
直接访问
25.38%
自然搜索
74.49%
邮件
0
外链引荐
0.14%
社交媒体
0
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
13.51%
土耳其
3.66%
印度尼西亚
3.44%
越南
3.32%
俄罗斯
3.02%
电池数据平台
Byterat是一款为电池工程师打造的数据平台,利用机器学习来预测电池性能。通过实时同步循环数据、直接与实验室循环硬件集成、自动异常检测、实时预测电池退化等功能,帮助提高电池研发和生产的效率。
通过自然语言描述生成自动化流程和指令,提高企业生产力。
影刀AI是一款旨在通过自然语言处理技术,帮助用户快速生成自动化流程和指令的产品。它通过对话智能生成魔法指令,解决包括数据处理、Excel、列表、图片、文本、文件、逻辑等类型的问题。影刀AI实验室还提供了AI角色,允许用户在工作中扮演不同角色,完成各种任务。此外,影刀AI Power为企业提供了丰富的第三方AI服务组件,方便企业搭建、调试自有定制的AI服务。
提升大型语言模型解决数学问题的能力
ChatGLM-Math 是一个基于自我批评流程定制的数学问题解决模型,旨在提高大型语言模型(LLMs)在数学问题解决方面的能力。该模型通过训练一个通用的Math-Critique模型来提供反馈信号,并采用拒绝采样微调和直接偏好优化来增强LLM的数学问题解决能力。它在学术数据集和新创建的挑战性数据集MathUserEval上进行了实验,显示出在保持语言能力的同时,显著提升了数学问题解决能力。
一种用于图像和文本数据的先进机器学习模型,专注于数据质量和透明度。
MetaCLIP是一个开源的机器学习模型,用于图像和文本的联合表示学习。它通过一个简单算法对CLIP数据进行筛选,不依赖于先前模型的过滤,从而提高了数据的质量和透明度。MetaCLIP的主要贡献包括无过滤的数据筛选、透明的训练数据分布、可扩展的算法和标准化的CLIP训练设置。该模型强调数据质量的重要性,并提供预训练模型,以支持研究人员和开发者进行控制实验和公平比较。
一种用于增强身份保留文本到图像生成的反馈学习框架
ID-Aligner 是一种用于增强身份保留文本到图像生成的反馈学习框架,它通过奖励反馈学习来解决身份特征保持、生成图像的审美吸引力以及与LoRA和Adapter方法的兼容性问题。该方法利用面部检测和识别模型的反馈来提高生成的身份保留,并通过人类标注偏好数据和自动构建的反馈来提供审美调整信号。ID-Aligner 适用于LoRA和Adapter模型,通过广泛的实验验证了其有效性。
一种优化扩散模型采样时间表的方法,以提高生成模型的输出质量。
Align Your Steps 是一种用于优化扩散模型(Diffusion Models, DMs)采样时间表的方法。这种方法利用随机微积分的方法,为不同的求解器、训练有素的DMs和数据集找到特定的最优采样时间表。它通过最小化KLUB项来优化时间离散化,即采样调度,从而在相同的计算预算下提高输出质量。该方法在图像、视频以及2D玩具数据合成基准测试中表现出色,优化的采样时间表在几乎所有实验中都优于之前手工制定的时间表。
多模态知识图谱补全工具
MyGO是一个用于多模态知识图谱补全的工具,它通过将离散模态信息作为细粒度的标记来处理,以提高补全的准确性。MyGO利用transformers库对文本标记进行嵌入,进而在多模态数据集上进行训练和评估。它支持自定义数据集,并且提供了训练脚本以复现实验结果。
精准控制文本生成视频的相机姿态
CameraCtrl 致力于为文本生成视频模型提供精准相机姿态控制,通过训练相机编码器实现参数化相机轨迹,从而实现视频生成过程中的相机控制。产品通过综合研究各种数据集的效果,证明视频具有多样的相机分布和相似外观可以增强可控性和泛化能力。实验证明 CameraCtrl 在实现精确、领域自适应的相机控制方面非常有效,是从文本和相机姿态输入实现动态、定制视频叙事的重要进展。
Answer.AI是一个基于基础研究突破创建实用终端用户产品的新型AI研发实验室
Answer.AI致力于通过基础研究的突破来开发实用的终端用户产品。该实验室发布了一个开源系统,基于FSDP和QLoRA,允许用户在家中使用两个24GB GPU训练一个70亿参数的语言模型。此外,Answer.AI还发布了关于历史上最伟大的研发实验室的历史分析文章,以及对实验室的研究议程和背景的介绍。
Vision Arena是一个面向计算机视觉领域的开源模型测试平台
Vision Arena是一个由Hugging Face创建的开源平台,用于测试和比较不同的计算机视觉模型效果。它提供了一个友好的界面,允许用户上传图片并通过不同模型处理,从而直观地对比结果质量。平台预装了主流的图像分类、对象检测、语义分割等模型,也支持自定义模型。关键优势是开源免费,使用简单,支持多模型并行测试,有利于模型效果评估和选择。适用于计算机视觉研发人员、算法工程师等角色,可以加速计算机视觉模型的实验和调优。
开源语言模型和训练框架
OLMo是一个开源的语言模型和训练框架,由AI2研究院发布。它提供了完整的训练数据、代码、模型参数、评估代码等资源,使研究人员能够训练并实验大规模语言模型。OLMo的优势在于真正开放,用户可以访问从数据到模型的完整信息,辅以丰富的文档,便于研究人员进行开放式研究和协作。该框架降低了语言模型研究的门槛,使更多人参与进来推动语言模型技术进步。
零镜像分割框架
pix2gestalt是一个用于零镜像分割的框架,通过学习估计部分可见对象的整体形状和外观。利用大规模扩散模型,并将它们的表示转移到这一任务,学习用于在具有挑战性的零镜像情况下重建整个对象的条件扩散模型,包括打破自然和物理先验的艺术等例子。我们使用合成策划的数据集作为训练数据,其中包含遮挡对象及其完整对应物。实验证明,我们的方法在已建立的基准测试上优于监督基线。此外,我们的模型还可用于显著改善现有对象识别和三维重建方法在存在遮挡的情况下的性能。
多视角草图引导的文本到 3D 生成
Sketch2NeRF 是一种多视角草图引导的文本到 3D 生成框架。它通过预训练的 2D 扩散模型(如 Stable Diffusion 和 ControlNet)来优化由神经辐射场(NeRF)表示的 3D 场景。该方法还提出了一种新颖的同步生成和重建方法,以有效优化 NeRF。通过收集的两种多视角草图数据集进行实验评估,证明了我们的方法能够在高保真度的文本提示下合成具有精细草图控制的一致的 3D 内容。广泛的结果表明,我们的方法在草图相似性和文本对齐方面实现了最先进的性能。
基于LLM的文本到图像生成系统
DiffusionGPT是一种基于大型语言模型(LLM)的文本到图像生成系统。它利用扩散模型构建了针对各种生成模型的领域特定树,从而能够无缝地适应各种类型的提示并集成领域专家模型。此外,DiffusionGPT引入了优势数据库,其中的思维树得到了人类反馈的丰富,使模型选择过程与人类偏好保持一致。通过广泛的实验和比较,我们展示了DiffusionGPT的有效性,展示了它在不同领域推动图像合成边界的潜力。
提高LLM选择性预测能力的框架
ASPIRE是一个设计精良的框架,用于增强大型语言模型的选择性预测能力。它通过参数高效的微调训练LLM进行自我评估,使其能够针对生成的答案输出置信度分数。实验结果表明,ASPIRE在各种问答数据集上明显优于目前的选择性预测方法。
高效极限扩展大语言模型
E^2-LLM是一种高效极限扩展的大语言模型方法,通过仅需一次训练过程和大幅降低的计算成本,实现了对长上下文任务的有效支持。该方法采用了RoPE位置嵌入,并引入了两种不同的增强方法,旨在使模型在推理时更具鲁棒性。在多个基准数据集上的综合实验结果证明了E^2-LLM在挑战性长上下文任务上的有效性。
更好的文本到视频生成评价工具
该产品是一种用于评价文本到视频生成质量的工具。它引入了一种新的评价指标,即文本到视频评分(T2VScore)。该评分整合了两个关键标准:(1)文本-视频对齐,用于审查视频在呈现给定文本描述方面的忠实度;(2)视频质量,评估视频的整体制作水平。此外,为了评估提出的指标并促进未来对其的改进,该产品提供了TVGE数据集,收集了对2,543个文本到视频生成视频在这两个标准上的人类判断。对TVGE数据集的实验表明,提出的T2VScore在为文本到视频生成提供更好的评价指标方面表现出优越性。
表格理解中的推理链表
Chain-of-Table是一种表格理解的推理链表框架,专门用于处理基于表格的问答和事实验证等任务。它采用了表格数据作为推理链的一部分,通过在上下文中学习的方式指导大型语言模型进行操作生成和表格更新,从而形成一个连续的推理链,展示了给定表格问题的推理过程。这种推理链包含了中间结果的结构化信息,能够实现更准确可靠的预测。Chain-of-Table在WikiTQ、FeTaQA和TabFact等多个基准测试中取得了新的最先进性能。
交互式分割和识别模型
Open-Vocabulary SAM是一个基于SAM和CLIP的视觉基础模型,专注于交互式分割和识别任务。它通过SAM2CLIP和CLIP2SAM两个独特的知识传输模块,实现了SAM和CLIP的统一框架。在各种数据集和检测器上的广泛实验表明,Open-Vocabulary SAM在分割和识别任务中的有效性,明显优于简单组合SAM和CLIP的朴素基准。此外,结合图像分类数据训练,该方法可以分割和识别大约22,000个类别。
生成高质量逼真图像的文本到图像技术
Imagen 2 是我们最先进的文本到图像扩散技术,可生成与用户提示密切对齐且一致的高质量逼真图像。它通过使用训练数据的自然分布生成更加逼真的图像,而不是采用预先编程的风格。Imagen 2 强大的文本到图像技术通过 Google Cloud Vertex AI 的 Imagen API 为开发者和云客户提供支持。Google Arts and Culture 团队还在其文化标志实验中部署了我们的 Imagen 2 技术,使用户可以通过 Google AI 探索、学习和测试其文化知识。
定制数据,一次性运行多个提示
Wale 是一个定制数据的智能提示工具。它提供直观的界面,帮助用户在自定义数据集上构建提示。您可以导入 CSV 文件或使用 Wale 的电子表格编辑器创建数据。Wale 允许您调整参数,如温度和最大序列长度,以获得更准确、可靠、成本效益的提示。您还可以查看历史记录以跟踪提示的进展,并进行比较实验。通过 Wale,您可以更轻松地构建更好的提示。
数字化转型的研究解决方案
Labnote是一种完整的研究解决方案,通过将研究愿景与数字空间相连接,实现团队和功能的统一协作,助力科研成功。Labnote具备详细的材料库存管理、材料集成和追踪、可视化结构化实验流程等功能,帮助您实现高效的实验操作、优化协作、可靠的数据管理和分析。通过机器学习的力量,Labnote可以帮助预测实验结果,加速研究创新。
3D世界中的全能代理人
LEO是一个基于大型语言模型的多模态、多任务全能代理人,能够在3D世界中感知、定位、推理、规划和执行任务。LEO通过两个阶段的训练实现:(i)3D视觉语言对齐和(ii)3D视觉语言动作指令调整。我们精心策划和生成了一个包含物体级和场景级多模态任务的大规模数据集,需要对3D世界进行深入的理解和交互。通过严格的实验,我们展示了LEO在3D字幕、问答、推理、导航和机器人操作等广泛任务中的出色表现。
AI文本相机,应用滤镜,与朋友分享
Implai利用人工智能拍摄文本“照片”,然后对其应用滤镜。这是一个实验性的应用程序,可以让您以不同的角度看世界。您可以关注朋友、分享和评论。该应用程序的隐私做法可能包括处理以下数据:与您相关联的数据、用户内容、使用数据和诊断数据。Implai是免费的,适用于iPhone和iPod touch,需要iOS 12.0或更高版本。
360度全场景生成
ZeroNVS 是一款用于从单张真实图像进行零样本 360 度全景合成的工具。它提供了 3D SDS 蒸馏代码、评估代码和训练好的模型。用户可以使用该工具进行自己的 NeRF 模型蒸馏和评估,并且可以在各种不同的数据集上进行实验。ZeroNVS 具有高质量的合成效果,并且支持自定义的图像数据。该工具主要用于虚拟现实、增强现实和全景视频制作等领域。
无代码,自动化机器学习
Qlik AutoML是一款为分析团队提供无代码、自动化机器学习的工具。它能够快速生成模型、进行预测和决策规划。用户可以轻松创建机器学习实验,识别数据中的关键因素并训练模型。同时,它还支持完全可解释的AI,可以展示预测的原因和影响。用户可以将数据发布或直接集成到Qlik Sense应用中进行全交互式分析和模拟。
连接多个AI模型,轻松创建交互式网络
AI-Flow是一个开源、用户友好的UI应用程序,可创建具有不同AI模型的交互式网络。它可以方便地连接多个AI模型,以实现多角度响应各种提示的功能。AI-Flow支持通过编辑流程图的方式,设计定制化的AI网络。用户可以轻松地创建、保存和共享自己的AI网络,并通过改变初始输入来实验不同的输出结果。AI-Flow还支持从外部数据源获取内容,并可以用于生成内容或对生成的内容提供即时反馈。
AI驱动的市场调研
Roundtable是一款AI驱动的市场调研平台,可以使用先进的人工智能技术,快速模拟对话、调查和简单的实验。用户可以在几次点击之内,模拟与客户的交流,了解他们的意见和需求。同时,Roundtable还可以基于用户的数据构建AI模型,实时模拟新的调查问卷,并提供可信赖的结果,帮助用户更好地做出决策。
© 2024 AIbase 备案号:闽ICP备2023012347号-1