浏览量:219
最新流量情况
月访问量
5.16m
平均访问时长
00:06:42
每次访问页数
5.81
跳出率
37.20%
流量来源
直接访问
52.27%
自然搜索
32.92%
邮件
0.05%
外链引荐
12.52%
社交媒体
2.15%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
11.99%
德国
3.63%
印度
9.20%
俄罗斯
5.25%
美国
19.02%
一个千万级3D形状模型
Make-A-Shape是一个新的3D生成模型,旨在以高效的方式训练大规模数据,能够利用1000万个公开可用的形状。我们创新性地引入了小波树表示法,通过制定子带系数滤波方案来紧凑地编码形状,然后通过设计子带系数打包方案将表示布置在低分辨率网格中,使其可生成扩散模型。此外,我们还提出了子带自适应训练策略,使我们的模型能够有效地学习生成粗细小波系数。最后,我们将我们的框架扩展为受额外输入条件控制,以使其能够从各种模态生成形状,例如单/多视图图像、点云和低分辨率体素。在大量实验中,我们展示了无条件生成、形状完成和条件生成等各种应用。我们的方法不仅在提供高质量结果方面超越了现有技术水平,而且在几秒内高效生成形状,通常在大多数条件下仅需2秒钟。
在线工具,将AI文本转换为类人内容,绕过AI检测器。
UndetectableGPT.ai是一个在线工具,旨在将AI生成的文本转换成类人的写作风格,使其无法被AI检测器如GPTZero和ZeroGPT识别。这项技术的重要性在于它能够帮助用户保持内容的真实性,同时避免被AI检测器标记为机器生成。产品背景信息显示,该工具适用于需要让AI文本不可检测的各种写作任务,包括文章、博客、产品描述和社交媒体更新。UndetectableGPT.ai提供免费服务,定位于需要绕过AI检测器的用户群体。
盲图像恢复技术,利用即时生成参考图像恢复破损图像
InstantIR是一种基于扩散模型的盲图像恢复方法,能够在测试时处理未知退化问题,提高模型的泛化能力。该技术通过动态调整生成条件,在推理过程中生成参考图像,从而提供稳健的生成条件。InstantIR的主要优点包括:能够恢复极端退化的图像细节,提供逼真的纹理,并且通过文本描述调节生成参考,实现创造性的图像恢复。该技术由北京大学、InstantX团队和香港中文大学的研究人员共同开发,得到了HuggingFace和fal.ai的赞助支持。
在浏览器中直接运行的AI工具箱
Browser AI Kit是一个集成了多种AI工具的平台,用户可以在浏览器中直接使用这些工具,无需安装或设置。它提供了音频转文本、去除背景、文本转语音等多种功能,并且完全免费。这个工具箱基于Transformers.js开发,强调数据安全和隐私保护,所有数据处理都在本地进行,不上传任何服务器。它的目标是为用户提供一个便捷、安全、多功能的AI工具平台。
长文本问答增强型检索生成模型
LongRAG是一个基于大型语言模型(LLM)的双视角、鲁棒的检索增强型生成系统范式,旨在增强对复杂长文本知识的理解和检索能力。该模型特别适用于长文本问答(LCQA),能够处理全局信息和事实细节。产品背景信息显示,LongRAG通过结合检索和生成技术,提升了对长文本问答任务的性能,特别是在需要多跳推理的场景中。该模型是开源的,可以免费使用,主要面向研究者和开发者。
基于文本生成图像的多模态扩散变换器模型
Stable Diffusion 3.5 Medium是一个基于文本到图像的生成模型,由Stability AI开发,具有改进的图像质量、排版、复杂提示理解和资源效率。该模型使用了三个固定的预训练文本编码器,通过QK-规范化提高训练稳定性,并在前12个变换层中引入双注意力块。它在多分辨率图像生成、一致性和各种文本到图像任务的适应性方面表现出色。
连续时间一致性模型的简化、稳定与扩展
OpenAI 提出的连续时间一致性模型(sCM)是一种生成模型,它在生成高质量样本时,只需要两个采样步骤,与领先的扩散模型相比,具有显著的速度优势。sCM 通过简化理论公式,稳定并扩展了大规模数据集的训练,使得在保持样本质量的同时,大幅减少了采样时间,为实时应用提供了可能性。
高效能的文本到图像生成模型
Stable Diffusion 3.5 Large Turbo 是一个基于文本生成图像的多模态扩散变换器(MMDiT)模型,采用了对抗性扩散蒸馏(ADD)技术,提高了图像质量、排版、复杂提示理解和资源效率,特别注重减少推理步骤。该模型在生成图像方面表现出色,能够理解和生成复杂的文本提示,适用于多种图像生成场景。它在Hugging Face平台上发布,遵循Stability Community License,适合研究、非商业用途以及年收入少于100万美元的组织或个人免费使用。
一键将各种文本格式转换为自然发音的有声读物。
QuickPiperAudiobook是一款能够将PDF、epub、txt、mobi、djvu、HTML、docx等多种文本格式转换为有声读物的桌面客户端软件。它使用piper模型支持多种语言,所有转换过程完全离线进行,保护用户隐私。该软件特别适合需要将文本内容快速转换为音频格式的用户,例如视障人士、喜欢听书的用户或需要学习外语的用户。
使用文本生成音乐的模型
FluxMusic是一个基于PyTorch实现的文本到音乐生成模型,它通过扩散式修正流变换器探索了一种简单的文本到音乐生成方法。这个模型可以生成根据文本提示的音乐片段,具有创新性和高度的技术复杂性。它代表了音乐生成领域的前沿技术,为音乐创作提供了新的可能。
智能提取网页核心内容,一键转换为文本。
Url to Text Converter是一个利用人工智能技术,从网页中提取主要相关内容并转换为文本的在线工具。它通过AI技术识别并提取网页上的核心信息,支持JavaScript渲染,使用住宅IP地址以帮助绕过某些限制,从而提供更准确和全面的内容提取服务。
ViPer是一种个性化方法,通过要求用户对几张图片发表评论,解释他们的喜好和不喜好,提取个人偏好。这些偏好指导文本到图像模型生成符合个人口味的图像。
ViPer是一种个性化生成模型,可以根据用户的视觉偏好生成符合个人口味的图像。该模型使用了稳定扩散XL技术,可以在保持图像质量的同时实现个性化生成。ViPer的主要优点是可以为用户提供个性化的图像生成服务,满足用户的个性化需求。
实时文本转换和标记可视化的强大浏览器扩展
Parseltongue 是一款功能强大的浏览器扩展,支持文本转换和实时标记可视化。它支持包括 leetspeak、二进制、base64 等多种格式,非常适合开发者、语言学家和普通用户即时增强文本提示。
视频到音频生成模型,增强同步性
MaskVAT是一种视频到音频(V2A)生成模型,它利用视频的视觉特征来生成与场景匹配的逼真声音。该模型特别强调声音的起始点与视觉动作的同步性,以避免不自然的同步问题。MaskVAT结合了全频带高质量通用音频编解码器和序列到序列的遮蔽生成模型,能够在保证高音频质量、语义匹配和时间同步性的同时,达到与非编解码器生成音频模型相媲美的竞争力。
生成多视角视频的模型
Stable Video 4D (SV4D) 是基于 Stable Video Diffusion (SVD) 和 Stable Video 3D (SV3D) 的生成模型,它接受单一视角的视频并生成该对象的多个新视角视频(4D 图像矩阵)。该模型训练生成 40 帧(5 个视频帧 x 8 个摄像机视角)在 576x576 分辨率下,给定 5 个相同大小的参考帧。通过运行 SV3D 生成轨道视频,然后使用轨道视频作为 SV4D 的参考视图,并输入视频作为参考帧,进行 4D 采样。该模型还通过使用生成的第一帧作为锚点,然后密集采样(插值)剩余帧来生成更长的新视角视频。
探索3D虚拟世界,体验梦想家宇宙。
Aiuni是一个提供3D虚拟世界体验的平台,用户可以在这里创建和探索个性化的3D模型,享受沉浸式的宇宙探索之旅。Aiuni以其创新的3D技术、丰富的互动性和高度的个性化定制,为用户提供了一个全新的虚拟体验空间。
开源的基于流的文本到图像生成模型
AuraFlow v0.1是一个完全开源的、基于流的文本到图像生成模型,它在GenEval上达到了最先进的结果。目前模型处于beta阶段,正在不断改进中,社区反馈至关重要。感谢两位工程师@cloneofsimo和@isidentical将此项目变为现实,以及为该项目奠定基础的研究人员。
3D生成建模的高精度和结构化辐射表示
GaussianCube是一种创新的3D辐射表示方法,它通过结构化和显式的表示方式,极大地促进了三维生成建模的发展。该技术通过使用一种新颖的密度约束高斯拟合算法和最优传输方法,将高斯函数重新排列到预定义的体素网格中,从而实现了高精度的拟合。与传统的隐式特征解码器或空间无结构的辐射表示相比,GaussianCube具有更少的参数和更高的质量,使得3D生成建模变得更加容易。
将文本转换为声音效果的API。
ElevenLabs Texts to Sounds Effects API是一个编程接口,允许开发者将文本转换为相应的声音效果,适用于视频编辑、游戏开发等多种场景。该API是开源的,可在GitHub上找到代码,便于开发者进行个性化定制和二次开发。
实时表情生成人类模型
PROTEUS是Apparate Labs推出的一款下一代基础模型,用于实时表情生成人类。它采用先进的transformer架构的潜在扩散模型,创新的潜在空间设计实现了实时效率,并能通过进一步的架构和算法改进,达到每秒100帧以上视频流。PROTEUS旨在提供一种通过语音控制的视觉体现,为人工对话实体提供直观的接口,并且与多种大型语言模型兼容,可定制用于多种不同应用。
Cohere的生成AI平台使用指南
Cookbooks是Cohere提供的一个在线文档平台,旨在帮助开发者和用户了解如何利用Cohere的生成AI平台构建各种应用。它包含了多种使用案例的指南,如构建代理、集成开源软件、语义搜索、云服务、检索增强生成(RAG)、摘要生成等。这些指南提供了最佳实践,帮助用户最大限度地利用Cohere的模型,并且所有内容都已设置好,准备就绪,供用户开始测试。
一种新的文本条件高分辨率生成模型
Phased Consistency Model(PCM)是一种新型的生成模型,旨在解决Latent Consistency Model(LCM)在文本条件高分辨率生成中的局限性。PCM通过创新的策略在训练和推理阶段提高了生成质量,并通过广泛的实验验证了其在不同步骤(1步、2步、4步、8步、16步)下与Stable Diffusion和Stable Diffusion XL基础模型的结合效果。
Imagen 3是我们质量最高的文本到图像模型,能够生成具有更好细节、更丰富光照和更少干扰性伪影的图像。
Imagen 3是我们质量最高的文本到图像模型,能够生成具有更好细节、更丰富光照和更少干扰性伪影的图像。Imagen 3通过改进文本理解能力,可以生成多种视觉风格的图像,并捕捉长文本提示中的小细节。Imagen 3可用于生成快速草图到高分辨率图像等不同类型任务,并提供多个优化版本。
一个统一的文本到任意模态生成框架
Lumina-T2X是一个先进的文本到任意模态生成框架,它能够将文本描述转换为生动的图像、动态视频、详细的多视图3D图像和合成语音。该框架采用基于流的大型扩散变换器(Flag-DiT),支持高达7亿参数,并能扩展序列长度至128,000个标记。Lumina-T2X集成了图像、视频、3D对象的多视图和语音频谱图到一个时空潜在标记空间中,可以生成任何分辨率、宽高比和时长的输出。
将文本转换成Skibidi。
Brainrot Translator是一个将文本转换成Skibidi的网站。它的主要优点是可以将普通文本转换成具有特殊效果的Skibidi文本,增加了文本的趣味性和创意性。
释放每一帧的创造力和创新,免费 AI 视频生成平台。
艺映 AI 是一款专注人工智能视频领域的免费 AI 视频创作工具。它能够将文本、图片或视频转换为高质量 AI 视频,适用于多种场景,如抖音短视频、小说推文、AI 短片、AI 电影等制作。其主要优点在于提供多种视频生成方式,从文本到图片再到视频,满足用户多样化的创作需求。
提升生成模型质量和加速推理的项目
UniFL是一个项目,旨在提升生成模型质量和加速推理速度。它通过感知反馈学习、解耦反馈学习和对抗性反馈学习三个关键组件,有效解决了当前扩散模型存在的图像质量、美学吸引力和推理速度等问题。经过实验验证和用户研究,UniFL在多个扩散模型上展现出显著的性能提升和强大的泛化能力。
一种将 2D 文字转换为全景 3D 场景的生成管道,为野外环境的全景场景的创建提供了数分钟的便利。
该管道利用 2D 扩散模型的生成能力和提示自修复来创建全景图像,作为初始的 “平面”(2D)场景表示。随后,通过雕刻技术将该图像提升为 3D 高斯函数,以实现实时探索。为了产生一致的 3D 几何结构,该管道通过将单目视角的深度构造为全局优化的点云来构建空间一致的结构。该点云作为 3D 高斯函数的初始状态,以帮助解决由单目输入导致的隐蔽问题。通过对合成和输入相机视图施加语义和几何约束,该管道引导高斯函数的优化,以重建未见区域。总的来说,该方法为 360 度视野提供了全局一致的 3D 场景,为现有技术提供了增强的免费体验。
© 2024 AIbase 备案号:闽ICP备08105208号-14