浏览量:40
最新流量情况
月访问量
37342.30k
平均访问时长
00:02:49
每次访问页数
3.97
跳出率
48.36%
流量来源
直接访问
22.35%
自然搜索
62.15%
邮件
0.04%
外链引荐
14.64%
社交媒体
0.67%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
巴西
4.04%
德国
4.39%
法国
3.95%
印度
6.65%
美国
18.61%
3,600+ AI 模型生成的照片
iStock 提供 3,600 多张由 AI 模型生成的照片。用户可以在这个网站上搜索高质量的照片,这些照片都是使用 AI 技术生成的,用户可以在其他地方找不到这样的照片。
AI Alive是一种具有智能编辑功能的创意工具,可以将静态照片转换为动态视频。
AI Alive是TikTok推出的创新功能,利用智能编辑工具将静态照片转换为生动的视频,为用户提供丰富多彩的创作可能性,强调简单易用,提升视觉叙事体验。
智能AI工具,快速生成高质量唯一内容。
SmartlyQ是一款强大的AI工具,能够在几次点击内生成高质量的独特内容。它能够帮助用户节省时间,创造内容,促进业务增长。产品定位于提供智能内容生成解决方案。
F Lite 是一款 10B 参数的扩散模型,专注于合法和安全内容。
F Lite 是由 Freepik 和 Fal 开发的一个大型扩散模型,具有 100 亿个参数,专门训练于版权安全和适合工作环境 (SFW) 的内容。该模型基于 Freepik 的内部数据集,包含约 8000 万张合法合规的图像,标志着公开可用的模型在这一规模上首次专注于合法和安全的内容。它的技术报告提供了详细的模型信息,并且使用了 CreativeML Open RAIL-M 许可证进行分发。该模型的设计旨在推动人工智能的开放性和可用性。
一款具有 17 亿参数的开源图像生成基础模型。
HiDream-I1 是一款新型的开源图像生成基础模型,拥有 170 亿个参数,能够在几秒内生成高质量图像。该模型适用于研究和开发,并在多个评测中表现优异,具有高效性和灵活性,适合用于各种创意设计和生成任务。
GAIA-2 是一个先进的视频生成模型,用于创建安全的自动驾驶场景。
GAIA-2 是 Wayve 开发的先进视频生成模型,旨在为自动驾驶系统提供多样化和复杂的驾驶场景,以提高安全性和可靠性。该模型通过生成合成数据来解决依赖现实世界数据收集的限制,能够创建各种驾驶情境,包括常规和边缘案例。GAIA-2 支持多种地理和环境条件的模拟,帮助开发者在没有高昂成本的情况下快速测试和验证自动驾驶算法。
无需额外训练的高质量图像修复插件,适用于所有稳定扩散模型。
LanPaint 是一款针对稳定扩散模型的图像修复插件,通过多轮迭代推理,无需额外训练即可实现高质量的图像修复。该技术的重要性在于它为用户提供了一种无需复杂训练即可获得精准修复结果的解决方案,大大降低了使用门槛。LanPaint 适用于任何稳定扩散模型,包括用户自定义的模型,具有广泛的适用性和灵活性。它主要面向需要高质量图像修复的创作者和开发者,尤其是那些希望在不进行额外训练的情况下快速获得修复结果的用户。
CogView4 是一个支持中文和英文的高分辨率文本到图像生成模型。
CogView4 是由清华大学开发的先进文本到图像生成模型,基于扩散模型技术,能够根据文本描述生成高质量图像。它支持中文和英文输入,并且可以生成高分辨率图像。CogView4 的主要优点是其强大的多语言支持和高质量的图像生成能力,适合需要高效生成图像的用户。该模型在 ECCV 2024 上展示,具有重要的研究和应用价值。
olmOCR-7B-0225-preview 是一个基于 Qwen2-VL-7B-Instruct 微调的文档图像识别模型,用于高效转换文档为纯文本。
olmOCR-7B-0225-preview 是由 Allen Institute for AI 开发的先进文档识别模型,旨在通过高效的图像处理和文本生成技术,将文档图像快速转换为可编辑的纯文本。该模型基于 Qwen2-VL-7B-Instruct 微调,结合了强大的视觉和语言处理能力,适用于大规模文档处理任务。其主要优点包括高效处理能力、高精度文本识别以及灵活的提示生成方式。该模型适用于研究和教育用途,遵循 Apache 2.0 许可证,强调负责任的使用。
SkyReels V1 是一个开源的人类中心视频基础模型,专注于高质量影视级视频生成。
SkyReels V1 是一个基于 HunyuanVideo 微调的人类中心视频生成模型。它通过高质量影视片段训练,能够生成具有电影级质感的视频内容。该模型在开源领域达到了行业领先水平,尤其在面部表情捕捉和场景理解方面表现出色。其主要优点包括开源领先性、先进的面部动画技术和电影级光影美学。该模型适用于需要高质量视频生成的场景,如影视制作、广告创作等,具有广泛的应用前景。
Magic 1-For-1 是一个高效的图像到视频生成模型,可在一分钟内生成一分钟的视频。
Magic 1-For-1 是一个专注于高效视频生成的模型,其核心功能是将文本和图像快速转换为视频。该模型通过将文本到视频的生成任务分解为文本到图像和图像到视频两个子任务,优化了内存使用并减少了推理延迟。其主要优点包括高效性、低延迟和可扩展性。该模型由北京大学 DA-Group 团队开发,旨在推动交互式基础视频生成领域的发展。目前该模型及相关代码已开源,用户可以免费使用,但需遵守开源许可协议。
Animagine XL 4.0 是一款专注于动漫风格的Stable Diffusion XL模型,专为生成高质量动漫图像而设计。
Animagine XL 4.0 是一款基于Stable Diffusion XL 1.0微调的动漫主题生成模型。它使用了840万张多样化的动漫风格图像进行训练,训练时长达到2650小时。该模型专注于通过文本提示生成和修改动漫主题图像,支持多种特殊标签,可控制图像生成的不同方面。其主要优点包括高质量的图像生成、丰富的动漫风格细节以及对特定角色和风格的精准还原。该模型由Cagliostro Research Lab开发,采用CreativeML Open RAIL++-M许可证,允许商业使用和修改。
RAIN是一种实时动画无限视频流技术。
RAIN是一种实时动画无限视频流技术,能够在消费级设备上实现高质量、低延迟的实时动画。它通过高效计算不同噪声水平和长时间间隔的帧标记注意力,同时去噪比以往流式方法更多的帧标记,从而在保持视频流连贯性的同时,以更快的速度和更短的延迟生成视频帧。RAIN仅引入少量额外的1D注意力块,对系统负担较小。该技术有望在游戏渲染、直播和虚拟现实等领域与CG结合,利用AI的泛化能力渲染无数新场景和对象,并提供更互动的参与方式。
Kimi 视觉模型可理解图片内容,包括文字、颜色和物体形状等。
Kimi 视觉模型是 Moonshot AI 开放平台提供的先进图像理解技术。它能够准确识别和理解图片中的文字、颜色和物体形状等内容,为用户提供强大的视觉分析能力。该模型具有高效、准确的特点,适用于多种场景,如图像内容描述、视觉问答等。其定价与 moonshot-v1 系列模型一致,根据模型推理的总 Tokens 计费,每张图片消耗的 Tokens 为固定值 1024。
Google DeepMind的先进视频生成模型
Veo 2是Google DeepMind开发的最新视频生成模型,它代表了视频生成技术的一个重大进步。Veo 2能够逼真地模拟真实世界的物理效果和广泛的视觉风格,同时遵循简单和复杂的指令。该模型在细节、逼真度和减少人工痕迹方面显著优于其他AI视频模型。Veo 2的高级运动能力让其能够精确地表示运动,并且能够精确地遵循详细的指令,创造出各种镜头风格、角度和运动。Veo 2在视频生成领域的重要性体现在其增强了视频内容的多样性和质量,为电影制作、游戏开发、虚拟现实等领域提供了强大的技术支持。
免费 npm 库,用 Llama 3.2 Vision 进行 OCR,输出 markdown 文本
开源 npm 库,免费使用 Llama 3.2 Vision 进行 OCR,支持本地和远程图像,计划支持 PDF,受 Zerox 启发,有免费和付费接口
低延迟、高质量的端到端语音交互模型
LLaMA-Omni是一个基于Llama-3.1-8B-Instruct构建的低延迟、高质量的端到端语音交互模型,旨在实现GPT-4o级别的语音能力。该模型支持低延迟的语音交互,能够同时生成文本和语音响应。它在不到3天的时间内使用仅4个GPU完成训练,展示了其高效的训练能力。
大规模多语种语音生成数据集
Emilia是一个开源的多语种野外语音数据集,专为大规模语音生成研究设计。它包含超过101,000小时的六种语言高质量语音数据和相应的文本转录,覆盖了各种说话风格和内容类型,如脱口秀、访谈、辩论、体育评论和有声书。
玩转热门主流 AI 模型,并接入在你的产品中
X Model 是一个集成热门主流 AI 模型的平台,用户可以在其产品中轻松接入这些模型。它的主要优点包括多样的模型选择、高质量的输出结果以及简单易用的接入流程。X Model 价格灵活,适用于各种规模的业务。
AuraSR 是基于 GAN 的超分辨率图像处理模型,可用于提升生成图像的质量。
AuraSR 是基于 GAN 的 Super-Resolution 模型,通过图像条件化增强技术,提升生成图像的质量。该模型采用 GigaGAN 论文的变体实现,并使用 Torch 框架。AuraSR 的优势在于能够有效提高图像的分辨率和质量,适用于图像处理领域。
个性化角色创造平台,AI 乌托邦 PRO,打造新一代超拟人 AI 智能体。
乌托邦是一个个性化角色创造平台,致力于打造新一代超拟人 AI 智能体。其主要优点包括更可控、拟人、安全。背景信息显示该产品注重用户参与创造,定位于提供高度个性化的角色模型。
Lumalabs AI从文本和图像快速生成高质量、逼真视频的AI模型
Lumalabs AI的Dream Machine是一个AI模型,能够直接从文本和图像快速生成高质量的逼真视频。它是一个高度可扩展且高效的transformer模型,专门针对视频进行训练,能够生成物理上准确、一致且充满事件的镜头。Dream Machine是构建通用想象力引擎的第一步,现已对所有人开放。
微软轻量级、先进的多模态模型,专注于文本和视觉的高质量推理密集数据。
Phi-3 Vision是一个轻量级、最先进的开放多模态模型,基于包括合成数据和经过筛选的公开可用网站在内的数据集构建,专注于文本和视觉的非常高质量的推理密集数据。该模型属于Phi-3模型家族,多模态版本支持128K上下文长度(以token计),经过严格的增强过程,结合了监督微调和直接偏好优化,以确保精确的指令遵循和强大的安全措施。
利用本地 AI 模型为您提供网页浏览辅助
Page Assist 是一个为本地 AI 模型提供便捷的 Web 用户界面的辅助工具。您可以利用本地 AI 模型与浏览器交互,或者将其作为本地 AI 模型供应商(如 Ollama Repo)的 Web 用户界面。当前功能包括侧边栏任务支持、视觉模型支持、最小化的本地 AI 模型 Web 用户界面、互联网搜索功能、侧边栏上的 PDF 对话框、文档聊天(PDF、CSV、TXT、MD 格式)等。
使用我们的AI肖像生成器,即可将您的照片立即转换为独特的AI肖像艺术品。探索数百种艺术风格,并创建您完美的艺术肖像。
AIPortrait.Art是一个AI肖像生成器,能够将您的照片在几秒钟内转换为艺术杰作。通过混搭数百种风格,创作出独特的AI艺术肖像。无需艺术技能,只需上传照片即可。数千名用户使用我们的产品来探索、创作和分享完美的艺术肖像。我们提供高分辨率的输出和下载功能。
基于先进 AI 模型的图像修复工具。
IOPaint 是一个免费、开源且完全可自托管的修复 / 填充工具,使用最先进的 AI 模型。它可以帮助用户删除图像中的不需要的对象、修复瑕疵、添加新对象、扩大图像等。
AI生成的背景去除和高质量产品图片
Draph Art是一款能够自动生成背景去除、道具、光照、阴影和模特等所有元素的AI产品。无需专业技术,任何人都可以制作出吸引人的产品图片。通过Draph Art,您可以使用相关的产品照片来吸引顾客的注意力。从一张原始照片到多种主题的产品照片,只需告诉我们您想要的主题,AI将分析上传照片的背景氛围和颜色,然后为所选择的主题生成多张照片。
一键生成风格化照片
Style Photo是一个能够根据您上传的图像一键生成具有不同风格元素的照片的工具。它不仅能够产生逼真的人像照片,还能在保留身份特征的同时对其进行风格化处理。该产品具有高质量、多样性、易编辑、高效推断和强大的身份保真度等优点。
© 2025 AIbase 备案号:闽ICP备08105208号-14