需求人群:
"该产品适合需要快速生成 2D 卡通角色的动画师、游戏开发者、数字内容创作者以及相关领域的研究人员,能够帮助他们高效地将创意转化为具体角色形象,节省时间和精力。"
使用场景示例:
根据文本描述生成一个长发女孩,拥有珊瑚红色头发、深蓝色眼睛,穿着方领短袖上衣、深蓝色短裙和咖啡色中筒靴。
生成一个拥有长双马尾和蓝宝石色眼睛的女孩,搭配深蓝色高领羊绒毛衣、白色蕾丝裙和黑色过膝靴。
创建一个单马尾女孩,紫色眼睛,穿着 V 领粉色短袖上衣、红色短裙和马丁靴。
产品特色:
准确文本解析:能够从复杂描述中提取详细信息,如发型、发色、眼睛、服装等。
可控外观生成:通过组件合成生成角色模板,精确控制角色形状和纹理。
可编辑性:用户可修改生成结果中的特定细节。
动画支持:集成 ARKit 能力,提升 Live2D 模型的动画表现力。
多语言支持:支持中英文提示词,满足不同用户需求。
使用教程:
访问产品页面,了解基本信息。
根据需要生成的角色特征,编写详细的文本描述。
输入文本描述后,系统将基于文本解析生成 2D 卡通角色。
查看生成的角色模型,如有需要可对细节进行编辑调整。
导出生成的 Live2D 模型,用于后续的动画制作或其他用途。
浏览量:160
基于Unity的Live2D虚拟人实时聊天系统
AI女友是一款基于Unity开发的Live2D虚拟人实时聊天系统,它利用Live2D技术提供动态的虚拟人形象,结合Unity的实时渲染功能,实现与用户的动态交互和聊天。主要功能包括Live2D虚拟人形象集成、实时聊天、图像处理和人脸检测,支持高清分辨率显示,并且可自定义和扩展。
Textoon 是一款基于文本描述生成生动 2D 卡通角色的创新工具。
Textoon 是由阿里巴巴集团通义实验室推出的一种创新方法,能够根据文本描述快速生成多样化的 2D 卡通角色。该技术利用先进的语言和视觉模型,将文本意图转化为 2D 角色外观,生成的 Live2D 模型具有高效性和兼容性。它不仅满足了数字角色创作中对 2D 卡通风格的需求,还填补了当前 3D 角色研究中对 2D 互动角色关注不足的空白。其主要优点包括高效的渲染性能、灵活的文本解析能力和可编辑性,适用于快速生成高质量的 2D 卡通角色。
易用的2D/3D家居设计工具
Planner 5D是一款易用的2D/3D家居设计工具,拥有5000多个物品,可帮助用户设计梦想家园。用户可以使用2D模式创建平面图和设计布局,也可以切换到3D模式从任何角度探索和编辑设计。用户可以编辑颜色、图案和材料,创建独特的家具、墙壁、地板等,甚至可以调整物品大小以找到完美的匹配。Planner 5D还提供渲染功能,可以将设计捕捉为逼真的图像,添加阴影、照明和丰富的颜色,使作品看起来像一张照片。Planner 5D适用于业余设计师和专业设计师,用户可以加入社区,上传和定制项目,获取其他用户创建的设计灵感。
2D游戏动画生成模型
godmodeanimation是一个开源的2D游戏动画生成模型,它通过训练文本到视频和图像到视频的模型来生成2D游戏动画。开发者使用了公共游戏动画数据和3D mixamo模型渲染动画来训练动画生成模型,并开源了模型、训练数据、训练代码和数据生成代码。
打造有温度的数字人,注入灵魂。
awesome-digital-human-live2d 是一个开源项目,旨在创建具有交互性的数字人物模型。它支持Docker快速部署,集成了Dify服务,支持ASR、LLM、TTS、Agent等模块化扩展,并且可以控制Live2d人物模型。该项目通过模块化设计,简化了数字人的创建过程,使得开发者能够更专注于个性化和创新。
快速将2D图像转换为3D,开启全新的视觉体验和无限可能性。
Stylar AI的2D to 3D Image Converter是一个强大的图像转换工具,它利用先进的Image-to-Image技术,将平面2D图像转换为3D图像。这款工具提供高质量的图像转换和多种风格选项,能够满足用户对图像进行3D化的需求。产品的主要功能包括上传图片、选择3D效果、下载3D创作等。它还提供了多种3D风格,如3D卡通效果、3D艺术作品等,以及将草图转换为3D设计的功能。
基于2D扩散的文本到3D生成
DreamFusion是一款基于预训练的2D文本到图像扩散模型,用于生成高保真度的、可调光的3D对象。它通过使用梯度下降优化随机初始化的3D模型(Neural Radiance Field)来生成3D对象,并且可以从任意角度观察、任意照明重新照亮或与任何3D环境合成。DreamFusion不需要3D训练数据,也不需要对图像扩散模型进行修改,展示了预训练图像扩散模型作为先验的有效性。
轻量级、先进的2B参数文本生成模型。
Gemma 2 2B是谷歌开发的轻量级、先进的文本生成模型,属于Gemma模型家族。该模型基于与Gemini模型相同的研究和技术构建,是一个文本到文本的解码器仅大型语言模型,提供英文版本。Gemma 2 2B模型适用于问答、摘要和推理等多种文本生成任务,其较小的模型尺寸使其能够部署在资源受限的环境中,如笔记本电脑或桌面电脑,促进了对最先进AI模型的访问,并推动了创新。
稳定扩散:距离快速多样的文本生成3D仅一步之遥
HexaGen3D是一种用于从文本提示生成高质量3D资产的创新方法。它利用大型预训练的2D扩散模型,通过微调预训练的文本到图像模型来联合预测6个正交投影和相应的潜在三面体,然后解码这些潜在值以生成纹理网格。HexaGen3D不需要每个样本的优化,可在7秒内从文本提示中推断出高质量且多样化的对象,相较于现有方法,提供了更好的质量与延迟权衡。此外,HexaGen3D对于新对象或组合具有很强的泛化能力。
将2D图片转换为3D模型的AI系统
Any Image to 3D是一款创新的AI系统,可以将复杂的2D图片转换为3D模型。它消除了生成3D内容的技术难题,使得任何人都可以轻松地生成3D模型。它适用于游戏、机器人、混合现实、视觉特效和电子商务等领域。通过简单的可视化,用户可以将想法转化为详细的3D模型。
强大的无代码2D引擎,为富有故事性的游戏而设计
故事机器是一个通用的2D引擎,旨在为富有故事性的游戏创作提供简单的无代码解决方案。它具有直观的可视化界面,让故事讲述者拥有创作的权力。主要功能包括通过拖放操作构建游戏逻辑、快速创建场景布局的动画过渡、简单易用的工具集等。故事机器还融入了人工智能技术,可以直接在引擎中生成AI艺术。它适用于开发2D冒险游戏,无需编程。
高保真文本到4D生成
4D-fy是一种文本到4D生成方法,通过混合分数蒸馏采样技术,结合了多种预训练扩散模型的监督信号,实现了高保真的文本到4D场景生成。其方法通过神经表示参数化4D辐射场,使用静态和动态多尺度哈希表特征,并利用体积渲染从表示中渲染图像和视频。通过混合分数蒸馏采样,首先使用3D感知文本到图像模型(3D-T2I)的梯度来优化表示,然后结合文本到图像模型(T2I)的梯度来改善外观,最后结合文本到视频模型(T2V)的梯度来增加场景的运动。4D-fy可以生成具有引人入胜外观、3D结构和运动的4D场景。
Y2K风格的文本/字体生成模型
FLUX Y2K TYPEFACE是一个基于LoRA技术的文本/字体生成模型,能够以高精度生成Y2K风格的文本、字体、标志和徽章。该模型由Black Forest Labs, Inc.授权,代表了文本和字体生成技术的新进展,具有高度的创造性和实用性。
2D视频转3D模型
Neuralangelo是NVIDIA研究推出的一款利用神经网络进行3D重建的人工智能模型,可以将2D视频片段转换为详细的3D结构,生成逼真的虚拟建筑、雕塑等物体。它能够准确地提取复杂材料的纹理,包括屋顶瓦片、玻璃窗格和光滑的大理石。创意专业人员可以将这些3D对象导入设计应用程序,进一步进行编辑,用于艺术、视频游戏开发、机器人技术和工业数字双胞胎等领域。Neuralangelo的3D重建能力将对创作者产生巨大的帮助,帮助他们在数字世界中重新创建真实世界。该工具最终将使开发人员能够将详细的对象(无论是小雕塑还是巨大的建筑物)导入到虚拟环境中,用于视频游戏或工业数字双胞胎等应用。
腾讯推出的3D生成框架,支持文本和图像到3D的生成。
Hunyuan3D-1是腾讯推出的一个统一框架,用于文本到3D和图像到3D的生成。该框架采用两阶段方法,第一阶段使用多视图扩散模型快速生成多视图RGB图像,第二阶段通过前馈重建模型快速重建3D资产。Hunyuan3D-1.0在速度和质量之间取得了令人印象深刻的平衡,显著减少了生成时间,同时保持了生成资产的质量和多样性。
超越2D,用AI从文本生成视频
Genmokey是一个能够使用AI从文本生成视频的创意工具。它能够将您输入的文字转化为独特的视频作品,超越传统的2D效果。无论您是想创建个人视频、营销广告还是其他创意项目,Genmokey都能够帮助您实现想象力的极限。Genmokey是一个全面的视频生成工具,提供丰富的功能和定制选项。定价方案灵活,适合个人和企业使用。无论您是设计师、营销人员、创意从业者还是视频爱好者,Genmokey都将成为您的得力助手。
文本到3D沉浸场景生成
Text2Immersion是一个优雅的从文本提示生成高质量3D沉浸场景的方法。我们提出的流水线首先使用预训练的2D扩散和深度估计模型逐步生成高斯云。接下来是对高斯云进行精炼,插值和精炼以增强生成场景的细节。与仅关注单个物体或室内场景,或采用缩小轨迹的主流方法不同,我们的方法可以生成包含各种物体的不同场景,甚至扩展到创造想象中的场景。因此,Text2Immersion可以对各种应用产生广泛的影响,如虚拟现实、游戏开发和自动内容创建。大量的评估证明我们的系统在渲染质量和多样性方面优于其他方法,并且继续推进面向文本的3D场景生成。
一种通过3D感知递归扩散生成3D模型的框架
Ouroboros3D是一个统一的3D生成框架,它将基于扩散的多视图图像生成和3D重建集成到一个递归扩散过程中。该框架通过自条件机制联合训练这两个模块,使它们能够相互适应,以实现鲁棒的推理。在多视图去噪过程中,多视图扩散模型使用由重建模块在前一时间步渲染的3D感知图作为附加条件。递归扩散框架与3D感知反馈相结合,提高了整个过程的几何一致性。实验表明,Ouroboros3D框架在性能上优于将这两个阶段分开训练的方法,以及在推理阶段将它们结合起来的现有方法。
通过文本生成3D场景中的对象插入
InseRF是一种通过文本提示和2D边界框在NeRF重建的3D场景中生成新对象的方法。它能够从用户提供的文本描述和一个参考视点中的2D边界框中生成新的3D对象,并将其插入到场景中。该方法能够在不需要显式3D信息的情况下实现可控的、与3D一致的对象插入。通过在多个3D场景中进行试验,证明了InseRF方法相对于现有方法的有效性。
AI 生成定制 3D 模型
3D AI Studio 是一款基于人工智能技术的在线工具,可以轻松生成定制的 3D 模型。适用于设计师、开发者和创意人士,提供高质量的数字资产。用户可以通过AI生成器快速创建3D模型,并以FBX、GLB或USDZ格式导出。3D AI Studio具有高性能、用户友好的界面、自动生成真实纹理等特点,可大幅缩短建模时间和降低成本。
通过文本指令自动生成和动画化卡通人物的3D纹理
Make-It-Vivid是一种创新的模型,能够根据文本指令自动生成和动画化卡通人物的3D纹理。它解决了传统方式制作3D卡通角色纹理的挑战,提供了高效、灵活的解决方案。该模型通过预训练的文本到图像扩散模型生成高质量的UV纹理图,并引入对抗性训练来增强细节。它可以根据不同的文本prompt生成各种风格的角色纹理,并将其应用到3D模型上进行动画制作,为动画、游戏等领域提供了便利的创作工具。
Hunyuan3D 2.0 是腾讯推出的高分辨率 3D 资产生成系统,基于大规模扩散模型。
Hunyuan3D 2.0 是腾讯推出的一种先进大规模 3D 合成系统,专注于生成高分辨率纹理化的 3D 资产。该系统包括两个基础组件:大规模形状生成模型 Hunyuan3D-DiT 和大规模纹理合成模型 Hunyuan3D-Paint。它通过解耦形状和纹理生成的难题,为用户提供了灵活的 3D 资产创作平台。该系统在几何细节、条件对齐、纹理质量等方面超越了现有的开源和闭源模型,具有极高的实用性和创新性。目前,该模型的推理代码和预训练模型已开源,用户可以通过官网或 Hugging Face 空间快速体验。
与任何大型语言模型进行快速的免提语音交互。
Open-LLM-VTuber 是一个开源项目,旨在通过语音与大型语言模型(LLM)进行交互,具有实时的Live2D面部捕捉和跨平台的长期记忆功能。该项目支持macOS、Windows和Linux平台,允许用户选择不同的语音识别和语音合成后端,以及自定义的长期记忆解决方案。它特别适合希望在不同平台上实现与AI进行自然语言对话的开发者和爱好者。
© 2025 AIbase 备案号:闽ICP备08105208号-14