Zero123

5个月前发布 11 0 0

Zero123简介 今天,我们发布了稳定版 Zero123,这是我们内部训练的模型,用于生成视图条件图像。与之前最先进的 Zero123-XL 相比,稳定的 Zero123 产生了显着改善的结果。这是通过 3 项关键创新实现的:1、改进的训练数据集,从 Objaverse 中大量过滤,只保留高质量的 3D 对象,我们渲染的对象比以前的方法...

收录时间:
2024-11-21 22:06:00
更新时间:
2025-04-17 01:32:51
Zero123Zero123
Zero123
Zero123简介 今天,我们发布了稳定版 Zero123,这是我们内部训练的模型,用于生成视图条件图像。与之前最先进的 Zero123-XL 相比,稳定的 Zero123 产生了显着改善的结果。这是通过 3 项关键创新实现的:1、改进的训练数据集,从 Objaverse 中大量过滤,只保留高质量的 3D 对象,我们渲染的对象比以前的方法更加真实。2、在训练和推理过程中,我们为模型提供了估计的摄像机角度。这种海拔调节使其能够做出更明智、更高质量的预测。3、预先计算的数据集(预先计算的潜在变量)和改进的数据加载器支持更高的批量大小,与第一个创新相结合,与 Zero123-XL 相比,训练效率提高了 40 倍。Zero123特征:稳定的 Zero123 可以生成物体的新颖视图,展示从各个角度对物体外观的 3D 理解,由于训练数据集和高程条件的改进,其质量比 Zero1-to-3 或 Zero123-XL 显着提高。该模型基于稳定扩散 1.5,消耗与 SD1.5 相同数量的 VRAM 来生成 1 个新视图。使用 Stable Zero123 生成 3D 对象需要更多时间和内存(建议使用 24GB VRAM)。为了实现 3D 对象生成方面的开放研究,我们改进了 Threestudio 开源代码的开源代码,以支持 Zero123 和 Stable Zero123。 Stable 3D 流程的简化版本目前处于私人预览阶段。从技术角度来说,这使用分数蒸馏采样 (SDS) 来使用稳定的 Zero123 模型来优化 NeRF,稍后我们可以从中创建纹理 3D 网格。该过程可以适用于文本到 3D 生成,首先使用 SDXL 生成单个图像,然后使用 Stable Zero123 生成 3D 对象。Zero123项目:https://github.com/cvlab-columbia/zero123Zero123试用:https://huggingface.co/spaces/cvlab/zero123-liveZero123论文:https://arxiv.org/abs/2303.11328该模型现已发布在 Hugging Face 上,研究人员和非商业用户可以下载并进行实验。

数据统计

数据评估

Zero123浏览人数已经达到11,如你需要查询该站的相关权重信息,可以点击"5118数据""爱站数据""Chinaz数据"进入;以目前的网站数据参考,建议大家请以爱站数据为准,更多网站价值评估因素如:Zero123的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找Zero123的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于Zero123特别声明

本站400AI工具导航提供的Zero123都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由400AI工具导航实际控制,在2024年11月21日 22:06收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,400AI工具导航不承担任何责任。

相关导航

Personalized Restoration

Personalized Restoration

Personalized Restoration简介 Personalized Restoration,一个面部图像精准恢复和个性编辑技术,Personalized Restoration不仅能复原受损图像细节,同时能精准捕捉和重现个人独特的面部特征,确保恢复的图像既清晰自然,又忠实于原始面貌。同时它还支持换脸。Personalized Restoration通过先进的双轴调整方法——结合文本引导和模型调整——确保恢复的图像既忠实于原始面貌,又保持个人的独特身份。此外,Personalized Restoration还支持文本引导的编辑,允许用户通过简单的文本提示来改变恢复图像的特定细节。Personalized Restoration功能特色:利用参考图像个性化扩散先验在去噪框架中保留面部身份信息保留退化图像的视觉属性Personalized Restoration使用场景:针对某位明星的几张参考照片,个性化扩散模型进行人像图像复原使用不同个性化模型实现人脸互换效果结合文字提示实现个性化模型的文本导向编辑Personalized Restoration主要功能和作用:假设你有一张模糊的老照片,是你的外祖父在年轻时的样子。这张照片非常重要,但因为年代久远,这张照片非常模糊,颜色褪色,面部细节几乎无法辨认。你想恢复这张照片,使其看起来更清晰、更接近原始状态。传统的图像恢复技术可能会使照片变得更清晰,但可能会丢失你祖父独特的面部特征,如特定的微笑或眼睛的形状。这是因为传统技术通常依赖于一般性的图像模型,这些模型并不专门针对你祖父的独特外观。Personalized Restoration调整过程:1、文本引导的调整阶段:假设你还有一些外祖父其他时期的清晰照片。这些照片和一些描述性文本(如“年轻时的外祖父,戴着眼镜,有着特别的笑容”)被用来微调生成模型G。这个微调过程让模型能够了解和学习你外祖父的独特面部特征,比如他的眼睛形状、微笑的方式等。2、模型基础的调整阶段:接下来,引导网络E在固定了微调过的生成模型G的基础上进行调整。这一步骤的目的是让引导网络在恢复模糊照片时,能够同时考虑到个性化特征(比如外祖父的笑容)和图像的其他方面(如颜色和清晰度)。最终结果是:恢复后的照片不仅变得清晰,颜色和细节也都得到了改善。更重要的是,这张照片忠实地反映了你外祖父的独特面部特征,让人一看就能认出是他。通过这种双轴调整方法,这个系统能够在保留个人独特特征的同时,恢复出自然且高质量的图像,使得老照片得以新生,且更具个人记忆的价值。同时它还支持面部交换功能,可以将个人特征应用于其他图像,打造出全新的视觉体验。例如,你可以将某人的面部特征转移到另一个人的照片上。此外,它还支持文本引导的编辑,允许用户使用提示修饰符(如“微笑”和“蓝眼睛”)可以启用 与修复一起进行相关编辑。
StoryDiffusion

StoryDiffusion

StoryDiffusion简介 StoryDiffusion 是一款由南开大学HVision团队开发的人工智能工具,主要功能包括生成连贯的图像和视频故事,以及漫画生成创作。StoryDiffusion利用一致性自注意力(Consistent Self-Attention)技术,能够在无需训练的情况下生成主题一致的图像,这些图像可以用于讲述故事或作为后续内容生成的输入。StoryDiffusion 能够保持角色的一致性,生成多图漫画和长视频,这对于需要连贯叙事的广告、电影等领域尤为重要。StoryDiffusion主要功能特征:角色连贯性保持:StoryDiffusion能够通过一致性自注意力机制生成主题一致的图像和视频,确保在多图漫画和长视频中角色风格和服装的一致性,从而实现连贯的故事叙述。多场景应用:该工具不仅适用于漫画生成,还可以应用于图像转视频等多种场景。用户可以通过提供一系列条件图像,利用Image-to-Video模型生成视频,这对于广告、电影等领域提供了新的创意方式和制作手段。教育材料设计:教育工作者可以使用StoryDiffusion来设计教育视频或互动故事,这些内容有助于提高学习者的参与度和兴趣。长范围图像生成功能:特别适合制作连贯的广告故事,增强品牌形象。这种功能使得StoryDiffusion在广告和品牌推广方面具有显著优势。即插即用无需训练:研究团队将一致性自注意力插入到现有图像生成模型的U-Net架构中,并重用原有的自注意力权重,以保持无需训练和即插即用的特性。高效能与稳健性:StoryDiffusion在保持角色特性的同时,还能够很好地符合提示描述,显示出其稳健性。这表明该方法在定量指标上取得了最佳性能。StoryDiffusion通过一致性自注意力机制,不仅能够生成连贯的图像和视频,还能应用于多种实际场景,如教育、广告和娱乐等,同时具备高效能和稳健性。GitHub 项目:相关项目已经在 GitHub 上获得了 1k 的 Star 量,GitHub 地址为:https://github.com/HVision-NKU/StoryDiffusion。论文和演示:有关 StoryDiffusion 的更多技术细节和实验结果可以在论文《StoryDiffusion: Consistent Self-Attention for long-range image and video generation》中找到,论文地址为:https://arxiv.org/pdf/2405.01434v1
ComfyUI Portrait Master简体中文版

ComfyUI Portrait Master简体中文版

ComfyUI Portrait Master简体中文版简介 ComfyUI Portrait Master 肖像大师简体中文版,超详细参数设置!再也不用为不会写人像提示词发愁啦!重新优化为ison列表更方便自定义和扩展!已包含标准工作流和turbo工作流,大家快去玩!ComfyUI项目地址:https://github.com/ZHO-ZHO-ZHO/comfyui-portrait-master-zh-cnComfyUI系统教程:https://space.bilibili.com/484366804参数说明 | Parameters镜头类型:头像、肩部以上肖像、半身像、全身像、脸部肖像性别:女性、男性国籍_1:193个国家可选国籍_2:193个国家可选眼睛颜色:琥珀色、蓝色等8种面部表情:开心、伤心、生气、惊讶、害怕等24种脸型:椭圆形、圆形、梨形等12种发型:法式波波头、卷发波波头、不对称剪裁等20种头发颜色:金色、栗色、灰白混合色等9种灯光类型:柔和环境光、日落余晖、摄影棚灯光等32种灯光方向:上方、左侧、右下方等10种起始提示词:写在开头的提示词补充提示词:写在中间用于补充信息的提示词结束提示词:写在末尾的提示词提高照片真实感:可强化真实感负面提示词:新增负面提示词输出提示词合成顺序 | Prompt composition order起始提示词镜头类型 + 镜头权重国籍 + 性别 + 年龄眼睛颜色面部表情 + 面部表情权重脸型发型头发颜色头发蓬松度补充提示词皮肤细节皮肤毛孔皮肤瑕疵酒窝雀斑痣眼睛细节虹膜细节圆形虹膜圆形瞳孔面部对称性灯光类型 + 灯光方向结束提示词提高照片真实感自定义 | Customizations可将需要自定义增加的内容写到lists文件夹中对应的json文件里(如发型、表情等)使用建议 | Practical advice皮肤和眼睛细节等参数过高时可能会覆盖所选镜头的设置。在这种情况下,建议减小皮肤和眼睛的参数值,或者插入否定提示(closeup, close up, close-up:1.5),并根据需要修改权重。安装 | Installcd custom_nodesgit clone https://github.com/ZHO-ZHO-ZHO/comfyui-portrait-master-zh-cn.git重启 ComfyUI
AI Comic Factory

AI Comic Factory

AI Comic Factory简介 ai Comic Factory 是一个基于Hugging Face的免费开源的在线AI漫画生成工具,使用LLM + SDXL开发,用户只需输入文字描述提示词,AI就能生成精美的漫画作品,生成的照片支持直接无损放大,无需学习成本,适用于各年龄层,广泛应用于社交平台和短视频应用。AI Comic Factory提供多种漫画风格可选择,支持自定义人物形象、背景等元素。并可以利用NLP技术分析输入文本的情感,自动绘制出符合剧情的面部表情及动作,可以将生成的漫画图片下载并用于创作,大大降低了创作漫画的门槛,使普通用户也可以轻松完成漫画创作。AI Comic Factory是一个真正实现了科技与艺术相融合的工具,让每个人都可以轻松地创作出独一无二的漫画风格照片。无论你是漫画爱好者,还是喜欢尝试新技术的科技爱好者,都可以尝试使用这个免费的开源AI漫画生成器,开启你的创意之旅。AI Comic Factory功能:1、智能漫画生成:AI Comic Factory的核心功能是其出色的智能漫画生成能力。它可以将用户提供的文本、故事情节或概念转化为漫画画面,自动选择配色方案、布局和字体,使用户能够以独特而富有创意的方式呈现故事。2、多样化的风格选择:AI Comic Factory提供了多种漫画风格和主题可供选择,从传统的黑白漫画到彩色、卡通风格,满足不同用户的创作需求。这使得用户可以为不同类型的故事选择最合适的风格。3、社区分享和合作:AI Comic Factory还具有社交化的功能,用户可以将他们的漫画作品分享到社区中,与其他创作者互动、合作和获取灵感。这个社区不仅是一个展示作品的平台,还是学习和成长的资源。4、简化的工作流程:该应用程序的用户界面友好,使新手用户和有经验的漫画创作者都能够轻松上手。AI Comic Factory通过简化漫画制作的工作流程,节省了用户的时间和精力。5、CPU支持:AI Comic Factory在CPU上运行,这意味着用户无需拥有高端的GPU或专业的硬件,即可享受到其功能。这种灵活性使更多人能够尝试并享受漫画创作。AI Comic Factory使用步骤:1、输入场景和故事的描述2、选择样式风格;3、选择布局;4、选择字幕;5、生成页面;6、更改页面;7、打印页面;8、保存页面;如果您打算创建多页漫画书,请继续第二页。
OOTDiffusion

OOTDiffusion

OOTDiffusion简介 OOTDiffusion:一个高度可控的虚拟服装试穿开源工具,可以根据不同性别和体型自动调整,和模特非常贴合。也可以根据自己的需求和偏好调整试穿效果,OOTDiffusion支持半身模型和全身模型两种模式。OOTDiffusionGitHub:https://github.com/levihsu/OOTDiffusionOOTDiffusion核心功能:OOTDiffusion基于潜在扩散模型技术,实现了高质量的服装图像生成和融合,确保试穿效果自然且逼真。OOTDiffusion支持两种模型虚拟试穿,一个是半身模型,专为上半身的服装试穿设计,适合T恤、衬衫等上身服装。另外一个是全身模型,支持全身的服装试穿,包括上身、下身和连衣裙等服装类型,用户可以根据需求选择适合的模型进行试穿。OOTDiffusion支持参数调整,你可以通过调整模型路径、服装路径、缩放比例和采样次数等参数来精细控制试穿的细节和效果,以满足不同的试穿需求。通过精心设计的算法,OOTDiffusion能够将选定的服装自然且逼真地融合到用户提供的模型图像中,无论是纹理、光影还是服装的自然摆动都能精确呈现。不过,试玩一下后,发现用OOTDiffusion自己的DEMO图片效果非常好,换了自已上传的素材,效果差很多,说明对人像位置体型,以及服装款式的要求还是比较高的。OOTDiffusion如何用?选择好性别、体型和右边的服装,然后点下面的RUN按钮,稍等十几秒就可以生成了。
SupIR

SupIR

SupIR简介 SupIR是一个通过增加模型规模来提升图像修复能力的技术,SupIR能够根据文本提示进行智能修复,提高图像修复的质量和智能程度。SupIR是一种突破性的图像恢复方法,它利用了生成先验和模型放大的力量。利用多模态技术和先进的生成先验,SUPIR标志着智能和逼真的图像恢复的重大进步。作为 SUPIR 中的关键催化剂,模型缩放极大地增强了其功能,并展示了图像恢复的新潜力。SupIR的主要功能:图像修复和文本引导的修复,利用了模型放大、多模态技术和结果表明,SUPIR在各种图像修复任务和复杂处理场景中都有出色的表现,特别是在处理真实世界复杂场景中的能力令人印象深刻。SupIR还进行了用户定制和交互行为,用户可以通过简单的文本指令控制图像修复过程,为图像修复提供了新的交互维度。SupIR应用场景:景观图像修复通过图像修复让大自然栩栩如生,突出风景照片中的自然之美。人脸图像修复展现真实的表情 -- 增强每一个细节,使人像栩栩如生。动物图像修复绒毛和活力:在动物图像修复中将皮毛和魅力带入生活。建筑图像处理用现代技术振兴建筑遗产。游戏图像增强以惊人的清晰度和细节体验重制版游戏世界。电影重生与经典还原以原始的细节体验电影的黄金时代。复古照片修复重新发现过去 - 以生动的清晰和细节将历史带入生活。SupIR技术的应用将极大提升图像修复的效率和质量,为图像处理领域带来了新的突破和可能性。
AI Companion App

AI Companion App

AI Companion App简介 ai Companion App,一键创建和训练属于你的AI伴侣/女朋友。AI Companion App提供了一套框架和开源工具,你可以根据自己的需求和想象,设定AI伴侣的个性、背景故事和能力,然后使用这个框架进行训练和部署。这样,每个人都可以拥有一个定制的AI伴侣,满足他们特定的需求和期望。你可以在浏览器上或通过SMS与你的AI伴侣进行聊天。AI Companion App允许你确定你的伴侣的个性和背景故事,并使用一个带有相似性搜索的向量数据库来检索和提示,使对话具有更深的深度。它还通过将对话保留在队列中并包含在提示中,提供了一些对话记忆。AI Companion App当前包含两种AI伴侣,一种基于大模型GPT,另一种是基于Vicuna的伴侣,都托管在Replicate平台上的。这些伴侣有很多可能的用例-浪漫(AI女友/男友)、友谊、娱乐、教练等。您可以通过您撰写的背景故事和您选择的模型来引导您的同伴找到理想的用例。