ComfyUI Portrait Master简体中文版

5个月前发布 12 0 0

ComfyUI Portrait Master简体中文版简介 ComfyUI Portrait Master 肖像大师简体中文版,超详细参数设置!再也不用为不会写人像提示词发愁啦!重新优化为ison列表更方便自定义和扩展!已包含标准工作流和turbo工作流,大家快去玩!ComfyUI项目地址:https://github.com/ZHO-...

收录时间:
2024-11-21 22:06:45
更新时间:
2025-04-15 13:40:27
ComfyUI Portrait Master简体中文版ComfyUI Portrait Master简体中文版
ComfyUI Portrait Master简体中文版
ComfyUI Portrait Master简体中文版简介 ComfyUI Portrait Master 肖像大师简体中文版,超详细参数设置!再也不用为不会写人像提示词发愁啦!重新优化为ison列表更方便自定义和扩展!已包含标准工作流和turbo工作流,大家快去玩!ComfyUI项目地址:https://github.com/ZHO-ZHO-ZHO/comfyui-portrait-master-zh-cnComfyUI系统教程:https://space.bilibili.com/484366804参数说明 | Parameters镜头类型:头像、肩部以上肖像、半身像、全身像、脸部肖像性别:女性、男性国籍_1:193个国家可选国籍_2:193个国家可选眼睛颜色:琥珀色、蓝色等8种面部表情:开心、伤心、生气、惊讶、害怕等24种脸型:椭圆形、圆形、梨形等12种发型:法式波波头、卷发波波头、不对称剪裁等20种头发颜色:金色、栗色、灰白混合色等9种灯光类型:柔和环境光、日落余晖、摄影棚灯光等32种灯光方向:上方、左侧、右下方等10种起始提示词:写在开头的提示词补充提示词:写在中间用于补充信息的提示词结束提示词:写在末尾的提示词提高照片真实感:可强化真实感负面提示词:新增负面提示词输出提示词合成顺序 | Prompt composition order起始提示词镜头类型 + 镜头权重国籍 + 性别 + 年龄眼睛颜色面部表情 + 面部表情权重脸型发型头发颜色头发蓬松度补充提示词皮肤细节皮肤毛孔皮肤瑕疵酒窝雀斑痣眼睛细节虹膜细节圆形虹膜圆形瞳孔面部对称性灯光类型 + 灯光方向结束提示词提高照片真实感自定义 | Customizations可将需要自定义增加的内容写到lists文件夹中对应的json文件里(如发型、表情等)使用建议 | Practical advice皮肤和眼睛细节等参数过高时可能会覆盖所选镜头的设置。在这种情况下,建议减小皮肤和眼睛的参数值,或者插入否定提示(closeup, close up, close-up:1.5),并根据需要修改权重。安装 | Installcd custom_nodesgit clone https://github.com/ZHO-ZHO-ZHO/comfyui-portrait-master-zh-cn.git重启 ComfyUI

数据统计

数据评估

ComfyUI Portrait Master简体中文版浏览人数已经达到12,如你需要查询该站的相关权重信息,可以点击"5118数据""爱站数据""Chinaz数据"进入;以目前的网站数据参考,建议大家请以爱站数据为准,更多网站价值评估因素如:ComfyUI Portrait Master简体中文版的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找ComfyUI Portrait Master简体中文版的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于ComfyUI Portrait Master简体中文版特别声明

本站400AI工具导航提供的ComfyUI Portrait Master简体中文版都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由400AI工具导航实际控制,在2024年11月21日 22:06收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,400AI工具导航不承担任何责任。

相关导航

Personalized Restoration

Personalized Restoration

Personalized Restoration简介 Personalized Restoration,一个面部图像精准恢复和个性编辑技术,Personalized Restoration不仅能复原受损图像细节,同时能精准捕捉和重现个人独特的面部特征,确保恢复的图像既清晰自然,又忠实于原始面貌。同时它还支持换脸。Personalized Restoration通过先进的双轴调整方法——结合文本引导和模型调整——确保恢复的图像既忠实于原始面貌,又保持个人的独特身份。此外,Personalized Restoration还支持文本引导的编辑,允许用户通过简单的文本提示来改变恢复图像的特定细节。Personalized Restoration功能特色:利用参考图像个性化扩散先验在去噪框架中保留面部身份信息保留退化图像的视觉属性Personalized Restoration使用场景:针对某位明星的几张参考照片,个性化扩散模型进行人像图像复原使用不同个性化模型实现人脸互换效果结合文字提示实现个性化模型的文本导向编辑Personalized Restoration主要功能和作用:假设你有一张模糊的老照片,是你的外祖父在年轻时的样子。这张照片非常重要,但因为年代久远,这张照片非常模糊,颜色褪色,面部细节几乎无法辨认。你想恢复这张照片,使其看起来更清晰、更接近原始状态。传统的图像恢复技术可能会使照片变得更清晰,但可能会丢失你祖父独特的面部特征,如特定的微笑或眼睛的形状。这是因为传统技术通常依赖于一般性的图像模型,这些模型并不专门针对你祖父的独特外观。Personalized Restoration调整过程:1、文本引导的调整阶段:假设你还有一些外祖父其他时期的清晰照片。这些照片和一些描述性文本(如“年轻时的外祖父,戴着眼镜,有着特别的笑容”)被用来微调生成模型G。这个微调过程让模型能够了解和学习你外祖父的独特面部特征,比如他的眼睛形状、微笑的方式等。2、模型基础的调整阶段:接下来,引导网络E在固定了微调过的生成模型G的基础上进行调整。这一步骤的目的是让引导网络在恢复模糊照片时,能够同时考虑到个性化特征(比如外祖父的笑容)和图像的其他方面(如颜色和清晰度)。最终结果是:恢复后的照片不仅变得清晰,颜色和细节也都得到了改善。更重要的是,这张照片忠实地反映了你外祖父的独特面部特征,让人一看就能认出是他。通过这种双轴调整方法,这个系统能够在保留个人独特特征的同时,恢复出自然且高质量的图像,使得老照片得以新生,且更具个人记忆的价值。同时它还支持面部交换功能,可以将个人特征应用于其他图像,打造出全新的视觉体验。例如,你可以将某人的面部特征转移到另一个人的照片上。此外,它还支持文本引导的编辑,允许用户使用提示修饰符(如“微笑”和“蓝眼睛”)可以启用 与修复一起进行相关编辑。
Unique3D

Unique3D

Unique3D简介 Unique3D 在 30 秒内从单视图野生图像生成高保真、多样化纹理网格,当然运行速度取决于你的硬件资源情况。Unique3D主要功能:高保真度生成:Unique3D 实现了最先进的生成保真度,可生成细致复杂的纹理和复杂的几何形状。这是通过多视图扩散模型来实现的,该模型生成正交多视图图像和相应的法线贴图。效率:框架效率高,能够在30秒内生成高保真3D网格。这种效率归功于快速前馈模型和称为 ISOMER 的即时网格重建算法的集成。一致性:Unique3D 通过使用多级升级流程逐步提高生成图像的分辨率,确保生成视图的一致性。 ISOMER 算法将颜色和几何先验集成到网格结果中,解决了先前方法中发现的不一致问题。通用性:该框架表现出很强的通用性,在各种不同风格的野生2D图像上表现良好。大量实验证明了这一点,这些实验表明 Unique3D 在保真度、几何细节和分辨率方面优于现有方法。多级升级策略:Unique3D采用多级升级策略来逐步增强生成图像的分辨率。这涉及微调多视图感知 ControlNet 并使用超分辨率模型来实现高分辨率输出。法线贴图预测:为了捕捉丰富的表面细节,Unique3D 使用法线扩散模型来预测与多视图彩色图像相对应的法线贴图。这提高了几何细节的准确性,尤其是边缘处。ExplicitTarget 优化:为了解决多视图不一致问题并细化几何细节,Unique3D 引入了 ExplicitTarget 优化。该方法为每个顶点分配唯一的优化目标,比传统方法更稳健地指导优化方向。Unique3D特征:在 30 秒内生成高保真纹理网格。5 天内仅使用 8 个 RTX4090 GPU 进行训练。利用多视图扩散模型和法线扩散模型来生成多视图图像和法线贴图。采用多级升级流程来提高分辨率。使用 ISOMER 进行即时且一致的网格重建。Unique3D由清华大学和AVAR Inc.的研究团队共同开发。Unique3D官网入口:Unique3D 在线使用:https://huggingface.co/spaces/Wuvin/Unique3DUnique3D 项目地址:https://wukailu.github.io/Unique3D/Unique3D Github:https://github.com/AiuniAI/Unique3D
CodeFormer

CodeFormer

CodeFormer简介 CodeFormer,超强的ai 视频去码、图片修复,人脸修复神器,它的功能包括人脸清晰化修复、人脸色彩化和人脸去马赛克,可以应用于各种场景。由南洋理工大学 S-Lab 开发。它通过网络架构实现了人脸的变换,包括色彩化、清晰化、去马赛克修复等功能。官方给出的测试对比图显示其修复效果非常出色。测试该工具非常简单,只需下载源码并安装 Pytorch 框架即可。通过命令行输入不同的参数,可以进行人脸清晰化修复、人脸色彩化和人脸去马赛克操作。然而,人脸去马赛克算法只支持白色遮挡,其他颜色则不支持,这可能是该工具的一个缺点。Github 4.8k Stars! | CodeFormer: 地表最强AI马赛克去除神器! (附实战教程) 相关资讯: 如何使用CodeFormer修复老旧照片和去除马赛克?
WhisperFusion

WhisperFusion

WhisperFusion简介 WhisperFusion 建立在开源工具 WhisperLive 和 WhisperSpeech 的功能之上。WhisperFusion可以让你和ai聊天机器人进行超低延迟对话,同时它还整合了Mistral模型,增强对转录文本上下文的理解。使得WhisperFusion能更好地理解人说的每句话背后的意思。WhisperFusion 的主要功能:1、实时语音转文本:利用 OpenAI WhisperLive 进行转换将口语实时转换为文本,方便进行后续的处理和回应。2、整合大语言模型:通过加入 Mistral 这样的大语言模型,WhisperFusion 能够更好地理解转换成文字的语音内容,提高回应的准确性和相关性。3、性能优化:使用 TensorRT 技术对语言模型和 Whisper 进行了优化,确保了快速、高效的处理能力,特别是在实时语音转文本的应用中。4、推理加速:利用 torch.compile 对 WhisperSpeech 进行优化,通过即时编译(JIT)PyTorch 代码,进一步加快了处理速度,减少了延迟。5、易于使用:提供预构建的 Docker 容器,包含了所有必要的组件和模型,用户可以很容易地开始使用 WhisperFusion,体验其功能。了解WhisperLive和WhisperSpeech:WhisperLive 是 OpenAI 的 Whisper 的一个实时转录应用程序,它使用 OpenAI Whisper 模型将语音输入转换为文本输出。它可用于转录来自麦克风的实时音频输入和预先录制的音频文件。与依赖连续音频流的传统语音识别系统不同,我们使用语音活动检测 (VAD) 来检测语音的存在,并且仅在检测到语音时才将音频数据发送到 Whisper。这有助于减少发送到 Whisper 模型的数据量,并提高转录输出的准确性。查看我们的转录帖子和 WhisperLive 存储库了解更多详情。WhisperSpeech 是开源文本转语音技术领域的重大进步。该模型由 Collabora 开发,其重点是提供听起来自然的语音以改善沟通。其目的是创建一个具有多语言功能的适应性强且无缝集成的 TTS 模型。WhisperFusion通过使用 WhisperLive 和 WhisperSpeech 的快速处理能力以及低延迟的通信实现,您可以实现实时、高效、智能的通信。这种适应性可确保您的模式在业务扩展时保持领先一步,同时满足客户的需求,这是提供一流服务的标志。
YouDub-Webui

YouDub-Webui

YouDub-Webui简介 YouDub-webui是一款开源的多语言ai配音和视频翻译工具,YouDub-webui提供了一套完整的视频中文化工具包,涵盖了从视频下载、语音识别、字幕翻译、AI声音克隆、视频处理、自动上传等一系列流程。YouDub-webui 是 YouDub 项目的网页交互版本,基于 Gradio 构建,为用户提供简易操作界面来访问和使用 YouDub 的强大功能。YouDub 是一个开创性的开源工具,能将 YouTube 和其他平台上的高质量视频翻译和配音成中文版本。YouDub-webui结合了最新的 AI 技术,包括语音识别、大型语言模型翻译,以及 AI 声音克隆技术,提供与原视频相似的中文配音,为中文用户提供卓越的观看体验。YouDub-webui主要特点视频下载: 支持通过链接直接下载 YouTube 视频。无论是单个视频、播放列表还是频道内的多个视频,均能轻松下载。AI 语音识别: 利用先进的 AI 技术,将视频中的语音高效转换为文字。不仅提供精确的语音到文本转换,还能自动对齐时间并识别不同说话者,极大地增强了信息的丰富性和准确性。大型语言模型翻译: 结合大型语言模型如 GPT,实现快速且精准的中文翻译。无论是俚语还是专业术语,均能得到恰当的翻译,确保内容的准确性与地道性。AI 声音克隆: 通过 AI 声音克隆技术,生成与原视频配音相似的中文语音。这不仅提升了视频的观看体验,也保留了原视频的情感和语调特色。视频处理: 综合了音视频同步处理、字幕添加、视频播放速度调整和帧率设置等多项功能。用户可以根据需要生成高质量的最终视频,实现无缝的观看体验。自动上传: 支持将最终视频自动上传到 Bilibili 平台。用户可以在不离开 YouDub-webui 的情况下,将视频上传到 Bilibili 平台,实现一键式的视频中文化处理。YouDub-webui技术细节AI 语音识别:我们的 AI 语音识别功能现在基于 WhisperX 实现。WhisperX 是一个高效的语音识别系统,建立在 OpenAI 开发的 Whisper 系统之上。它不仅能够精确地将语音转换为文本,还能自动对齐时间,并识别每句话的说话人物。这种先进的处理方式不仅提高了处理速度和准确度,还为用户提供了更丰富的信息,例如说话者的识别。大型语言模型翻译:我们的翻译功能继续使用 OpenAI API 提供的各种模型,包括官方的 GPT 模型。同时,我们也在利用诸如 api-for-open-llm 这样的项目,这使我们能够更灵活地整合和利用不同的大型语言模型进行翻译工作,确保翻译质量和效率。AI 声音克隆:在声音克隆方面,我们已经转向使用 Coqui AI TTS。同时,对于单一说话人的情况,我们采用了火山引擎进行 TTS,以获得更优质的音质。火山引擎的高级技术能够生成极其自然且流畅的语音,适用于各种应用场景,提升了最终产品的整体质量。视频处理:在视频处理方面,我们依然强调音视频的同步处理。我们的目标是确保音频与视频画面的完美对齐,并生成准确的字幕,从而为用户提供一个无缝且沉浸式的观看体验。我们的处理流程和技术确保了视频内容的高质量和观看的连贯性。YouDub-webui 适用于多种场景,包括教育、娱乐和专业翻译,特别适合那些希望将国外优秀视频内容本地化的用户。此工具的简洁界面使得即使是非技术用户也能轻松上手,实现视频的快速中文化处理。YouDub-webui 的这些特点使其成为一个强大且易于使用的视频中文化工具,无论是个人用户还是专业团队,都能从中受益。
Cody Former

Cody Former

Cody Former简介 CodeFormer是一个高级的人工智能图像处理工具,Cody Former专注于面部修复、图片清晰化以及视频去除马赛克和修复。CodeFormer利用了先进的ai技术,包括基于Transformer的架构和注意力机制,能够有效地分析和处理图像,使之恢复如新,增强颜色,恢复面部细节,并减少照片中的噪点。CodeFormer特别适用于老照片的修复,使得珍贵的记忆得以生动再现。CodeFormer作为一个开源项目,在GitHub上可以找到其源代码和相关文档,支持通过GPU或CPU进行加速处理,但使用GPU需要确保系统配置满足CUDA和cuDNN的要求。对于非技术用户,它也提供了图形界面的一键安装版本,简化了安装和使用流程。此外,CodeFormer在处理效果上被广泛认为是非常强大的,能够实现马赛克去除,提升图像质量,甚至在视频修复领域也有出色表现。CodeFormer项目地址:https://shangchenzhou.com/projects/CodeFormer/ CodeFormer下载地址:https://github.com/sczhou/CodeFormerCodeFormer主要功能特征:1、图像修复与增强人脸修复:特别擅长处理低质量、模糊或损坏的面部图像,能够去除图像中的噪声、马赛克,修复划痕或模糊区域,恢复细节,使面部图像接近原始清晰度和色彩。色彩化:能够将黑白或单色图像转换为彩色,赋予历史照片新的生命。破损图像修复:对于缺失部分或涂鸦破坏的图像,CodeFormer能进行智能修复,尽可能恢复原貌。多人图像增强:不仅适用于单人图像,也能处理包含多个人物的图片,提升整体图像质量。自动编码器技术:利用自动编码器实现图像变换,包括清晰化和色彩调整,优化图像视觉效果。2、视频处理视频增强去码:针对视频中的模糊、抖动、颜色失真等问题,CodeFormer能提供修复,提升视频的清晰度和稳定性。超分辨率重建:能够将低分辨率视频升级到高分辨率,改善观看体验。帧级处理:逐帧分析和修复视频,确保整个视频的一致性和高质量。CodeFormer的安装步骤是什么?1、确保Python环境:首先,需要安装Python 3.8版本。你可以直接从Python官网下载Python 3.8,避免使用最新版本以防止潜在的依赖问题。或者,选择安装Anaconda,它是一个包含Python和众多科学计算库的发行版,便于管理环境。安装Anaconda后,创建一个名为codeformer的虚拟环境,指定Python版本为3.8。2、安装Git:下载并安装Git,这是一个版本控制系统,用于从GitHub上克隆CodeFormer的源代码。3、安装PyTorch:对于PyTorch的安装,推荐使用命令行工具(如Anaconda Prompt而非普通CMD),输入特定命令安装PyTorch,确保选择与你的Python环境兼容的版本。如果遇到“conda”命令不可用的问题,确保在Anaconda Powershell Prompt中执行安装命令。4、克隆CodeFormer源码:打开终端(如Windows的CMD或Anaconda Prompt),使用git clone https://github.com/sczhou/CodeFormer命令将CodeFormer项目从GitHub复制到本地。5、安装依赖库:进入克隆后的CodeFormer文件夹,通过运行pip install -r requirements.txt -q来安装所有必需的Python库。如果遇到安装速度慢的问题,可以使用国内的镜像站,如清华大学的TUNA镜像,通过添加-i https://pypi.tuna.tsinghua.edu.cn/simple来加速下载。但需注意,某些库可能在特定镜像站中不可用,如tb-nightly,这时可能需要单独从其他镜像站如阿里云下载。6、配置环境:确保所有操作都在CodeFormer的项目目录下进行,避免路径错误。7、额外处理:如果在使用镜像站时遇到特定库无法安装的问题,比如tb-nightly,需要单独处理,例如使用阿里云的镜像安装该库。完成上述步骤后,理论上CodeFormer的环境就搭建完成了,接下来可以按照项目文档的指示进行模型的编译和使用,以便开始人脸修复或其他图像处理任务。对于不熟悉编程的用户,推荐直接使用官方提供的在线服务,以更简单的方式体验CodeFormer的功能。 相关资讯: 如何使用CodeFormer修复老旧照片和去除马赛克?
MimicMotion

MimicMotion

MimicMotion简介 腾讯和上交大出的,MimicMotion可以生成任意长度、具有任何动作指导的高质量视频生成框架,可以生成细节丰富、逼真的人类动作视频,可以生成任意长度的视频内容,可以对视频内容进行精确控制,包括动作、姿势和视频风格等。类似阿里的通义舞王,但效果看起来比阿里通义舞王好很多,MimicMotion支持面部特征和唇形同步,不止可以搞跳舞视频,也可以做数字人。近年来,生成式人工智能在图像生成领域取得了重大进展,催生了多种应用。然而,视频生成在可控性、视频长度、细节丰富度等各方面仍面临相当大的挑战,阻碍了该技术的应用和普及。在这项工作中,我们提出了一种可控视频生成框架,称为 MimicMotion,它可以在任何运动指导下生成任意长度的高质量视频。与以前的方法相比,我们的方法有几个亮点。首先,通过置信感知姿势指导,可以实现时间平滑性,从而可以通过大规模训练数据增强模型的连贯流畅。其次,基于姿态置信度的区域损失放大显着减轻了图像的失真,能够显著减少生成图像中的扭曲和变形。最后,为了生成流畅的长视频,提出了一种渐进式潜在融合策略。通过这种方式,能够在可接受的计算资源消耗下,实现任意长度视频的生成。通过大量的实验和用户研究,MimicMotion 在多个方面比阿里的通义舞王的方法有了明显的改进。MimicMotion代码:https://github.com/Tencent/MimicMotionMimicMotion ComfyUI版本:https://github.com/aiFSH/ComfyUI-MimicMotion
RMBG-2.0

RMBG-2.0

RMBG-2.0简介 RMBG-2.0是由BRIA ai开发的开源图像背景移除模型,它通过卷积神经网络(CNN),来实现高精度的前景与背景分离。RMBG-2.0模型在精心挑选的数据集上进行了训练,包括:一般图像、电子商务、游戏和广告内容,使其适用于支持大规模企业内容创建的商业用例。其准确性、效率和多功能性目前可与领先的 Source Available 型号相媲美。RMBG-2.0主要功能:高精度背景移除:能够准确地从各种类型的图像中分离前景对象。商业用途支持:适用于电子商务、广告设计和游戏开发等领域,支持大规模的企业级内容创作。云服务器无关架构:设计灵活,可以在不同的云平台和服务器上运行,便于扩展。多模态归因引擎:通过处理多种类型的数据(如图像与文本),增强模型的泛化能力,提高背景移除的准确性。数据训练平台:支持大规模数据训练,持续提升模型性能。RMBG-2.0技术原理与特性:深度学习基础:基于深度学习,尤其是CNN,来识别和分离前景与背景。数据训练:在大量标注数据上训练,学习精确的前景背景区分。多模态处理:利用多模态数据提高模型理解图像内容的能力。云无关性:确保模型的部署不依赖特定云环境,增加灵活性。数据烘焙:通过数据增强和预处理,提升模型对新场景的适应性和鲁棒性。RMBG-2.0如何使用?使用该模型只需简单的Python库调用,使用者可以方便地对图像进行背景去除,例如,通过Hugging Face的库加载模型,并进行图像预处理,即可实现背景移除。用户需要安装torch、torchvision、pillow、kornia和transformers等依赖库。RMBG-2.0许可与应用:RMBG-2.0以Creative Commons许可供非商业使用,商业应用需与BRIA签订协议。相比于前代版本,RMBG-2.0的准确率显著提升,从73.26%增加到90.14%,超越了一些知名的商业工具,如remove.bg。