Ai开源项目

共 127 篇网址
DragGAN

DragGAN

DragGAN简介 近日,来自 Google 的研究人员与 Max Planck 信息学研究所和麻省理工学院 CSaiL 一起,发布了一个名为 DragGAN 的图像编辑工具。这是一个非常直观的图像编辑工具,用户只需要控制图像中的像素点和方向,就可以让图像变形。通过DragGAN,任何人都可以通过精确控制像素的位置来变形图像,从而操纵不同类别的姿势、形状、表情和布局。DragGANHugging Face地址:https://huggingface.co/papers/2305.10973DragGAN官方示例网址:https://vcai.mpi-inf.mpg.de/projects/DragGAN/DragGANgithub网址:https://github.com/XingangPan/DragGAN DragGAN在producthunt网址:https://www.producthunt.com/posts/draggan
240
长臂猿AIGC系统

长臂猿AIGC系统

长臂猿AIGC系统简介 长臂猿aiGC系统内置智能聊天对话机器人,AI绘图,AI模型训练,营销内容创作,企业虚拟AI员工等数十项AI功能,可以训练自己的AI机器人,不限制用户数量,支持源码私有化部署,可以用自己品牌掘金AI蓝海市。长臂猿AIGC系统提供基于AI的聊天机器人和AI绘图系统产品,多用户支持,源码程序私有化部署,自带分销功能。长臂猿AIGC系统功能:1、智能对话机器人以对话形式实现创作 客服等工作,并可以通过训练拥有自己的机器人2、AIGC系统内置多种训练模型,可以做所有文字类内容创作、图片创作和设计3、企业AI工作平台用AI驱动企业发展,提高人效,企业级AI系统基于大模型开发训练4、AI训练及开发专业技术团队提供各种基于AI的开发服务长臂猿AIGC系统演示地址:https://ai.changbiyuan.com/#/?org_id=1092&invite=64qTNpVtPi
110
SparkAi系统

SparkAi系统

SparkAi系统简介 Sparkai系统演示站入口:https://ai.idcyli.comSparkAi系统演示系统后台:https://ai.idcyli.com/sparkai/admin/#/loginSparkAi系统演示后台账号密码:admin 123456SparkAi系统源码下载:https://pan.baidu.com/s/1_jnAsU_aC_i_mWSjIfyQgw?pwd=vw0oSparkAi系统搭建教程:https://www.sparkaigc.com/33.htmlSparkAi系统搭建配置:https://www.yuque.com/yuqueyonghutq9yt2/ph55oi/ctmn1lg5vz1furqdSparkAi系统使用Nestjs和Vue3框架技术,持续集成AI能力到本系统!支持大模型4.0、Midjourney绘画、GPT3.5 API绘画、GPT联网功能、绘画广场功能、Prompt功能,后台自定义添加,用户也可自定义添加+实时语音识别输入、用户会员套餐、用户每日签到功能、后台管理、一键更新版本!支持手机电脑不同布局页面自适应。● 支持微信环境静默登录(可开启或关闭)、浏览器微信主动扫码登录、邮箱注册登录、手机注册登录● 【可引流至微信公众号】无认证公众号后台可关闭微信登录功能● 支持GPT3模型、GPT4模型、GPT联网功能● Midjourney专业绘画(全自定义调参)、Midjourney以图生图、Dall-E2绘画● MJ同步官方 Vary 指令 单张图片对比加强 Vary(Strong) | Vary(Subtle)● MJ同步官方 Zoom 指令 单张图片无限缩放 Zoom out 2x | Zoom out 1.5x● Mind思维导图生成● 应用工作台(Prompt)、ai绘画广场● 支持直接对接微信官方支付、易支付、码支付、虎皮椒支付● 自定义聚合套餐、代理分销功能● 风控系统(接入百度API敏感词、自定义敏感词)● 用户签到领取功能● 其他更新功能见:https://www.yuque.com/yuqueyonghutq9yt2/ph55oi/ctmn1lg5vz1furqd SparkAi系统源码授权或搭建如果您想要搭建同款站点或者授权系统源码请添加作者!搭建同款系统,请联系qq:501439094或微信:DjiMain,添加时请备注系统源码授权1、【源码授权】目前售价1388永久授权【您将获得】● 永久免费更新特权、后续的更新将不需要任何费用● 站长专属群● 不限量ip换绑、随时换绑服务器● (自行按照教程搭建配置)2、【搭建一条龙服务】目前2588【您将获得】● 源码授权包含套餐● 一条龙搭建好,永久后期帮系统更新● 服务器环境安装、系统部署、后台支付、微信公众号、MJ对接、COS存储桶、KEY池等等● 作者vip服务、作者专属vip指导、保证您的服务稳定● 适合不会任何技术但节省时间想使用此网站的老板。只需要管理和使用即可,技术全包!● (自备服务器,域名,邮箱,存储桶,mj会员,支付接口等)
100
码多多ChatWork知识库系统

码多多ChatWork知识库系统

码多多ChatWork知识库系统简介 码多多ChatWork知识库系统PHP源码版,基于前后端分离架构以及Vue3、uni-app、 ThinkPHP6.x、PostgreSQL、pgvector技术 栈开发,包含PC端,H5端。ChatWork⽀持 问答式和⽂档式知识库,能够导⼊txt、doc、 docx、pdf、md等多种格式⽂档。导⼊数据 完成向量化训练后,⽤户提问即可进⾏向量化 搜索,并且结合⼤语⾔模型进⾏ai回答,可以提升AI回答的专业性和实⽤性。码多多ChatWork知识库系统⽀持对外发布聊天⽹⻚窗⼝、iframe代码、js代 码以及API接⼝,拥有强⼤的第三⽅对接能⼒。适⽤于企业智能客服、企业智能⽂档、专 家顾问助理等多种企业级商⽤场景,具有较⼤的商业使⽤价值。
160
小狐狸AI创作系统

小狐狸AI创作系统

小狐狸AI创作系统简介 小狐狸ai创作系统是一款基于ThinkPHP框架开发的AI问答小程序,它以小狐狸为形象,为用户提供了智能而互动的聊天体验。此外,该系统还集成了全开源的GPT4.0MJ绘画系统AI,使得用户可以使用AI进行绘画创作。小狐狸AI创作系统已上线的功能:1、PC版2、多key轮询3、H5版4、对接公众号5、卡密功能6、ai绘画功能7、角色模拟功能8、4.0接口9、私有知识库(训练)10、多个国内接口小狐狸AI创作系统开发中的功能:1、UI换肤2、windows桌面版3、账号密码登录4、抖音小程序5、其他遗留细节升级小狐狸AI创作系统功能特点系统开源,源码交付,可以自由的进行二次开发长期免费升级,购买享有对一个域名,进行长期免费升级的服务SAAS多开,系统支持无限SAAS多开站点,可以无限进行多开,赚取服务费多个国内接口,已对接百度文心等国内AI接口,更多国内接口正在对接中AI绘画,已完美支持意间和Midjourney绘画接口支持GPT4.0,已对接官方4.0接口完善的分销裂变功能,支持完善的二级分销功能,可以直接进行分销裂变多端支持,PC/H5/小程序多端同步万能创作模型,支持对创作模型进行自定义的添加和修改、删除私有知识库,拥有私有知识库功能,可以对AI进行相应的训练
120
MotionAgent一站式视频生成工具

MotionAgent一站式视频生成工具

MotionAgent一站式视频生成工具简介 MotionAgent是一个能将用户创造的剧本生成视频的深度学习模型工具。用户通过我们提供的工具组合,进行剧本创作、剧照生成、图片/视频生成、背景音乐谱写等工作。其中,通义千问 -7B 模型可以帮助生成高质量的剧本内容,文本生成图片模型可以生成剧照,而核心模型 I2VGen-XL 可以将剧照转化为视频,最后音乐生成模型可以生成想要的音乐。通过 MotionAgent,用户可以将自己的创意轻松变成现实。MotionAgent功能特性1、剧本生成(Script Generation)用户指定故事主题和背景,即可生成剧本,剧本生成模型基于LLM(如Qwen-7B-Chat),MotionAgent可生成多种风格的剧本2、剧照生成(Movie still Generation)通过输入一幕剧本,MotionAgent即可生成对应的剧照场景图片3、视频生成(Video Generation)图生视频,支持高分辨率视频生成4、音乐生成(Music Generation)MotionAgent可自定义风格的背景音乐
220
MagicEdit

MagicEdit

MagicEdit 简介 MagicEdit 是字节跳动的一款视频编辑工具,它可以高保真度和时间连贯性地编辑视频,通过学习明确区分外观和动作,实现高质量的视频编辑,对视频内容和流畅度的控制更加精细。MagicEdit有多种编辑应用,包括视频风格化、局部编辑、视频混合和视频扩展等功能。MagicEdit 可以让用户可以将源视频转换为具有特定风格的新视频,也可以对视频进行局部修改,或者通过视频混合功能创造出新概念,MagicEdit还支持视频扩展功能,可以在不重新训练的情况下进行视频扩展任务。同时,MagicEdit 还提供了方便的素材管理功能,让用户可以轻松组织和复用素材。整个编辑过程流畅快速,让用户可以更高效地完成视频编辑任务。MagicEdit功能:视频造型 - 将源视频转换成新风格或场景的视频局部编辑 - 局部修改视频而保持其他区域不变视频混合 - 混合两个不同概念的视频创造新概念视频扩充 - 不需要重新训练即可实现视频扩充
140
DeepFaceLab

DeepFaceLab

DeepFaceLab简介 DeepFaceLab是一种利用深度学习识别来交换图片和视频中的人脸的工具。这种技术在特定的场合下可以做出非常逼真自然的换脸视频。而 DeepFaceLab 是众多软件中,安装最简单,使用最方便,更新最快的一款软件。DeepFaceLab原版需要一定的英文基础,对于国内用户不是很友好。DeepFaceLab中文网独家推出本地化软件适配,为大家提供“懒人专用” DeepFaceLab 软件下载包!具体内容包含:1.DeepFaceLab官方英文原版2.DeepFaceLab中文汉化版3.DeepFaceLab图形界面汉化版deepfacelab中文网-提供deepfacelab中文汉化下载教程DeepFaceLab功能特性安装方便,环境依赖几乎为零,下载打包 app 解压即可运行(最大优势)添加了很多新的模型新架构,易于模型实验人脸图片使用 JPG 保存,节省空间提高效率CPU 模式,第 8 代 Intel 核心能够在 2 天内完成 H64 模型的训练。全新的预览窗口,便于观察。并行提取并行转换所有阶段都可以使用 DEBUG 选项支持 MTCNN,DLIBCNN,S3FD 等多种提取器支持手动提取,更精确的脸部区域,更好的结果。
160
CodeFormer

CodeFormer

CodeFormer简介 CodeFormer,超强的ai 视频去码、图片修复,人脸修复神器,它的功能包括人脸清晰化修复、人脸色彩化和人脸去马赛克,可以应用于各种场景。由南洋理工大学 S-Lab 开发。它通过网络架构实现了人脸的变换,包括色彩化、清晰化、去马赛克修复等功能。官方给出的测试对比图显示其修复效果非常出色。测试该工具非常简单,只需下载源码并安装 Pytorch 框架即可。通过命令行输入不同的参数,可以进行人脸清晰化修复、人脸色彩化和人脸去马赛克操作。然而,人脸去马赛克算法只支持白色遮挡,其他颜色则不支持,这可能是该工具的一个缺点。Github 4.8k Stars! | CodeFormer: 地表最强AI马赛克去除神器! (附实战教程) 相关资讯: 如何使用CodeFormer修复老旧照片和去除马赛克?
300
TextBase

TextBase

TextBase简介 TextBase 是一款简单的框架,用于构建 ai 聊天机器人,它可以帮助开发人员快速搭建和优化聊天机器人。TextBase简单易用,自由可扩展,是聊天机器人开发的首选框架。Textbase的优点在于它简单易用。你只需要实现main.py中的on_message函数,Textbase就会负责其他所有事情。由于Textbase只是Python代码,所以你可以自由使用任何模型、库、向量数据库和API。TextBase 的简洁设计和强大功能,使其成为人工智能领域的新力量。TextBase 的自然语言处理能力出色,能够理解和生成人类语言,从而实现人机交互。此外,TextBase还可以通过机器学习技术不断提升自身的语言理解和应答能力。TextBase 的出现为 AI 聊天机器人的开发带来了新的可能。TextBase功能:简单的Python框架,只需实现on_message函数完全可自定义,可以使用任何模型和技术支持通过pip安装使用可以轻松部署到服务器未来可扩展性强,可集成更多模型
120
AIdea

AIdea

AIdea简介 aidea是一款开源的AI聚合工具,它将主流的大语言模型和绘图模型集成到一个APP中,为用户提供了丰富的AI应用体验。AIdea 不仅支持GPT 以及国产大语言模型通义千问、文心一言等,支持 Stable Diffusion 文生图、图生图、 SDXL1.0、超分辨率、图片上色的全能型 APP,满足不同用户的需求。AIdea 的代码完全开源,客户端使用 Flutter 开发,支持 Android、iOS、桌面和 Web 多端部署使用。用户可以通过 APP 或不同平台的客户端,体验 AIdea 的全部功能。AIdea集成了主流大语言模型以及绘图模型的 APP, 采用 Flutter 开发,代码完全开源,支持以下功能:支持 GPT-3.5/4 问答聊天;支持国产模型:通义千问,文心一言;支持文生图、图生图、超分辨率、黑白图片上色等功能,集成 Stable Diffusion 模型,支持 SDXL 1.0.AIdea开源代码:客户端:https://github.com/mylxsw/aidea服务端:https://github.com/mylxsw/aidea-server
230
Whisper语音识别模型

Whisper语音识别模型

Whisper语音识别模型简介 Whisper 是Openai 开源音频转文字的语音识别模型。它在不同音频的大型数据集上进行训练,也是一个多任务模型,可以执行多语言语音识别以及语音翻译和语言识别。Whisper有五种模型尺寸,提供速度和准确性的平衡,其中English-only模型提供了四种选择。下面是可用模型的名称、大致内存需求和相对速度。
110
FaceChain

FaceChain

FaceChain简介 妙鸭相机虽然好用,但它是一个需要付费的应用。现在,一个名为 FaceChain 的开源项目可以用 AI 模型打造人物写真。项目上线一周,已经狂揽 2.5k star,今天还上了Github趋势排行榜第一名。FaceChain是一个可以用来打造个人数字形象的深度学习模型工具。用户仅需要提供最低一张照片即可获得独属于自己的个人形象数字替身。FaceChain支持在gradio的界面中使用模型训练和推理能力,也支持资深开发者使用python脚本进行训练推理;同时,我们也欢迎开发者对本Repo进行继续开发和贡献。 FaceChain的模型由ModelScope开源模型社区提供支持。
170
AI Companion App

AI Companion App

AI Companion App简介 ai Companion App,一键创建和训练属于你的AI伴侣/女朋友。AI Companion App提供了一套框架和开源工具,你可以根据自己的需求和想象,设定AI伴侣的个性、背景故事和能力,然后使用这个框架进行训练和部署。这样,每个人都可以拥有一个定制的AI伴侣,满足他们特定的需求和期望。你可以在浏览器上或通过SMS与你的AI伴侣进行聊天。AI Companion App允许你确定你的伴侣的个性和背景故事,并使用一个带有相似性搜索的向量数据库来检索和提示,使对话具有更深的深度。它还通过将对话保留在队列中并包含在提示中,提供了一些对话记忆。AI Companion App当前包含两种AI伴侣,一种基于大模型GPT,另一种是基于Vicuna的伴侣,都托管在Replicate平台上的。这些伴侣有很多可能的用例-浪漫(AI女友/男友)、友谊、娱乐、教练等。您可以通过您撰写的背景故事和您选择的模型来引导您的同伴找到理想的用例。
110
EasyPhoto

EasyPhoto

EasyPhoto简介 EasyPhoto是一款Webui UI插件,用于生成ai肖像画,该代码可用于训练与您相关的数字分身。建议使用 5 到 20 张肖像图片进行训练,最好是半身照片且不要佩戴眼镜(少量可以接受)。训练完成后,我们可以在推理部分生成图像。我们支持使用预设模板图片与上传自己的图片进行推理。重点EasyPhoto是一个Webui UI插件,可以生成AI肖像,用于训练与用户相关的数字化替身。EasyPhoto现在支持多人生成和不同基础模型的训练和推理。EasyPhoto可以在Windows和Linux系统上运行,需要大约60GB的硬盘空间用于保存权重和数据集处理。EasyPhoto插件可以从GitHub安装,未来也将支持从Available安装。EasyPhoto的使用包括模型训练和推理两部分,用户可以上传5到20张照片进行训练,推理部分可以选择单人或多人模式。EasyPhoto的算法包括建筑概览、训练详解和推理详解三部分,主要通过稳定扩散模型和Lora模型生成个性化的肖像图像。
140
Documate

Documate

Documate简介 Documate 是一款针对站内文档问答的开源 ai 工具,旨在将 AI 聊天对话框无缝嵌入到您的网站之中。并使用您的内容生成用户问题的实时答案,有效地充当您平台的人工客服,有了大模型的加持,用户上来几乎可以不读文档,直接与 AI 对话就可以完成自己的需求,对技术类产品文档来说,Documate的价值很高。Documate功能特点:轻松集成: 轻松与VitePress,Docusaurus,Docsify和任何其他文档站点集成,无需AI或LLM知识。完全可控:您拥有代码,拥有您的数据,选择要编制索引的内容。完全可定制:带有经过微调的 UI,可完全自定义以满足您的特定需求。易于使用:无需 AI 或矢量搜索知识。只需执行几个步骤,您就可以在几分钟内将Documate集成到您的网站中。
120
DeepFaceLive

DeepFaceLive

DeepFaceLive简介 DeepFaceLive 是一款免费开源的实时直播视频ai换脸工具软件,它使用深度学习算法创建逼真的换脸视频。它是一种深度伪造技术,可以将一个人的脸部超级放置在另一个人的身体上的视频中。从而实现非常逼真的面部合成效果。由于其高度逼真的效果,DeepFaceLive 在影视、游戏、虚拟现实 等领域具有广泛的应用前景。使用 DeepFaceLive 非常简单,只需要准备好两个人的面部照片,然后使用 DeepFaceLive 的软件进行面部合成即可。在合成过程中DeepFaceLive 会利用深度学习算法 来分析面部表情和动作,并将其合成到目标脸部上,从而实现高度逼真的效果除了在影视、游戏、虚拟现实等领域应用外,DeepFaceLive 还可以用于医学领域,比如用于仿真手术和医学教育等方面。此外DeepFaceLive 还可以用于人脸识别技术 的研究和开发,从而提高人脸识别技术的准确性和鲁棒性。虽然DeepFaceLive可以用于无害的娱乐,但也引发了人们对其潜在滥用的担忧,例如传播虚假信息或制作虚假色情作品。重要的是要意识到与深度伪造技术相关的潜在风险,并负责任地使用它。DeepFaceLive Github项目地址:https://github.com/iperov/DeepFaceLiveDeepFaceLive中文交流论坛:https://dfldata.cc/DeepFaceLive下载地址:https://mega.nz/folder/m10iELBK#Y0H6BflF9C4k_clYofC7yADeepFaceLive 系统要求:任何支持 DirectX12 的显卡(推荐 RTX 2070+ / Radeon RX 5700 XT+ )现代的支持 AVX 指令的 CPU4GB RAM,32GB+ 交换文件Windows 10
230
AI Comic Factory

AI Comic Factory

AI Comic Factory简介 ai Comic Factory 是一个基于Hugging Face的免费开源的在线AI漫画生成工具,使用LLM + SDXL开发,用户只需输入文字描述提示词,AI就能生成精美的漫画作品,生成的照片支持直接无损放大,无需学习成本,适用于各年龄层,广泛应用于社交平台和短视频应用。AI Comic Factory提供多种漫画风格可选择,支持自定义人物形象、背景等元素。并可以利用NLP技术分析输入文本的情感,自动绘制出符合剧情的面部表情及动作,可以将生成的漫画图片下载并用于创作,大大降低了创作漫画的门槛,使普通用户也可以轻松完成漫画创作。AI Comic Factory是一个真正实现了科技与艺术相融合的工具,让每个人都可以轻松地创作出独一无二的漫画风格照片。无论你是漫画爱好者,还是喜欢尝试新技术的科技爱好者,都可以尝试使用这个免费的开源AI漫画生成器,开启你的创意之旅。AI Comic Factory功能:1、智能漫画生成:AI Comic Factory的核心功能是其出色的智能漫画生成能力。它可以将用户提供的文本、故事情节或概念转化为漫画画面,自动选择配色方案、布局和字体,使用户能够以独特而富有创意的方式呈现故事。2、多样化的风格选择:AI Comic Factory提供了多种漫画风格和主题可供选择,从传统的黑白漫画到彩色、卡通风格,满足不同用户的创作需求。这使得用户可以为不同类型的故事选择最合适的风格。3、社区分享和合作:AI Comic Factory还具有社交化的功能,用户可以将他们的漫画作品分享到社区中,与其他创作者互动、合作和获取灵感。这个社区不仅是一个展示作品的平台,还是学习和成长的资源。4、简化的工作流程:该应用程序的用户界面友好,使新手用户和有经验的漫画创作者都能够轻松上手。AI Comic Factory通过简化漫画制作的工作流程,节省了用户的时间和精力。5、CPU支持:AI Comic Factory在CPU上运行,这意味着用户无需拥有高端的GPU或专业的硬件,即可享受到其功能。这种灵活性使更多人能够尝试并享受漫画创作。AI Comic Factory使用步骤:1、输入场景和故事的描述2、选择样式风格;3、选择布局;4、选择字幕;5、生成页面;6、更改页面;7、打印页面;8、保存页面;如果您打算创建多页漫画书,请继续第二页。
70
EmojiGen

EmojiGen

EmojiGen简介 EmojiGen是一个开源的表情符号生成器。它由 Replicate 上的 fofr/sdxl-emoji 提供支持。可以根据用户任意的文字描述生成新的表情符号,不同用户可以获得完全定制的个性表情符号,用户只需要在输入框中输入一个词或短语,EmojiGen就会立即生成相关的表情符号。EmojiGen,应该是世界上最大的表情符号库(约 25 万表情),EmojiGen有大量默认的表情符号,分类为“最新”和“特色”两部分。EmojiGen还有个开源项目,为其他开发者提供了参考,并进行二次开发打造出更多优秀的ai应用。可以利用文本提示生成表情。接受用户的提示,生成一个表情。然后,使用Replicate去除背景。用户可以点击下载并添加到Slack。EmojiGen功能:使用AI技术根据文字生成相关的表情符号。提供大量默认表情符号库(约 25 万表情)。用户可以输入任意文字获得自定义表情符号。生成的图片可以下载保存和在聊天软件中使用。
120
Platon.AI – 柏拉图智能

Platon.AI – 柏拉图智能

Platon.AI - 柏拉图智能简介 Platon.ai柏拉图智能不仅仅是 AI 爬虫,也是 AI agents 的基础设施。 AI agents 要使用工具,就必须高速阅读理解在线网页,理解网页上的每一个元素——这就是 platon.AI 的技术。Platon.AI高效采集并阅读理解复杂网站的AI,完整精确输出数据和知识。使用SQL直接查询互联网,实施商业智能,实现商业洞察。PlatonAI 的自动网页抽取算法是全新的思路,具有显著的性能优势。PlatonAI 将每个网页在浏览器中渲染后,在浏览器中计算出每个 DOM 元素的一系列属性,主要包括元素的位置和大小等,Platon.AI柏拉图智能考察了网页的几何、拓扑、代码结构和语义等各方面的特征,将网页的每一个 DOM 元素建模为流形(manifold)上带属性的矩形,然后进行标准机器学习处理。Platon.AI功能:1、网络数据处理存在以下关键算法难题Platon.AI自动网页提取 - 无人干预自动结构化互联网规模网页,AI辅助网页提取 - 零干预或极少干预,将大规模网页完整精确结构化。2、零干预将网站还原为数据Platon.AI给定入口链接,柏拉图 AI 识别、浏览并解读最重要的链出页,输出全部字段:
110
CustomNet

CustomNet

CustomNet简介 CustomNet旨在更好地将指定物品的图片融合到新生成的图片中,并确保原物品的样式和纹理细节得以还原。这项技术给商品图融合带来了一线生机。在文本到图像的生成过程中,将自定义对象纳入图像生成是一个极具吸引力的功能。然而,现有的基于优化和基于编码器的方法都存在一些缺陷,如优化耗时长、标识保存不足以及复制粘贴效应普遍存在等。为了克服这些局限性,我们引入了 CustomNet,这是一种新颖的对象定制方法,它将三维新颖视图合成功能明确纳入对象定制流程。这种整合有助于调整空间位置关系和视角,在有效保留对象特征的同时产生多样化的输出。此外,我们还引入了微妙的设计,通过文本描述或特定的用户自定义图像实现位置控制和灵活的背景控制,克服了现有三维新颖视图合成方法的局限性。我们还进一步利用数据集构建管道,更好地处理现实世界中的物体和复杂背景。有了这些设计,我们的方法无需进行测试时间优化就能实现零镜头对象定制,同时提供对位置、视点和背景的控制。因此,我们的自定义网络可确保增强的身份保护,并生成多样、和谐的输出。CustomNet 能够在一个统一的框架内同时控制视角、位置和背景,从而在有效保留物体特征和纹理细节的同时,实现和谐的定制图像生成。背景生成可以通过文本描述("生成 "分支)或提供特定的用户自定义图像("合成 "分支)来控制。
1920
易魔声EmotiVoice

易魔声EmotiVoice

易魔声EmotiVoice简介 易魔声EmotiVoice是一个强大的开源TTS引擎,支持中英文双语,包含2000多种不同的音色,以及特色的情感合成功能,支持合成包含快乐、兴奋、悲伤、愤怒等广泛情感的语音。易魔声EmotiVoice提供一个易于使用的web界面,还有用于批量生成结果的脚本接口。当前的实现侧重于通过提示控制情绪/风格。易魔声EmotiVoice只使用音高、速度、能量和情感作为风格因素,而不使用性别。但是将其更改为样式、音色控制并不复杂,类似于PromptTTS的原始闭源实现。所有用户可免费在开源社区GitHub进行下载使用,并通过提供的 web 界面和批量生成结果的脚本接口实现音色的情感合成与应用。
100
Notebook Copilot

Notebook Copilot

Notebook Copilot简介 有了 Notebook CoPilot,开发笔记本的过程变得更加容易。这个简单的工具可以毫不费力地根据您的输入生成代码和 Markdown 单元格,从而显着简化您的工作流程。与语法错误作斗争或花费数小时搜索正确代码片段的日子已经一去不复返了。Notebook CoPilot 智能地分析您的需求,并提供快速的建议和解决方案,因此您可以专注于工作的核心方面。Notebook Copilot 是生产力和效率的缩影。它了解您的意图并提供准确和精确的支持,确保您的笔记本电脑具有最高的专业水准。从自动代码生成到与 Markdown 单元的无缝集成,Notebook CoPilot 简化了复杂性,使您能够轻松交付高质量的工作。将 Notebook Co-Pilot 视为您在 Jupyter 笔记本世界中值得信赖的副驾驶。它引导您了解这个强大环境的复杂性,增强您的编码体验并提高您的工作效率。让 Notebook Copilot 成为您的 ai 伴侣,让您踏上创建非凡笔记本的旅程,展示您的专业知识和创造力。Notebook Copilot优点:Notebook CoPilot 使用高级 GPT 示例进行准确高效的代码生成。在 Jupyter Notebook 和其他流行平台中无缝访问,提高您的工作效率。了解笔记本的完整上下文,确保生成一致且相关的代码。灵活地使用您自己的 OpenAI 密钥来生成个性化代码并获得最佳结果。每个人都可以从 Notebook CoPilot 中受益。这是我们对编码社区的贡献,旨在使编码变得可访问、高效和有趣。Notebook Copilot缺点:虽然 Notebook Copilot 提供了强大的支持,但掌握其功能仍然需要一个学习过程。Notebook CoPilot 自动生成代码和 Markdown 单元格的能力可能是一把双刃剑。虽然 Notebook CoPilot 专为 Jupyter Notebook 设计,但它在与某些 Notebook 版本或扩展的兼容性方面可能存在限制。虽然 Notebook Copilot 提供智能建议和自动化,但它可能与用户的个人编码风格或偏好不完全一致。
180
VideoSrt

VideoSrt

VideoSrt简介 VideoSrt是一个可以识别视频语音自动生成字幕SRT文件的开源软件工具。基于Golang语言,使用lxn/walk Windows-GUI工具包开发的开源软件工具。适用于快速、批量的为媒体(视频/音频)生成中/英文字幕、文本文件的业务场景。VideoSrt具有易用的界面和多种强大功能,使其成为处理媒体字幕的理想选择。VideoSrt需要注册阿里云账号,接入语音引擎,用于语音识别生成字幕文件(和Autosub-ahk功能一样,只不过Autosub-ahk接入的是Google Speech V2 API),也需要注册百度翻译开放平台账号或者腾讯云账号,接入翻译引擎,用于将英文字幕文件翻译为中文字幕文件,具体教程看GitHub简介VideoSrt应用场景:识别视频/音频的语音生成字幕文件(支持中英互译,双语字幕)提取视频/音频的语音文本批量翻译、过滤处理/编码SRT字幕文件VideoSrt优势:使用阿里云语音识别接口,准确度高,标准普通话/英语识别率95%以上视频识别无需上传原视频,方便快速且节省时间支持多任务多文件批量处理支持视频、音频常见多种格式文件支持同时输出字幕SRT文件、LRC文件、普通文本3种类型支持语气词过滤、自定义文本过滤、正则过滤等,使软件生成的字幕更加精准支持字幕中英互译、双语字幕输出,及日语、韩语、法语、德语、西班牙语、俄语、意大利语、泰语等支持多翻译引擎(百度翻译、腾讯云翻译)支持批量翻译、编码SRT字幕文件
130
Deepfakes Creator

Deepfakes Creator

Deepfakes Creator简介 Deepfakes Creator,可以通过文本输入生成逼真的会说话的真人视频。用户只需要上传想要化身模仿的人的照片,并写一个剧本,工具就能创建出逼真的人物化身视频,模拟人物说话。不仅如此,Deepfakes Creator还支持多种语言,并能进行实时问答互动。Deepfakes Creator应用:教育内容:Deepfakes Creator将复杂的教育概念转化为引人入胜的互动学习体验,使信息更容易获得并吸引所有年龄段的学生。企业沟通:Deepfakes Creator生成的视频为企业提供了一种动态的内部沟通方式,非常适合培训、更新或人力资源公告,为企业信息传递增添个人和亲和力。新闻广播:在新闻媒体中,Deepfakes Creator可以化身可以叙述故事或模拟采访,为传统新闻报道提供独特、引人入胜的转折。营销和品牌推广:Deepfakes Creator头像使品牌能够创建独特且令人难忘的营销活动,与品牌形象保持一致,并有效地将产品或服务推向市场。Deepfakes Creator使用步骤:我们将指导您完成以下步骤,以创建自己的视频:1、使用纯文本格式或语音合成标记语言 (SSML) 说话脚本开始。SSML 允许您微调头像的声音,包括发音和特殊术语(如品牌名称)的表达,以及挥手或指向物品等头像手势。2、准备好说话的脚本后,可以使用 Azure TTS 3.1 API 合成视频。除了 SSML 输入之外,您还可以指定人物形象的字符和样式(例如站立或坐着)以及所需的视频格式。在许多情况下,您可能希望在最终视频中添加内容图像或带有文本、插图、动画等的视频。为此,您可以将动画 PowerPoint 演示文稿导出为高分辨率视频。3、最后,结合头像视频、内容和背景音乐等可选元素,以构成您丰富的视频体验。这可以使用 FFmpeg 工具或像 ClipChamp 这样的视频编辑器来完成,以获得更多控制。使用视频编辑器提供了一种直观的方式来微调视频的时间,添加引人入胜的效果和动画。
120
8spAi系统

8spAi系统

8spAi系统简介 8spai系统集成了全模型AI问答、创作、绘画、文生图、思维导图一站搞定!GPT4对话识图、知识库训练、文档提问总结、DALLE-3绘图、Midjourney绘画动态全功能与思维导图自动生成等功能,为用户提供了智能化的服务和体验。8spAi系统已支持OpenAI GPT全模型+国内AI全模型+绘画池系统!8spAi助手是一款在线AI系统,该系统集成了丰富多样的功能,包括AI全模型智能问答、GPT4对话识图、知识库训练、文档提问总结、DALLE-3绘图、Midjourney绘画动态全功能与思维导图自动生成等。无论是在生活还是工作中,8spAi助手都能全方位满足用户的各种需求。让我们来看看该系统的功能特点:AI全模型智能问答:使用最新的AI技术,对用户提出的问题进行智能回答,提供准确的解答和建议。GPT4对话识图:通过对话交互的方式,能够对图片进行识别和解读,帮助用户理解图片内容。知识库训练:用户可以根据自己需求创建自己的知识库,并进行训练和优化,提供更准确的搜索结果和答案。文档提问总结:将大段文本进行分析和总结,提供关键信息和摘要,帮助用户快速了解文档内容。DALLE-3绘图:使用先进的DALLE-3绘图技术,能够生成高质量的图像作品,满足用户的创作需求。Midjourney绘画动态全功能:提供丰富的绘画工具和特效,让用户能够创作出生动有趣的动画作品。思维导图自动生成:根据用户输入的关键词或概念,自动生成思维导图,帮助用户整理和组织思维。8spAi优点:支持最新GPT-4多模态、OpenAI GPT-4-Turbo-With-Vision-128K模型(后续支持对话识图功能)支持最新OpenAI GPT-3.5-Turbo-1106、GPT-4-1106-Preview模型支持对话插件系统,后续逐步增加插件功能,扩展AI能力支持OpenAI DALL-E3文生图插件,可直接对话文生图,搭配GPT4-Turbo使用。通过这些功能,8spAi助手能够为用户提供智能化的服务和解决方案,提升工作效率,满足各种需求。无论是在学习、工作还是创作中,用户都能够依靠8spAi助手获得有力的支持和帮助。
110
InvokeAI

InvokeAI

InvokeAI简介 什么是 Invokeai?InvokeAI 是一个开源项目,它提供了一个简化的过程,具有各种新功能和选项,以帮助使用 Stable Diffusion 模型生成图像过程。稳定扩散模型是一种生成模型,可以从文本或图像提示生成逼真的图像。InvokeAI 支持文本到图像和图像到图像生成,以及各种图像处理任务,例如修复、外绘制、嵌入等。InvokeAI 可在 Windows、Mac 和 Linux 机器上运行,并在低至 4 GB 或 RAM 的 GPU 卡上运行。它提供了行业领先的 Web 界面、交互式命令行界面,并且还充当了多种商业产品的基础。InvokeAI 能做什么?InvokeAI 可以使用最新的 AI 驱动技术生成和创建令人惊叹的视觉媒体。以下是您可以使用 InvokeAI 执行的操作的一些示例:- 从文本提示生成逼真的图像,例如“一条蓝龙飞越城堡”或“一只戴着帽子的可爱猫”。- 根据图像提示生成逼真的图像,例如草图、照片或绘画。- 以各种方式处理图像,例如修复(填充缺失的部分)、外绘(扩展图像)、放大(提高分辨率)等。- 合并多个模型以创建新的和多样化的图像。- 使用文本反转或变体训练您自己的模型。- 使用概念库访问预定义的概念和属性以生成图像。- 使用后处理来提高生成图像的质量和多样性。- 使用 NSFW 检查器过滤掉不适当的图像。如何开始使用 InvokeAI?开始使用 InvokeAI 非常简单。您可以根据自己的偏好和系统要求从不同的安装选项中进行选择。您可以使用自动安装程序、手动安装指南、docker 安装指南或源安装程序。您还可以在其 GitHub 页面或其网站上找到有关如何使用 InvokeAI 的详细文档。安装 InvokeAI 后,您可以开始使用最新的 AI 驱动技术生成和创建令人惊叹的视觉媒体。您可以使用 Web Interface 访问用户友好的图形界面,该界面允许您与 InvokeAI 的模型和功能进行交互。您还可以使用命令行界面访问功能强大且灵活的界面,该界面允许您自定义调用和脚本。您可以在文档页面上找到有关如何使用这两个接口的示例和教程。InvokeAI 是一个开源项目,欢迎任何有兴趣开发和改进它的人做出贡献。您可以加入 Discord 服务器以与其他开发人员和用户联系、报告错误、请求功能、分享想法并获得帮助。您还可以查看 GitHub 页面以查看源代码、提交拉取请求或分叉项目。InvokeAI 是 Stable Diffusion 模型的领先创意引擎,它使专业人士、艺术家和爱好者能够使用最新的 AI 驱动技术生成和创建视觉媒体。如果你有兴趣与人工智能共同创造,我鼓励你尝试一下InvokeAI,看看你能用它创造出什么令人惊奇的东西。InvokeAI优点:这是一个开源项目,它为使用 Stable Diffusion 模型生成高质量图像提供了简化的过程。它提供了行业领先的 Web 界面、交互式命令行界面,并且还作为多种商业产品的基础。它支持低至 4 GB RAM 的 GPU 卡,可在 Windows、Mac 和 Linux 机器上运行。它具有各种功能和选项来帮助图像生成过程,例如修复、出彩、模型合并、后处理、变化等。它有一个庞大而活跃的开发人员和用户社区,他们为项目做出贡献并提供反馈和支持。
120
LiveSketch

LiveSketch

LiveSketch简介 LiveSketch是一款ai生成视频工具,用户通过文本提示将静态素描转化为动画,它提供了一种简单直观的方法,使他们的素描变得生动活泼。无论是用于讲故事、插图、网站设计还是演示文稿,LiveSketch都能赋予静态素描图生命,使其更加丰富有趣。只需要简短的一句文本提示,LiveSketch就能让寥寥几笔涂鸦成真,输出生动活泼的的SVG动画片段,而且易于编辑和调整,可以通过文本控制动画的动作和幅度。草图是人类用来直观、最通用的工具之一,用于直观地传达他们的想法。动画草图为思想的表达打开了另一个维度,并被设计师广泛用于各种目的。草图动画是一个费力的过程,需要丰富的经验和专业的设计技能。 在这项工作中,我们针对LiveSketch提出了一种方法,该方法只需提供指示所需运动的文本提示,即可自动将运动添加到单主题草图中(因此,“为它注入生命”)。 输出是以矢量表示形式提供的简短动画,可以轻松编辑LiveSketch。我们的方法不需要大量的训练,而是利用大型预训练文本到视频扩散模型的运动先验,使用分数蒸馏损失来指导笔画的位置。 为了促进自然和流畅的运动,并更好地保留草图的外观,我们通过两个组件对学习到的运动进行建模。第一个控制小的局部变形,第二个控制全局仿射变换。令人惊讶的是,我们发现,即使是难以自行生成草图视频的模型,LiveSketch仍然可以作为动画抽象表示的有用骨干。LiveSketch有很大局限性。首先,目前来说,它只能通过简单地修改描述运动的提示,对生成结果进行一定程度的控制。这些修改和控制仅限于模型可以创建的小动作,且文本提示需要与初始草图的语义一致,当主体包含多个对象时,则无法进行区分了。未来,LiveSketch这类技术或许还能在艺术创作、儿童教育等领域大放异彩,大大降低艺术创造的门槛,提升教育的趣味性和互动性。
90
LucidDreamer

LucidDreamer

LucidDreamer简介 随着VR设备和内容的广泛使用,对3D场景生成技术的需求越来越普遍。然而,现有的 3D 场景生成模型将目标场景限制在特定领域,这主要是因为它们使用的 3D 扫描数据集与现实世界相去甚远。为了解决这种局限性,我们提出了LucidDreamer,这是一个无域场景生成管道,它充分利用了现有大规模基于扩散的生成模型的强大功能。LucidDreamer项目地址:https://luciddreamer-cvlab.github.io/我们的 LucidDreamer 有两个交替步骤:做梦和对齐。首先,为了从输入生成多视图一致的图像,我们将点云设置为每次生成图像的几何参考。具体来说,我们将一部分点云投影到所需的视图,并提供投影作为使用生成模型进行修复的指导。使用估计的深度图将绘制的图像提升到 3D 空间,从而组成一个新点。其次,为了将新点聚合到3D场景中,我们提出了一种对齐算法,该算法将新生成的3D场景的各个部分和谐地集成在一起。最终得到的3D场景是优化高斯飞溅的初始点。与以前的 3D 场景生成方法相比,LucidDreamer 生成的高斯飞溅非常详细,对目标场景的域没有限制。LucidDreamer 可以接受一系列文本提示来生成场景,从而实现细粒度的控制。基于 CLIP 的 Stable Diffusion 生成的图像对生成的场景进行定量比较。 我们使用 CLIP-Score 和 CLIP-IQA 与 RGBD2 对结果进行定量比较。 对于 CLIP-IQA,我们使用质量、色彩鲜艳和清晰的标准。 LucidDreamer 在所有指标上都显示出占主导地位的结果。根据初始SfM点的来源重建高斯飞溅的度量。我们使用 COLMAP并比较重建结果。使用我们的点云始终如一地显示出更好的重建指标。
110
DreaMoving

DreaMoving

DreaMoving简介 DreaMoving,一种基于扩散的可控视频生成框架,用于生成高质量的定制人类舞蹈视频。具体来说,给定目标身份和姿势序列,DreaMoving 可以生成目标身份在姿势序列驱动下在任何地方跳舞的视频。为此,我们提出了一个用于运动控制的视频控制网络和一个用于身份保留的内容指南。所提出的模型易于使用,并且可以适应大多数风格化的扩散模型以生成不同的结果。DreaMoving项目地址:https://dreamoving.github.io/dreamovingDreaMoving 概述:Video ControlNet 是在每个 U-Net 块之后注入运动块的图像 ControlNet。Video ControlNet 将控制序列(姿态或深度)处理为额外的时间残差。Denoising U-Net 是一种衍生的 Stable-Diffusion U-Net,带有用于视频生成的运动块。内容导览器将输入文本提示和外观表达式(如人脸(布料是可选的))传输到内容嵌入中,以便交叉注意。结果:DreaMoving 可以生成高质量和高保真度的视频,给定指导序列和简单的内容描述,例如文本和参考图像作为输入。具体来说,DreaMoving 通过人脸参考图像、通过姿势序列进行精确运动操作以及由指定文本提示提示的全面视频外观控制来展示身份控制的熟练程度。
60