AI Companion App

5个月前发布 11 0 0

AI Companion App简介 ai Companion App,一键创建和训练属于你的AI伴侣/女朋友。AI Companion App提供了一套框架和开源工具,你可以根据自己的需求和想象,设定AI伴侣的个性、背景故事和能力,然后使用这个框架进行训练和部署。这样,每个人都可以拥有一个定制的AI伴侣,满足他们特定的需求和期望。你可以...

收录时间:
2024-11-21 22:07:58
更新时间:
2025-04-18 16:20:24
AI Companion AppAI Companion App
AI Companion App
AI Companion App简介 ai Companion App,一键创建和训练属于你的AI伴侣/女朋友。AI Companion App提供了一套框架和开源工具,你可以根据自己的需求和想象,设定AI伴侣的个性、背景故事和能力,然后使用这个框架进行训练和部署。这样,每个人都可以拥有一个定制的AI伴侣,满足他们特定的需求和期望。你可以在浏览器上或通过SMS与你的AI伴侣进行聊天。AI Companion App允许你确定你的伴侣的个性和背景故事,并使用一个带有相似性搜索的向量数据库来检索和提示,使对话具有更深的深度。它还通过将对话保留在队列中并包含在提示中,提供了一些对话记忆。AI Companion App当前包含两种AI伴侣,一种基于大模型GPT,另一种是基于Vicuna的伴侣,都托管在Replicate平台上的。这些伴侣有很多可能的用例-浪漫(AI女友/男友)、友谊、娱乐、教练等。您可以通过您撰写的背景故事和您选择的模型来引导您的同伴找到理想的用例。

数据统计

数据评估

AI Companion App浏览人数已经达到11,如你需要查询该站的相关权重信息,可以点击"5118数据""爱站数据""Chinaz数据"进入;以目前的网站数据参考,建议大家请以爱站数据为准,更多网站价值评估因素如:AI Companion App的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找AI Companion App的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于AI Companion App特别声明

本站400AI工具导航提供的AI Companion App都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由400AI工具导航实际控制,在2024年11月21日 22:07收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,400AI工具导航不承担任何责任。

相关导航

InvokeAI

InvokeAI

InvokeAI简介 什么是 Invokeai?InvokeAI 是一个开源项目,它提供了一个简化的过程,具有各种新功能和选项,以帮助使用 Stable Diffusion 模型生成图像过程。稳定扩散模型是一种生成模型,可以从文本或图像提示生成逼真的图像。InvokeAI 支持文本到图像和图像到图像生成,以及各种图像处理任务,例如修复、外绘制、嵌入等。InvokeAI 可在 Windows、Mac 和 Linux 机器上运行,并在低至 4 GB 或 RAM 的 GPU 卡上运行。它提供了行业领先的 Web 界面、交互式命令行界面,并且还充当了多种商业产品的基础。InvokeAI 能做什么?InvokeAI 可以使用最新的 AI 驱动技术生成和创建令人惊叹的视觉媒体。以下是您可以使用 InvokeAI 执行的操作的一些示例:- 从文本提示生成逼真的图像,例如“一条蓝龙飞越城堡”或“一只戴着帽子的可爱猫”。- 根据图像提示生成逼真的图像,例如草图、照片或绘画。- 以各种方式处理图像,例如修复(填充缺失的部分)、外绘(扩展图像)、放大(提高分辨率)等。- 合并多个模型以创建新的和多样化的图像。- 使用文本反转或变体训练您自己的模型。- 使用概念库访问预定义的概念和属性以生成图像。- 使用后处理来提高生成图像的质量和多样性。- 使用 NSFW 检查器过滤掉不适当的图像。如何开始使用 InvokeAI?开始使用 InvokeAI 非常简单。您可以根据自己的偏好和系统要求从不同的安装选项中进行选择。您可以使用自动安装程序、手动安装指南、docker 安装指南或源安装程序。您还可以在其 GitHub 页面或其网站上找到有关如何使用 InvokeAI 的详细文档。安装 InvokeAI 后,您可以开始使用最新的 AI 驱动技术生成和创建令人惊叹的视觉媒体。您可以使用 Web Interface 访问用户友好的图形界面,该界面允许您与 InvokeAI 的模型和功能进行交互。您还可以使用命令行界面访问功能强大且灵活的界面,该界面允许您自定义调用和脚本。您可以在文档页面上找到有关如何使用这两个接口的示例和教程。InvokeAI 是一个开源项目,欢迎任何有兴趣开发和改进它的人做出贡献。您可以加入 Discord 服务器以与其他开发人员和用户联系、报告错误、请求功能、分享想法并获得帮助。您还可以查看 GitHub 页面以查看源代码、提交拉取请求或分叉项目。InvokeAI 是 Stable Diffusion 模型的领先创意引擎,它使专业人士、艺术家和爱好者能够使用最新的 AI 驱动技术生成和创建视觉媒体。如果你有兴趣与人工智能共同创造,我鼓励你尝试一下InvokeAI,看看你能用它创造出什么令人惊奇的东西。InvokeAI优点:这是一个开源项目,它为使用 Stable Diffusion 模型生成高质量图像提供了简化的过程。它提供了行业领先的 Web 界面、交互式命令行界面,并且还作为多种商业产品的基础。它支持低至 4 GB RAM 的 GPU 卡,可在 Windows、Mac 和 Linux 机器上运行。它具有各种功能和选项来帮助图像生成过程,例如修复、出彩、模型合并、后处理、变化等。它有一个庞大而活跃的开发人员和用户社区,他们为项目做出贡献并提供反馈和支持。
码多多Al智能聊天系統

码多多Al智能聊天系統

码多多Al智能聊天系統简介 码多多Al智能聊天系統是一款基于人工智能技术的聊天系统。它可以与用户进行自然语言对话,提供各种服务和答案。Chatai的核心技术是自然语言处理,它可以理解用户的语言意图,并根据用户的问题提供相应的答案。演示平台演示地址账号密码手机H5演示:https://chat.mddai.cn/mobile/PC演示:https://chat.mddai.cn/pc/管理后台:https://chat-demo.mddai.cn/admin账号:admin密码:123456码多多Al智能聊天系統功能:1、AI智聊系统开发快速搭建AI智能聊天系统,包含:公众号端,小程序端,PC端,APP端2、ai绘画系统开发快速搭建AI绘画软件,包含:公众号端,小程序端,抖音小程序端3、接入AI接口为企业办公工具接入AI接口,包含:企业微信,钉钉,飞书4、训练大语言模型打造专属企业知识库的AI模型,包含:客服,数字人直播,AI女友。码多多Al智能聊天系統提供行业的AI解决方案ChatAI已应用于多个行业,成为企业信赖的伙伴1、办公软件AI帮做ppt、制表格、写代码,掀起打工人效率革命。2、社交文娱多模态AI,为游戏娱乐、影视创作带来效率革命。3、营销广告数字员工进击商战,做客服、写文案、分析数据.4、传统行业让AI为你企业赋能,实现效率倍增和成本降低。
UniVG

UniVG

UniVG简介 百度UniVG是一种统一模式ai视频生成系统,能够以文本和图像的任意组合作为输入条件进行视频生成。UniVG系统由百度团队开发,解决现有视频生成模型在处理单一任务或单一目标时的局限性。UniVG开源地址:https://univg-baidu.github.io/UniVG主要功能和特点:高自由度视频生成:使用多条件交叉注意力机制,根据输入的图像或文本生成与语义一致的视频。低自由度视频生成:引入偏置高斯噪声替代完全随机的高斯噪声,以更好地保留输入条件的内容。多任务处理:系统内的视频生成模型被重新划分为高自由度生成和低自由度生成两类,分别适用于不同的生成任务。扩散模型:基于扩散的视频生成方法,在学术和工业界取得了显著成功。UniVG应用场景和优势:灵活输入:用户可以灵活地输入图像和文本条件,单独或组合使用,满足实际应用场景的需求。高质量输出:在MSR-VTT数据库上实现了最低的FVD(Fréchet Video Distance),在人类评估中超过了当前开源方法,并与现有闭源方法Gen2相当。多样化任务:支持文本到视频、图像到视频以及文本和图像结合到视频等多种视频生成任务。UniVG作为一个强大的工具,它通过整合文本和图像输入,推动了视频生成技术向更灵活、更高质量的方向发展,为内容创作、广告、娱乐等多个领域提供更大的推广思路。
LibreChat

LibreChat

LibreChat简介 LibreChat,一个增强版的ChatGPT程序,一个免费开源的聊天机器人平台,集成了多种 ai 模型,例如 ChatGPT、OpenAI、BingAI、PaLM 2 等。 LibreChat 允许您与不同的 AI 进行自然且引人入胜的对话,并使用各种功能和插件定制您的体验。LibreChat还集成并增强了原始客户端功能,例如对话和消息搜索、提示模板和插件。项目地址:https://github.com/danny-avila/LibreChatLibreChat功能列表:多功能聊天界面: LibreChat 提供类似于ChatGPT的用户界面,包括深色模式、流式传输。多模式聊天: 支持GPT-4V 和 Gemini Vision分析图像。多语言用户界面: 支持多种语言,包括英语、中文、德语、西班牙语、法语、意大利语等。AI模型选择:包括OpenAI API、Azure、BingAI、ChatGPT、Google Vertex AI、Anthropic(Claude)、插件等。用户可以创建、保存并共享自己的自定义预设Agent。提供会话分支功能,允许编辑、重新提交和继续消息。导出对话: 支持将对话导出为截图、Markdown、文本和 JSON 格式。消息/对话搜索: 提供全面的消息和对话搜索功能。插件支持: 包括 Web 访问、使用 DALL-E-3 生成图像等插件。多用户安全认证: 提供多用户安全认证,包括监督和令牌消费工具。配置选项: 配置代理、反向代理、Docker、许多部署选项,并且完全开源。文档和支持: 提供详细的文档和指南,帮助用户安装、配置软件,并使用高级功能。LibreChat 将助理 AI 的未来与 OpenAI 的 ChatGPT 的革命性技术结合在一起。为了庆祝原始风格,LibreChat 使您能够集成多个 AI 模型。它还集成并增强了原始客户端功能,例如对话和消息搜索、提示模板和插件。使用 LibreChat,您不再需要选择 ChatGPT Plus,而是可以使用免费或按通话付费的 API。我们欢迎贡献、克隆和分叉,以增强这个高级聊天机器人平台的功能。官方GitHub:https://librechat.ai文档:https://docs.librechat.ai加入我们的 Discord:https://discord.librechat.ai
DeepFaceLive

DeepFaceLive

DeepFaceLive简介 DeepFaceLive 是一款免费开源的实时直播视频ai换脸工具软件,它使用深度学习算法创建逼真的换脸视频。它是一种深度伪造技术,可以将一个人的脸部超级放置在另一个人的身体上的视频中。从而实现非常逼真的面部合成效果。由于其高度逼真的效果,DeepFaceLive 在影视、游戏、虚拟现实 等领域具有广泛的应用前景。使用 DeepFaceLive 非常简单,只需要准备好两个人的面部照片,然后使用 DeepFaceLive 的软件进行面部合成即可。在合成过程中DeepFaceLive 会利用深度学习算法 来分析面部表情和动作,并将其合成到目标脸部上,从而实现高度逼真的效果除了在影视、游戏、虚拟现实等领域应用外,DeepFaceLive 还可以用于医学领域,比如用于仿真手术和医学教育等方面。此外DeepFaceLive 还可以用于人脸识别技术 的研究和开发,从而提高人脸识别技术的准确性和鲁棒性。虽然DeepFaceLive可以用于无害的娱乐,但也引发了人们对其潜在滥用的担忧,例如传播虚假信息或制作虚假色情作品。重要的是要意识到与深度伪造技术相关的潜在风险,并负责任地使用它。DeepFaceLive Github项目地址:https://github.com/iperov/DeepFaceLiveDeepFaceLive中文交流论坛:https://dfldata.cc/DeepFaceLive下载地址:https://mega.nz/folder/m10iELBK#Y0H6BflF9C4k_clYofC7yADeepFaceLive 系统要求:任何支持 DirectX12 的显卡(推荐 RTX 2070+ / Radeon RX 5700 XT+ )现代的支持 AVX 指令的 CPU4GB RAM,32GB+ 交换文件Windows 10
Deep Live Cam

Deep Live Cam

Deep Live Cam简介 Deep Live Cam是一款开源的实时人脸交换和一键视频换脸工具。它能够利用单张图像对视频或其他图像进行人脸替换,适用于视频制作、动画创作等多种场景。Deep Live Cam非常适合视频制作和创意项目,使用户能够无缝替换视频或图像中的面孔。Deep Live Cam下载地址:https://github.com/hacksider/Deep-Live-CamDeep Live Cam 的主要特性和功能:实时换脸:该工具允许用户使用单个图像实时换脸,提供即时预览功能。此功能对于视频制作和动画项目特别有用。一键视频 Deepfakes :用户通过简单的操作即可快速轻松地生成高质量的 Deepfake 视频。这使得那些可能没有广泛技术知识的人也可以使用它。多平台支持:Deep Live Cam支持各种执行平台,包括CPU、NVIDIA CUDA、Apple Silicon (CoreML)、DirectML (Windows) 和 OpenVINO (Intel)。这种灵活性使其能够适应不同的硬件设置,根据用户的配置优化性能。社区和支持:Deep Live Cam 受益于活跃的社区,该社区提供持续的支持和改进,使该工具始终处于技术前沿。网络摄像头模式:Deep Live Cam支持使用网络摄像头进行实时视频流处理,只需按照屏幕截图中的点击操作即可:1、选择一张脸2、点击直播3、等待几秒钟(需要较长时间,通常需要10到30秒才能显示预览)此功能对于直播或虚拟会议非常有用。Deep Live Cam如何工作?1、选择源图像:上传一张包含所需人脸的图片作为源图像。2、选择目标:选择要进行换脸的目标图片或视频。3、开始处理:点击'Start'按钮,Deep Live Cam将自动进行人脸替换处理。Deep Live Cam常见问题什么是Deep Live Cam?Deep Live Cam是一款开源的实时人脸交换和一键视频深伪工具。它能够利用单张图像对视频或其他图像进行人脸替换,适用于视频制作、动画创作等多种场景。Deep Live Cam的主要功能有哪些?Deep Live Cam的主要功能包括:1)实时人脸交换;2)一键视频深伪;3)多平台支持;4)防不当使用措施。如何使用Deep Live Cam?使用Deep Live Cam的基本步骤是:1)安装所需环境;2)克隆GitHub仓库;3)下载所需模型;4)安装依赖;5)运行程序;6)选择源图像和目标;7)开始换脸处理。Deep Live Cam支持哪些平台?Deep Live Cam支持多种执行平台,包括CPU、NVIDIA CUDA、Apple Silicon(CoreML)、DirectML(Windows)、OpenVINO(Intel)等。用户可以根据自己的硬件配置选择最优的执行平台。Deep Live Cam如何保证不被滥用?Deep Live Cam内置了检查机制,防止对不适当内容(如裸露、暴力、敏感材料等)进行处理。开发者承诺在法律和伦理框架内持续发展项目,并在必要时采取措施(如在输出中添加水印)以防止滥用。Deep Live Cam是免费的吗?是的,Deep Live Cam是一个开源项目,完全免费使用。您可以在GitHub上获取源代码并自由使用。我可以将Deep Live Cam用于商业目的吗?Deep Live Cam是开源项目,但对于商业用途,您需要仔细阅读项目的许可证条款。此外,使用深伪技术可能涉及法律和道德问题,建议在商业应用前咨询法律专业人士。Deep Live Cam需要多高的配置?Deep Live Cam的性能会随硬件配置而变化。基本功能可在普通CPU上运行,但为获得更好的性能和效果,建议使用支持CUDA的NVIDIA显卡或Apple Silicon芯片的设备。Deep Live Cam支持实时视频流处理吗?是的,Deep Live Cam支持实时视频流处理。您可以使用摄像头进行实时换脸,程序会提供实时预览功能。如何提高Deep Live Cam的换脸效果?要提高换脸效果,可以尝试以下方法:1)使用高质量、清晰的源图像;2)选择角度和光线相近的源图像和目标;3)调整程序的参数设置;4)使用性能更强的硬件来运行程序。
Open WebUI

Open WebUI

Open WebUI简介 Open WebUI,为大模型提供用户友好界面,支持 Ollama 并兼容 Openai API。特色有直观聊天界面、响应式设计。支持代码高亮、Markdown、LaTeX、RAG 集成、网页浏览、预设提示、RLHF 注释、模型管理、多模型和多模态、历史记录管理、语音输入、高级参数调整等。Open WebUI功能特征:直观的界面:我们的聊天界面从 ChatGPT 中汲取灵感,确保用户友好的体验。响应式设计:在桌面和移动设备上享受无缝体验。快速响应:享受快速响应的性能。轻松设置:使用 Docker 或 Kubernetes(kubectl、kustomize 或 helm)无缝安装,获得轻松的体验。代码语法高亮:使用我们的语法高亮功能增强代码可读性。完整的 Markdown 和 LaTeX 支持:通过全面的 Markdown 和 LaTeX 功能提升您的 LLM 体验,以丰富交互。本地 RAG 集成:通过开创性的检索增强生成 (RAG) 支持深入了解聊天交互的未来。此功能将文档交互无缝集成到您的聊天体验中。您可以将文档直接加载到聊天中或将文件添加到文档库中,使用提示符中的命令轻松访问它们。在 alpha 阶段,当我们积极改进和增强此功能以确保最佳性能和可靠性时,可能会偶尔出现问题。#网页浏览功能:使用命令后跟 URL 将网站无缝集成到您的聊天体验中。此功能允许您将 Web 内容直接合并到您的对话中,从而增强互动的丰富性和深度。#提示预设支持:使用聊天输入中的命令立即访问预设提示。毫不费力地加载预定义的对话启动器并加快您的交互速度。通过Open WebUI社区集成轻松导入提示。/RLHF 注释:通过竖起大拇指和竖起大拇指对消息进行评分来增强您的消息,从而促进创建用于人类反馈强化学习 (RLHF) 的数据集。利用您的消息来训练或微调模型,同时确保本地保存数据的机密性。对话标记:轻松分类和定位特定聊天,以便快速参考和简化数据收集。下载/删除模型:直接从 Web UI 轻松下载或删除模型。文件模型创建:通过直接从 Web UI 上传 GGUF 文件,轻松创建 Ollama 模型。简化流程,可选择从您的机器上传或从 Hugging Face 下载 GGUF 文件。多模式支持:在不同的聊天模式之间无缝切换,实现多样化的互动。多模态支持:与支持多模态交互的模型无缝交互,包括图像(例如 LLava)。模型文件生成器:通过 Web UI 轻松创建 Ollama 模型文件。创建和添加角色/代理,自定义聊天元素,并通过Open WebUI社区集成轻松导入模型文件。多模型对话:毫不费力地同时与各种模型互动,利用它们的独特优势获得最佳响应。通过并行利用一组不同的模型来增强您的体验。协作聊天:通过无缝编排群组对话,利用多个模型的集体智慧。使用该命令指定模型,从而在聊天界面中启用动态和多样化的对话。让自己沉浸在编织在聊天环境中的集体智慧中。@OpenAI API 集成:毫不费力地集成与 OpenAI 兼容的 API,以便与 Ollama 模型进行多功能对话。自定义 API 基本 URL 以链接到 LMStudio、Mistral、OpenRouter 等。再生历史访问:轻松重新访问和探索您的整个再生历史。聊天记录:轻松访问和管理您的对话记录。导入/导出聊天记录:无缝地将您的聊天数据移入和移出平台。语音输入支持:通过语音交互与您的模型互动;享受直接与模特交谈的便利。此外,探索在静音 3秒后自动发送语音输入的选项,以获得简化的体验。使用高级参数进行微调控制:通过调整温度等参数和定义系统提示来获得更深层次的控制,以根据您的特定偏好和需求定制对话。外部 Ollama 服务器连接:通过配置环境变量,无缝链接到托管在不同地址上的外部 Ollama 服务器。基于角色的访问控制 (RBAC):使用受限权限确保安全访问;只有经过授权的个人才能访问您的 Ollama,并且为管理员保留独家模型创建/提取权限。后端反向代理支持:通过Open WebUI后端和Ollama之间的直接通信来增强安全性。此关键功能消除了通过 LAN 公开 Ollama 的需要。从 Web UI 向“/ollama/api”路由发出的请求从后端无缝重定向到 Ollama,从而增强了整体系统的安全性。持续更新:我们致力于通过定期更新和新功能来改进 Open WebUI。
ChatTTS-Forge

ChatTTS-Forge

ChatTTS-Forge简介 ChatTTS-Forge是一个围绕 TTS生成模型开发的项目,为用户提供灵活的TTS生成能力,支持多种音色、风格控制、长文本推理等功能,ChatTTS-Forge提供了各种API(应用程序编程接口),开发人员可以直接使用这些API轻松将文本转换为语音。ChatTTS-Forge 是一个围绕 TTS(文本转语音)生成模型开发的项目。为用户提供灵活的TTS生成能力,支持多种音色、风格控制、长文本推理等功能。ChatTTS-Forge提供了各种API(应用程序编程接口),开发人员可以直接使用这些API轻松将文本转换为语音。此外,它还提供了易于使用的网页界面(WebUI),允许用户直接在网页上输入文本并生成语音,无需编程。ChatTTS-Forge的主要特点:TTS生成:支持多种TTS模型推理,包括ChatTTS、CosyVoice、FishSpeech、GPT-SoVITS等,用户可以自由选择和切换语音。音调管理:内置多种音调,并且可以上传自定义音调。用户可以通过上传音频或文本来创建和使用自定义铃声。风格控制:提供多种风格控制选项,包括调整语音速度、音调、音量,以及添加语音增强(Enhancer)以提高输出质量。长文本处理:支持超长文本自动切分和推理,可以处理生成长文本音频内容。SSML支持:使用类似XML的SSML语法进行高级TTS合成控制,适合更详细的语音生成场景。ASR(自动语音识别) :集成Whisper模型,支持语音转文本功能。ChatTTS-Forge的技术和方法:API服务器:用Python编写的API服务器提供高效的TTS服务,支持多个并发请求和自定义配置。WebUI :基于Gradio的用户界面,用户可以通过简单的操作界面体验TTS功能。Docker 支持:提供 Docker 容器化部署选项,以简化本地和服务器上的部署过程。ChatTTS-Forge WebUI 的特点:TTS(文本到语音) :通过WebUI,用户可以使用各种不同的TTS模型输入文本并生成语音。音调切换:支持多种预设音调切换,用户可以选择不同的声音来生成语音。自定义语音上传:用户可以上传自己的语音文件,实时生成个性化语音。风格控制:您可以调整语音的风格,包括语速、音高、音量等参数,以生成满足特定需求的语音。长文本处理:支持处理很长的文本,自动将长文本分割成小段并按顺序生成语音,适合生成长音频内容。批量处理:用户可以设置批量大小,以提高长文本的推理速度。精炼器:这个工具 允许您微调文本以优化生成的语音,对于处理无限长度的文本特别有用。语音增强:集成增强模型以提高生成语音的质量并使其听起来更自然。生成历史:保存最近的3次生成结果,方便用户比较不同设置下的语音效果。多模型支持:WebUI支持多种TTS模型,包括ChatTTS、CosyVoice、FishSpeech、GPT-SoVITS等,用户可以根据自己的需求选择合适的模型。SSML支持:使用类似XML的SSML语法来控制语音合成过程,适合需要更复杂控制的场景。播客工具:帮助用户从博客脚本创建长格式、多字符的音频内容。字幕生成:从字幕文件创建 SSML 脚本以生成各种语音内容。GitHub:https://github.com/lenML/ChatTTS-Forge在线体验:https://huggingface.co/spaces/lenML/ChatTTS-Forge