Wiseflow

5个月前发布 21 0 0

Wiseflow简介 Wiseflow,一款敏捷的信息挖掘开源免费工具,它可以从网站、微信公众号、社交平台等各种信息源中按设定的关注点提炼讯息,自动做标签归类并上传数据库,你可以轻松将它整合到任意 Agent 项目中作为动态知识库。项目可完全本地部署,硬件基本无要求。Wiseflow功能特色原生 LLM 应用:我们精心选择了最适合的 7B...

收录时间:
2024-11-21 22:02:49
更新时间:
2025-04-15 15:03:55
WiseflowWiseflow
Wiseflow
Wiseflow简介 Wiseflow,一款敏捷的信息挖掘开源免费工具,它可以从网站、微信公众号、社交平台等各种信息源中按设定的关注点提炼讯息,自动做标签归类并上传数据库,你可以轻松将它整合到任意 Agent 项目中作为动态知识库。项目可完全本地部署,硬件基本无要求。Wiseflow功能特色原生 LLM 应用:我们精心选择了最适合的 7B~9B 开源模型,最大化降低使用成本,且利于数据敏感用户随时完全切换至本地部署。轻量化设计:不用任何向量模型,系统开销很小,无需 GPU,适合任何硬件环境。智能信息提取和分类:从各种信息源中自动提取信息,并根据用户关注点进行标签化和分类管理。WiseFlow尤其擅长从微信公众号文章中提取信息:为此我们配置了mp article专属解析器!可以被整合至任意Agent项目:可以作为任意 Agent 项目的动态知识库,无需了解wiseflow的代码,只需要与数据库进行读取操作即可!流行的 Pocketbase 数据库:数据库和界面使用 PocketBase,除了 Web 界面外,目前已有 Go/Javascript/Python 等语言的SDK。我们缺的其实不是信息,我们需要的是从海量信息中过滤噪音,从而让有价值的信息显露出来!看看Wiseflow是如何帮您节省时间,过滤无关信息,并整理关注要点的吧!

数据统计

数据评估

Wiseflow浏览人数已经达到21,如你需要查询该站的相关权重信息,可以点击"5118数据""爱站数据""Chinaz数据"进入;以目前的网站数据参考,建议大家请以爱站数据为准,更多网站价值评估因素如:Wiseflow的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找Wiseflow的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于Wiseflow特别声明

本站400AI工具导航提供的Wiseflow都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由400AI工具导航实际控制,在2024年11月21日 22:02收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,400AI工具导航不承担任何责任。

相关导航

Make-A-Character

Make-A-Character

Make-A-Character简介 Make-A-Character,通过一句话描述人的脸型、五官、发型特征,即可高效率、规模化地生成具备全栈式美术能力的超写实3D数字人。生成结果包含人头人体,配饰服装,并支持表情动画资产进行驱动,让3D数字人栩栩如生地动态化展示。你也可以自定义面部特征,例如脸型、眼睛颜色、发型、眉毛类型、嘴巴和鼻子,以及添加皱纹和雀斑等。Make-A-Character支持英文和中文提示。Make-A-Character项目地址:https://human3daigc.github.io/MACH/Make-A-Character演示地址:https://www.modelscope.cn/studios/XR-3D/InstructDynamicAvatar/summaryMake-A-Character主要特征:1、高度逼真:角色基于真实人类扫描数据集生成,发型为实际发丝而非网格,使用Unreal Engine的物理基础渲染(PBR)技术渲染,以实现高质量实时渲染效果。2、完整模型:每个角色都是完整模型,包括眼睛、舌头、牙齿、全身和服装,无需额外建模即可立即使用。3、可动画化:角色配备复杂的骨骼装置,支持标准动画,增强其逼真外观和多样化应用。4、可控制性:用户可以详细自定义面部特征,例如脸型、眼睛颜色、发型、眉毛类型、嘴巴和鼻子,以及添加皱纹和雀斑等。5、行业兼容:生成的3D角色可以无缝集成到现有的计算机图形(CG)工作流程中,特别是在游戏和电影行业中常用的工作流程。Make-A-Character原理:Make-A-Character(MACH)结合了大语言模型、视觉模型和3D生成技术。该框架利用大型语言模型(LLM)来提取各种面部属性(例如,脸型、 眼睛形状、嘴巴形状、发型和颜色、眼镜类型)。然后,这些语义属性被映射到 相应的视觉线索,进而指导使用Stable生成参考人像图像 与 ControlNet 一起扩散。通过一系列的2D人脸解析和3D生成模块,网格 并生成目标面部的纹理,并将其与其他匹配的配件一起组装。 参数化表示可以轻松制作生成的 3D 头像的动画。Make-A-Character使用:1、输入人脸描述2、点击生成并等待2分钟3、查看生成效果通过这些步骤,Make-A-Character可以快速从简单的文本描述中生成逼真的、完整的、可动画化的3D角色,适用于各种娱乐和专业场景。
RTranslator

RTranslator

RTranslator简介 RTranslator 是一款(几乎)开源、免费、离线的 Android 实时翻译应用程序。连接到拥有该应用程序的人,连接蓝牙耳机,将手机放入口袋中,然后您就可以像对方说您的语言一样进行对话。RTranslator对话模式对话模式是RTranslator的主要功能。在此模式下,您可以与使用此应用程序的另一部手机连接。如果用户接受您的连接请求:当您说话时,您的手机(或蓝牙耳机,如果已连接)将捕获音频。捕获的音频将转换为文本并发送到对话者的手机上。对话者的手机会将收到的文本翻译成他的语言。对话者的手机会将翻译后的文本转换为音频,并从扬声器中再现它(或者通过对话者的蓝牙耳机,如果连接到他的手机)。所有这一切都是双向的。每个用户可以拥有多部已连接的电话,以便您可以翻译两个以上的人之间以及任意组合的对话。RTranslator对讲机模式如果对话模式适用于与某人进行长时间对话,那么该模式则专为快速对话而设计,例如在街上询问信息或与店员交谈。该模式只能翻译两个人之间的对话,不适用于蓝牙耳机,而且必须轮流说话。这不是真正的同声翻译,但它只能在一部手机上使用。在此模式下,智能手机麦克风将同时以两种语言收听(可在对讲机模式的同一屏幕中选择)。该应用程序将检测对话者使用哪种语言,将音频翻译成另一种语言,将文本转换为音频,然后从手机扬声器中再现。 TTS 结束后,它将自动恢复收听。RTranslator文本翻译模式这种模式只是一个经典的文本翻译器,但总是有用的。一般模式RTranslator 使用 Meta 的 NLLB 进行翻译,使用 Openai 的 Whisper 进行语音识别,两者都是(几乎)开源且最先进的 AI,具有出色的质量并直接在手机上运行,确保绝对隐私,甚至可以在离线状态下使用 RTranslator。质量损失。此外,RTranslator 甚至可以在后台运行、手机处于待机状态或使用其他应用程序时(仅当您使用对话或 WalkieTalkie 模式时)。然而,有些手机会限制后台的电量,因此在这种情况下,最好避免它并在屏幕打开的情况下保持应用程序打开。RTranslator支持的语言阿拉伯语、保加利亚语、加泰罗尼亚语、中文、捷克语、丹麦语、德语、希腊语、英语、西班牙语、芬兰语、法语、克罗地亚语、意大利语、日语、韩语、荷兰语、波兰语、葡萄牙语、罗马尼亚语、俄语、斯洛伐克语、瑞典语、泰米尔语、泰语、土耳其语、乌克兰语、乌尔都语、越南语。
EchoMimic

EchoMimic

EchoMimic简介 EchoMimic是一个蚂蚁集团支付宝基于音频驱动的肖像动画生成工具,通过可编辑的特征点条件生成逼真、自然的动画,用户可以根据自己的需求调整动画细节,可用于虚拟主播、视频编辑等,效果比SadTalker、MuseTalk好,表情更丰富动作更顺畅。EchoMimic可以根据人像面部特征和音频来帮人物对口型,结合面部标志点和音频内容生成较为稳定、自然的视频。EchoMimic功能:音频驱动动画,可以根据音频生成人物肖像的动画,比如唱歌、说话视频等。姿势驱动动画,可以根据姿势数据生成人物肖像的动画。音频和姿势混合驱动动画,可以同时使用音频和姿势数据来生成动画。WebUI 和 GradioUI,提供图形界面,易于使用。可编辑的标志调节:用户可以选择特定的面部标志来控制动画,提供更大的灵活性和定制性。支持多语言(包含中文普通话、英语)及多风格,也可应对唱歌等场景。EchoMimic应用:肖像图像动画:使用音频输入从静态图像创建动态视频,可用于娱乐、虚拟化身和数字通信。增强稳定性和自然度:通过结合两种输入,克服音频驱动方法的不稳定性和关键点驱动方法的不自然性。可定制的动画:用户可以编辑特定的面部标志以实现所需的动画效果。ComfyUI EchoMimic:https://github.com/smthemex/ComfyUI_EchoMimicEchoMimic项目:https://badtobest.github.io/echomimic.htmlEchoMimic Github:https://github.com/BadToBest/EchoMimicEchoMimic模型:https://huggingface.co/BadToBest/EchoMimicEchoMimic 由蚂蚁集团支付宝终端技术部开发的音频输入驱动创建逼真肖像动画的技术。它使用可编辑的地标调节来实现逼真的面部动作和表情,从而实现高度可定制且外观自然的动画。
Diffutoon

Diffutoon

Diffutoon简介 Diffutoon 是一项突破性的卡通着色进步,植根于扩散模型,可将逼真的视频无缝地转变为动漫视觉风格。该方法将卡通着色挑战分解为四个可辨别的方面:风格化、一致性增强、结构指导和着色。其主要卡通着色管道由植根于动漫风格扩散原理的多模块去噪模型推动,拥有令人印象深刻的渲染详细、高分辨率和长时间视频的能力。编辑分支的合并有助于根据提供的提示进行内容操作。通过闪存注意力的战略集成巧妙地缓解了 GPU 内存限制,从而实现高达 1536 x 1536 的分辨率。Diffutoon 能够以动漫风格渲染出细致、高分辨率、以及延长时间的视频。它还可以通过额外的分支编辑内容。Diffutoon 的有效性通过数值指标和人类评估进行评估。值得注意的是,Diffutoon 在我们的实验中超越了开源和闭源基线方法。Diffutoon 的主要功能:将真实感视频转换成各种动漫风格根据用户提示编辑视频内容,例如改变颜色或添加特效。详细保留了光照、头发和姿势等细节,同时保持了与动画风格密切相关的视觉效果。保持视频内容的一致性,避免闪烁和失真。能够生成高分辨率、长时间的视频。Diffutoon 的主要特点:高分辨率输出:Diffutoon 可以处理超高分辨率的视频,使其适合专业级动画和视频项目。一致性增强:它确保跨帧的风格化一致,这对于保持动画序列的视觉连贯性至关重要。可编辑内容:该方法允许根据提示进行内容编辑,为创作过程提供灵活性。结构指导和着色:Diffutoon 结合了结构指导和着色,以增强风格化输出的视觉吸引力和准确性。Diffutoon应用:动画制作:Diffutoon 可用于动画创作,将真人镜头或其他类型的视频转换为动画风格的动画。视频编辑:它能够根据提示编辑视频内容,这使其成为希望将动漫美学融入其项目的视频编辑者的强大工具。创意项目:艺术家和创作者可以使用 Diffutoon 在其视频内容中尝试不同的风格和效果。论文:https://arxiv.org/pdf/2401.16224Github:https://github.com/modelscope/DiffSynth-Studio项目:https://ecnu-cilab.github.io/DiffutoonProjectPage/
YOLO-World

YOLO-World

YOLO-World简介 YOLO-World,腾讯ai实验室开发的一个实时目标检测工具,它能够自动识别和定位图像中的各种对象。YOLO-World在速度和准确性方面都优于许多最先进的方法。YOLO-World 是下一代 YOLO 检测器,旨在实时开放词汇目标检测。YOLO-World在大规模视觉语言数据集(包括Objects365、GQA、Flickr30K和CC3M)上进行了预训练,这使得YOLO-World具有强大的零样本开放词汇能力和图像落地能力,无需训练即可进行实时目标检测,即便某些物品之前没有见过,YOLO-World适用于物体检测和开放词汇实例分割。YOLO-World功能特点:1、大规模学习:YOLO-World通过学习大量的图片和对应的描述(如物品名称),获得了丰富的视觉知识和语言知识,这使得它能识别出广泛的物品。该项目在包括Objects365、GQA、Flickr30K和CC3M在内的大规模视觉-语言数据集上进行了预训练,赋予了YOLO-World强大的零样本开放词汇能力和图像中的定位能力。2、快速准确:YOLO-World在LVIS数据集上的零样本评估中达到了35.4 AP,并且在V100上的处理速度为52.0 FPS,速度和准确性均超过许多最先进的方法。即使是在包含复杂场景的图片中也能保持高准确率。YOLO-World 声称比 GroundingDINO 快 20 倍。3、零样本检测:最令人印象深刻的是,即便某些物品YOLO-World之前没有见过,它也能凭借先前的学习和理解能力,通过图片中的线索和上下文信息,成功识别和定位这些新物品,这意味着我们不必训练它来让它检测新的一类物体。我们只需要给出类名作为输入文本提示,模型将返回这些对象的边界框(如果存在)。4、理解物体:YOLO-World不仅依靠视觉信息,还结合了语言信息。它理解人类的语言描述,这让它能够识别出即使是之前没有直接见过的物体。5、与现有的开放词汇检测方法相比,YOLO-World模型至少快 20 倍。每秒可以处理大约 52 帧。6、在LVIS对象检测数据集上设置了最先进的新数据集。
AniPortrait

AniPortrait

AniPortrait简介 AniPortrait是一款由腾讯研究人员开发的音频驱动的肖像动画合成框架,它能够根据音频和静态人脸图片生成逼真的动态视频。AniPortrait的应用场景包括为视频配音或创作逼真的人脸动画、制作创意表情包或独特的动态头像以及为艺术家和创作者提供面部再现和动画生成的工具。AniPortrait功能特征:AniPortrait图片生成视频的功能特征主要包括以下几点:音频驱动的肖像动画合成:AniPortrait是一款能够根据音频和静态人脸图片生成逼真动态视频的工具,它通过提取音频中的3D面部表情来实现这一功能。用户友好性:使用AniPortrait非常简单,用户只需提供音频和人脸图片,即可生成符合特定要求的人脸动画。此外,用户还可以根据需要调整模型和权重配置,以实现个性化的动画效果。三维数据转换:AniPortrait会从音频中提取出三维的中间数据,并将这些数据转换成一连串的二维面部轮廓标记,为后续的人脸动画生成打下基础。高品质动画生成:该工具基于音频和一张参考人脸照片来生成高品质的动画,包括两个主要步骤:首先是从音频中提取三维中间数据,然后进行后续处理。AniPortrait应用场景:AniPortrait图片生成视频的应用场景主要包括以下几个方面:虚拟现实(VR):AniPortrait可以为VR角色提供逼真的面部动画,增强用户的沉浸感。这意味着在虚拟现实环境中,用户可以通过更加自然和真实的面部表情来与虚拟角色互动,从而提升体验的真实性和互动性。视频游戏:在视频游戏中,AniPortrait的应用可以使得游戏角色的面部表情更加丰富和真实,提高游戏的吸引力和玩家的沉浸感。通过生成逼真的动态视频,可以使游戏角色的表情和反应更加自然,增加游戏的趣味性和互动性。音频驱动的动画合成:AniPortrait支持音频驱动的动画合成,这意味着它可以根据音频内容自动生成相应的面部动画,适用于需要根据特定音频内容生成相应表情或动作的场景。这种应用可以广泛应用于视频制作、电影特效等领域,使得角色的表情和动作更加符合音频内容,提高作品的表现力。高质量动画生成:AniPortrait能够生成高质量的动画,这使得它非常适合于需要高清晰度和细节表现的场合,如电影制作、广告视频等。通过高质量的动画生成,可以确保角色的表情和动作既逼真又细腻,满足专业级别的制作需求。与其他AI工具相比,如阿里推出的EMO,AniPortrait同样能够通过输入一张参考图片和语音音频,创造出生动的视频,展现出丰富的面部表情和多变的头部动作。然而,值得注意的是,AniPortrait比EMO更早开源,这表明腾讯在这一领域的技术创新和开放态度。总的来说,AniPortrait图片生成视频的技术主要依赖于音频和静态人脸图片的输入,通过先进的AI算法处理这些数据,生成逼真且与音频内容匹配的动态视频。这项技术不仅适用于社交媒体、艺术创作等领域,也展现了AI在图像处理和动画生成方面的强大能力。
XHS-Downloader

XHS-Downloader

XHS-Downloader简介 XHS-Downloader,小红书链接提取/作品采集工具:提取账号发布、收藏、点赞作品链接;提取搜索结果作品链接、用户链接;采集小红书作品信息;提取小红书作品下载地址;下载小红书无水印作品文件!XHS-Downloader程序功能:采集小红书作品信息提取小红书作品下载地址下载小红书无水印作品文件自动跳过已下载的作品文件作品文件完整性处理机制自定义图文作品文件下载格式持久化储存作品信息至文件作品文件储存至单独文件夹后台监听剪贴板下载作品记录已下载作品 ID支持命令行下载作品文件从浏览器读取 Cookie自定义文件名称格式支持 API 调用功能XHS-Downloader脚本功能:下载小红书无水印作品文件提取发现页面作品链接提取账号发布作品链接提取账号收藏作品链接提取账号点赞作品链接提取搜索结果作品链接提取搜索结果用户链接XHS-Downloader使用方法:如果仅需下载无水印作品文件,建议选择 程序运行;如果有其他需求,建议选择 源码运行!建议自行设置 cookie 参数,若不设置该参数,程序功能可能无法正常使用!
DeepFaceLab

DeepFaceLab

DeepFaceLab简介 DeepFaceLab是一种利用深度学习识别来交换图片和视频中的人脸的工具。这种技术在特定的场合下可以做出非常逼真自然的换脸视频。而 DeepFaceLab 是众多软件中,安装最简单,使用最方便,更新最快的一款软件。DeepFaceLab原版需要一定的英文基础,对于国内用户不是很友好。DeepFaceLab中文网独家推出本地化软件适配,为大家提供“懒人专用” DeepFaceLab 软件下载包!具体内容包含:1.DeepFaceLab官方英文原版2.DeepFaceLab中文汉化版3.DeepFaceLab图形界面汉化版deepfacelab中文网-提供deepfacelab中文汉化下载教程DeepFaceLab功能特性安装方便,环境依赖几乎为零,下载打包 app 解压即可运行(最大优势)添加了很多新的模型新架构,易于模型实验人脸图片使用 JPG 保存,节省空间提高效率CPU 模式,第 8 代 Intel 核心能够在 2 天内完成 H64 模型的训练。全新的预览窗口,便于观察。并行提取并行转换所有阶段都可以使用 DEBUG 选项支持 MTCNN,DLIBCNN,S3FD 等多种提取器支持手动提取,更精确的脸部区域,更好的结果。