Krita 人工智能广播
Krita AI Diffusion

原始链接: https://github.com/Acly/krita-ai-diffusion

(点击观看视频)展示了修改姿势矢量图层以控制角色姿势。 当您将鼠标悬停在图层标签上时,会出现一个弹出窗口,显示一些基于 SMPL 格式(骨骼运动参数日志)标准化矢量的示例姿势。 姿态矢量参数范围为 [0..1],其中较大的值对应于更极端的运动模式。 目前,下载部分的演示数据集中内置了 12 个类别。 一些示例视频也演示了该层的运行情况。 请注意,目前在开发模式下,由于计算资源限制,此处仅提供有限的一组预定义示例用于演示目的。 这里只显示前两个最常见的头部姿势(标签:`head_tilt` / `head_nod`)/躯干扭转(标签:`torso_twist`)。 所以可能还有改进的空间。

根据 https://github.com/Acly/krita-ai-diffusion#preventions 支持 MacBook Pro M1。 最初的公告推文也提到了英特尔和 macOS。 但是,您上面链接的问题表明,由于“ccm”包(用于构建应用程序包)而导致二进制包构建被破坏,无法在打包过程中创建必要的dylib。 目前的计划是用“macosbuild”替换“ccm”,但是,开发人员在线程中指出,这需要将 SD 库的 C++ 绑定移植到 Swift,他承认这不会很快发生,至少基于此 最近在他的 twitter feed 上进行了讨论,他指出构建带有 SD 的 ARM 硅胶芯片需要大量内存,这表明插件本身的集成可能需要在 ARM/x64 汇编器中本地重做,以避免浪费太多 RAM 通过 Rosetta 在翻译模式下运行插件。 这听起来像是一项相当复杂的任务,Mac 的自述文件部分或我能找到的其他任何地方都没有提及。 然而,考虑到他的最后一次发布是在近 11 个月前,并且从围绕该存储库和他的 Twitter 的乏善可陈的开发活动来看(同样,最后一次未转发的帖子是在 10 月 4 日),我不会屏住呼吸。 此外,如果它使用 SD 原生运行,则需要整个扩散器库作为依赖项,并且可能还需要用户在 x64 Swift 中自行编译扩散器模型,而不是依赖预编译的二进制文件与插件的任何平台一起使用 运行(类似于基于 CPU 的实例的 Cloud Runner)。 这可能比直接编译扩散器模型更难维护。 但是,使用 Cloud Renderer 在 Mac 上运行它仍然可能是可行的,您仍然可以以编译的形式部署模型,而无需在那里运行和优化它们,尽管根据模型的托管位置,您仍然需要配置 GPU 容量 为此,或以其他方式依赖免费层实例使用限制和/或在其他地方运行作业并将结果传递到 Mac。 顺便说一句,在 Mac 上运行 Krita 本身在技术上可以通过交叉编译它来完成
相关文章

原文
联系我们 contact @ memedata.com