我们在使用we
获取方法
参数介绍
comfyui默认启用xformers,性能不够时也会尝试使用lowvram,和tile vae帮你完成任务。对低性能机器比较友好
参数 | 说明 |
---|---|
–listen [IP] | 指定要侦听的 IP 地址。只输入–listen 就监听所有ip,这个参数可以让你局域网的其他设备访问。具体参见这篇文章 |
–auto-launch | 在默认浏览器中自动启动ComfyUI。 |
–highvram | 默认情况下模型在使用后会卸载到CPU内存。这个选项将它们保存在 GPU 显存中。 |
–normalvram | 如果 lowvram 自动启用,则会强制使用正常显存模式 |
–lowvram | 强制将unet分成几部分以使用更少的vram完成任务。这里不建议强制添加参数,默认comfyui会在你性能不行时自动启用,交给系统去判断会更优 |
–port PORT | 设置监听端口。 |
–extra-model-paths-config PATH [PATH …] | 加载一个或多个extra_model_paths.yaml 文件。 |
–output-directory OUTPUT_DIRECTORY | 设置 ComfyUI 输出目录。OUTPUT_DIRECTORY 替换为你的输出目录 |
–cuda-device DEVICE_ID | 设置此实例将使用的 cuda 设备的 ID。 |
–cuda-malloc | 启用 cudaMallocAsync(默认启用torch 2.0 及更高版本)。 |
–disable-cuda-malloc | 禁用 cudaMallocAsync。 |
–dont-upcast-attention | 禁用upcast-attention。可以提高速度,但会增加出现黑色图像的机会。 |
–force-fp32 | 强制用 fp32 (如果你显卡很好)。 |
–force-fp16 | 强制 fp16。 |
–fp16-vae | 在 fp16 中运行 VAE,可能会导致黑色图像。 |
–bf16-vae | 在 bf16 中运行 VAE,可能会降低质量。 |
–directml [DIRECTML_DEVICE] | 使用 torch-directml。 |
–preview-method [none,auto,latent2rgb,taesd] | 采样器节点的默认预览方法。 |
–use-split-cross-attention | 使用split-cross-attention 优化。使用 xformers 时忽略。 |
–use-qua |
使用次quad-cross-attention优化。使用 xformers 时忽略。 |
–use-pytorch-cross-attention | 使用新的 pytorch 2.0 交叉注意力功能。 |
–disable-xformers | 禁用 xformers。 |
–gpu-only | 在显卡GPU 上存储并运行所有内容(文本编码器/CLIP 模型等)。 |
当 lowvram 不够时。那我建议你换台机器吧。 | |
–cpu | 使用 CPU 处理所有事情(慢)。 |
–dont-print-server | 不打印服务器输出。 |
–quick-test-for-ci | CI 快速测试。 |
–windows-standalone-build | 独立环境构建使用参数,官方便携版(类似整合包,自带独立运行环境)就会用到这个参数。 |
–disable-metadata | 禁止在图片文件中保存提示词数据。 |
[Total: 0 Average: 0]
必须 注册 为本站用户, 登录 后才可以发表评论!