一个支持 OpenAI 兼容 API 的 ComfyUI 自定义节点,可以调用任何兼容 OpenAI API 格式的大语言模型服务(如 vLLM、LM Studio、Ollama、LocalAI 等)。
- ✅ 支持纯文本对话
 - ✅ 支持图片+文本的视觉对话(Vision API)
 - ✅ 完全兼容 OpenAI Chat Completions API 格式
 - ✅ 支持自定义 API 端点
 - ✅ 支持温度、最大 token 数等参数调节
 - ✅ 支持图片细节控制(auto/low/high)
 
cd ComfyUI/custom_nodes
git clone https://github.com/your-repo/ComfyUI-OpenAI-Compatible-API.git- 下载本仓库的所有文件
 - 将文件夹复制到 
ComfyUI/custom_nodes/目录下 - 重启 ComfyUI
 
本节点需要以下 Python 包(ComfyUI 通常已包含):
pip install requests pillow torch numpy- prompt: 发送给模型的文本提示词
 - endpoint: API 端点地址(例如:
http://localhost:3010/v1/chat/completions) - model: 模型名称或路径
 - max_tokens: 最大生成 token 数(1-32000)
 - temperature: 温度参数,控制生成的随机性(0.0-2.0)
 
- image: 图片输入(支持 ComfyUI 的 IMAGE 类型)
 - api_key: API 密钥(如果服务需要)
 - image_detail: 图片细节级别
auto: 自动选择low: 低细节(更快,更便宜)high: 高细节(更详细,更慢)
 
- 添加 
OpenAI Compatible LLM节点 - 设置 
endpoint为你的 API 地址 - 设置 
model为模型名称 - 在 
prompt中输入你的问题 - 连接到输出节点查看结果
 
- 添加 
Load Image节点加载图片 - 添加 
OpenAI Compatible LLM节点 - 将图片输出连接到节点的 
image输入 - 在 
prompt中输入关于图片的问题(如 "描述这张图片") - 确保 
model是支持视觉的模型(如 Qwen-VL、LLaVA 等) - 连接到输出节点查看结果
 
本节点兼容任何实现了 OpenAI Chat Completions API 的服务:
- vLLM: 高性能推理服务器
 - Ollama: 本地大模型运行工具
 - LM Studio: 桌面端大模型应用
 - LocalAI: 本地 AI API 服务
 - Text Generation WebUI: OpenAI API 扩展
 - OpenAI 官方 API: 需要设置正确的 endpoint 和 api_key
 
如果要使用图片输入功能,你的模型需要支持视觉输入,例如:
- Qwen-VL / Qwen2-VL
 - LLaVA
 - MiniGPT-4
 - BLIP-2
 - CogVLM
 - GPT-4 Vision(通过 OpenAI API)
 
- 确保你的 API 服务正在运行并且可访问
 - 如果使用图片输入,确保模型支持视觉功能
 - 某些服务可能需要 API 密钥
 - 超时时间设置为 120 秒,处理大图片或长文本时可能需要调整
 
- 检查 endpoint 地址是否正确
 - 确认服务是否正在运行
 - 检查防火墙设置
 
- 确认模型是否为视觉模型
 - 检查 API 服务的日志
 - 尝试纯文本对话测试连接
 
- 确认 api_key 是否正确
 - 检查服务是否需要认证
 
欢迎提交 Issue 和 Pull Request!
MIT License
感谢 ComfyUI 社区和所有贡献者!