Comfyui_llm_party tem como objetivo, com base na comfyui, uma interface de usuário extremamente minimalista, desenvolver um conjunto completo de biblioteca de nós para a construção de fluxos de trabalho de LLM. Isso permitirá que os usuários construam seus próprios fluxos de trabalho de LLM de forma mais rápida e conveniente, além de integrar facilmente em seus próprios fluxos de trabalho de imagem.
EN.mp4
ComfyUI LLM Party permite desde a chamada de múltiplas ferramentas LLM, configuração rápida de personagens para construir seu assistente de IA personalizado, até a aplicação de Word Vector RAG e GraphRAG para gerenciamento local de bancos de dados de conhecimento da indústria; desde um pipeline de agentes inteligentes simples, até a construção de modos de interação complexos entre agentes inteligentes em padrão radial e circular; desde a necessidade de usuários individuais de integrar seus aplicativos sociais (QQ, Feishu, Discord), até o fluxo de trabalho tudo-em-um LLM+TTS+ComfyUI que os trabalhadores de streaming precisam; desde o primeiro aplicativo LLM que alunos comuns precisam para um fácil início, até as diversas interfaces de ajuste de parâmetros frequentemente utilizadas por pesquisadores e a adaptação de modelos. Tudo isso, você pode encontrar respostas no ComfyUI LLM Party.
- Se você nunca usou o ComfyUI e encontrou alguns problemas de dependência ao instalar o LLM party no ComfyUI, clique aqui para baixar o pacote portátil do ComfyUI windows que inclui o LLM party. Atenção! Este pacote portátil contém apenas os dois plugins: party e manager, e é exclusivo para sistemas Windows.(Se você precisar instalar o LLM party em um comfyui existente, esta etapa pode ser pulada.)
- Arraste os seguintes fluxos de trabalho para o seu comfyui e use comfyui-Manager para instalar os nós ausentes.
- Use a API para chamar LLM: start_with_LLM_api
- Chamando o LLM com aisuite: iniciar_com_aisuite
- Gerencie LLM local com ollama: start_with_Ollama
- Use LLM local em formato distribuído: start_with_LLM_local
- Use LLM local em formato GGUF: start_with_LLM_GGUF
- Use VLM local em formato distribuído: start_with_VLM_local (em teste, atualmente suporta apenas Llama-3.2-Vision-Instruct)
- Use VLM local em formato GGUF: start_with_VLM_GGUF
- Se você estiver usando a API, preencha seu
base_url
(pode ser uma API de retransmissão, certifique-se de que termine com/v1/
) eapi_key
no nó de carregamento da API LLM. Exemplo:https://api.openai.com/v1/
- Se você estiver usando ollama, ative a opção
is_ollama
no nó de carregamento da API LLM, não é necessário preencherbase_url
eapi_key
. - Se você estiver usando um modelo local, preencha o caminho do seu modelo no nó de carregamento do modelo local, por exemplo:
E:\model\Llama-3.2-1B-Instruct
. Você também pode preencher o ID do repositório do modelo no Huggingface no nó de carregamento do modelo local, por exemplo:lllyasviel/omost-llama-3-8b-4bits
. - Devido ao alto limiar de uso deste projeto, mesmo que você escolha o início rápido, espero que possa ler pacientemente a página inicial do projeto.
- Foi adicionado um novo nó de hospedagem de imagens, que atualmente suporta a hospedagem de imagens de https://sm.ms (o domínio na região da China é https://smms.app) e https://imgbb.com. No futuro, mais serviços de hospedagem de imagens serão suportados. Exemplo de fluxo de trabalho: Hospedagem de Imagens
O serviço de hospedagem de imagens imgbb, que é compatível por padrão com party, foi atualizado para o domínio imgbb. O serviço anterior não era amigável para usuários da China continental, por isso foi alterado.Sinto muito informar que o serviço API de hospedagem de imagens em https://imgbb.io parece ter sido descontinuado, portanto, o código voltou para o original https://imgbb.com. Agradeço a compreensão de todos. No futuro, atualizarei um nó que suporte mais serviços de hospedagem de imagens.- A ferramenta MCP foi atualizada, você pode modificar a configuração no arquivo 'mcp_config.json' na pasta do projeto party para ajustar o servidor MCP ao qual deseja se conectar. Você pode encontrar aqui vários parâmetros de configuração dos servidores MCP que deseja adicionar: modelcontextprotocol/servers. A configuração padrão deste projeto é o servidor Everything, um servidor utilizado para testar se o servidor MCP opera corretamente. Fluxo de trabalho de referência: start_with_MCP. Nota para desenvolvedores: o nó da ferramenta MCP pode se conectar ao servidor MCP configurado e, em seguida, converter as ferramentas do servidor em ferramentas que o LLM pode usar diretamente. Ao configurar diferentes servidores locais ou em nuvem, você pode experimentar todas as ferramentas LLM disponíveis no mundo.
-
Para instruções sobre o uso dos nós, consulte: 怎么使用节点
-
Se houver problemas com o plugin ou se você tiver outras dúvidas, sinta-se à vontade para entrar no grupo QQ: 931057213 |discord:discord.
-
Para mais fluxos de trabalho, você pode consultar a pasta workflow.
![octocat](/heshengtao/comfyui_LLM_party/raw/main/img/B.png)
![octocat](/heshengtao/comfyui_LLM_party/raw/main/img/YT.png)
- Suporte a todas as chamadas de API no formato openai (combinado com oneapi, é possível chamar quase todas as APIs LLM, além de suportar todas as APIs de encaminhamento), a escolha do base_url deve seguir o exemplo em config.ini.example, atualmente testados incluem:
- openai (Perfeitamente compatível com todos os modelos OpenAI, incluindo as séries 4o e o1!)
- ollama (Recomendado! Se você estiver chamando localmente, é altamente recomendável usar o método ollama para hospedar seu modelo local!)
- Azure OpenAI
- llama.cpp (Recomendado! Se você quiser usar o modelo no formato gguf local, pode usar a API do projeto llama.cpp para acessar este projeto!)
- Grok
- 通义千问/qwen
- 智谱清言/glm
- deepseek
- kimi/moonshot
- doubao
- 讯飞星火/spark
- Gêmeos(O antigo nó do carregador de API do Gêmeos foi descontinuado na nova versão, por favor utilize o nó do carregador de API LLM, selecionando o base_url: https://generativelanguage.googleapis.com/v1beta/)
- Suporte a todas as chamadas de API compatíveis com aisuite:
- Compatível com a maioria dos modelos locais na biblioteca transformer (o tipo de modelo no nó da cadeia de modelos LLM local foi alterado para LLM, VLM-GGUF e LLM-GGUF, correspondendo ao carregamento direto de modelos LLM, carregamento de modelos VLM e carregamento de modelos LLM no formato GGUF). Se o seu modelo LLM no formato VLM ou GGUF relatar um erro, faça o download da versão mais recente do llama-cpp-python em llama-cpp-python. Os modelos atualmente testados incluem:
- ClosedCharacter/Peach-9B-8k-Roleplay (recomendado! modelo de interpretação de papéis)
- lllyasviel/omost-llama-3-8b-4bits (recomendado! modelo de sugestões ricas)
- meta-llama/Llama-2-7b-chat-hf
- Qwen/Qwen2-7B-Instruct
- openbmb/MiniCPM-V-2_6-gguf
- lmstudio-community/Meta-Llama-3.1-8B-Instruct-GGUF
- meta-llama/Llama-3.2-11B-Vision-Instruct
- Download do modelo:
- Endereço da nuvem Quark
- Link do Baidu Cloud, código de extração: qyhu
Utilize um dos métodos abaixo para instalar
- No gerenciador comfyui, pesquise por
comfyui_LLM_party
e instale com um clique - Reinicie o comfyui
- Navegue até a pasta raiz do ComfyUI e acesse a subpasta
custom_nodes
. - Clone este repositório:
git clone https://github.com/heshengtao/comfyui_LLM_party.git
- Clique em
CODE
no canto superior direito. - Clique em
download zip
. - Extraia o arquivo compactado baixado na subpasta
custom_nodes
da pasta raiz do ComfyUI.
- Navegue até a pasta do projeto
comfyui_LLM_party
. - No terminal, digite
pip install -r requirements.txt
para implantar as bibliotecas de terceiros necessárias para este projeto no ambiente do ComfyUI. Verifique se você está instalando no ambiente do ComfyUI e fique atento a erros dopip
no terminal. - Se você estiver usando o lançador do ComfyUI, você precisará digitar no terminal
caminho na configuração do lançador\python_embeded\python.exe -m pip install -r requirements.txt
para realizar a instalação. A pastapython_embeded
geralmente está no mesmo nível da sua pastaComfyUI
. - Se você encontrar problemas de configuração do ambiente, pode tentar usar as dependências do
requirements_fixed.txt
.
- A linguagem pode ser configurada no
config.ini
, atualmente disponíveis apenas o Chinês (zh_CN) e o Inglês (en_US), sendo o padrão a língua do seu sistema. - Você pode configurar o APIKEY utilizando um dos métodos a seguir:
- Abra o arquivo
config.ini
na pasta do projetocomfyui_LLM_party
. - Insira seu
openai_api_key
ebase_url
noconfig.ini
. - Se você estiver utilizando o modelo ollama, insira
http://127.0.0.1:11434/v1/
embase_url
, coloqueollama
emopenai_api_key
e insira o nome do seu modelo emmodel_name
, por exemplo: llama3. - Se você deseja utilizar ferramentas de busca do Google ou Bing, insira seu
google_api_key
,cse_id
oubing_api_key
noconfig.ini
. - Se você pretende usar entrada de imagem para LLM, recomenda-se o uso do serviço de hospedagem de imagens imgbb, insira seu
imgbb_api
noconfig.ini
. - Cada modelo pode ser configurado separadamente no arquivo
config.ini
, utilizando como referência o arquivoconfig.ini.example
. Após a configuração, basta inserirmodel_name
no nó.
- Abra a interface do comfyui.
- Crie um nó de modelo de linguagem grande (LLM) e insira diretamente seu
openai_api_key
ebase_url
no nó. - Se você estiver utilizando o modelo ollama, utilize o nó LLM_api, insira
http://127.0.0.1:11434/v1/
embase_url
, coloqueollama
emapi_key
e insira o nome do seu modelo emmodel_name
, por exemplo: llama3. - Se você deseja usar entrada de imagem para LLM, recomenda-se o uso do serviço de hospedagem de imagens imgbb, insira seu
imgbb_api_key
no nó.
- Mais adaptações de modelos;
- Mais formas de construir agentes;
- Mais recursos de automação;
- Mais recursos de gestão de base de conhecimento;
- Mais ferramentas, mais personas.
Este projeto de código aberto e seu conteúdo (doravante denominado "projeto") são fornecidos apenas para fins de referência e não implicam em qualquer garantia expressa ou implícita. Os contribuintes do projeto não assumem qualquer responsabilidade pela integridade, precisão, confiabilidade ou adequação do projeto. Qualquer ação que dependa do conteúdo do projeto deve ser realizada por sua própria conta e risco. Em nenhuma circunstância os contribuintes do projeto serão responsáveis por quaisquer perdas ou danos indiretos, especiais ou consequenciais decorrentes do uso do conteúdo do projeto.
Alguns nós deste projeto foram inspirados pelos seguintes projetos, agradecemos suas contribuições à comunidade de código aberto!
Se houver problemas com o plugin ou se você tiver outras dúvidas, sinta-se à vontade para se juntar à nossa comunidade.
- Grupo QQ:
931057213
-
Grupo WeChat:
we_glm
(adicione o assistente no WeChat antes de entrar no grupo) -
Discord: discord链接
- Se desejar acompanhar as últimas funcionalidades deste projeto, fique à vontade para seguir nossa conta no Bilibili: 派对主持BB机
- youtube@comfyui-LLM-party
Se meu trabalho lhe trouxe valor, considere me convidar para um café! Seu apoio não apenas energiza o projeto, mas também aquece o coração do criador.☕💖 Cada xícara conta!