Skip to content

Latest commit

 

History

History
198 lines (164 loc) · 17.5 KB

README_PT.md

File metadata and controls

198 lines (164 loc) · 17.5 KB

Imagem

Comfyui_llm_party tem como objetivo, com base na comfyui, uma interface de usuário extremamente minimalista, desenvolver um conjunto completo de biblioteca de nós para a construção de fluxos de trabalho de LLM. Isso permitirá que os usuários construam seus próprios fluxos de trabalho de LLM de forma mais rápida e conveniente, além de integrar facilmente em seus próprios fluxos de trabalho de imagem.

Demonstração de resultados

EN.mp4

Visão Geral do Projeto

ComfyUI LLM Party permite desde a chamada de múltiplas ferramentas LLM, configuração rápida de personagens para construir seu assistente de IA personalizado, até a aplicação de Word Vector RAG e GraphRAG para gerenciamento local de bancos de dados de conhecimento da indústria; desde um pipeline de agentes inteligentes simples, até a construção de modos de interação complexos entre agentes inteligentes em padrão radial e circular; desde a necessidade de usuários individuais de integrar seus aplicativos sociais (QQ, Feishu, Discord), até o fluxo de trabalho tudo-em-um LLM+TTS+ComfyUI que os trabalhadores de streaming precisam; desde o primeiro aplicativo LLM que alunos comuns precisam para um fácil início, até as diversas interfaces de ajuste de parâmetros frequentemente utilizadas por pesquisadores e a adaptação de modelos. Tudo isso, você pode encontrar respostas no ComfyUI LLM Party.

Início Rápido

  1. Se você nunca usou o ComfyUI e encontrou alguns problemas de dependência ao instalar o LLM party no ComfyUI, clique aqui para baixar o pacote portátil do ComfyUI windows que inclui o LLM party. Atenção! Este pacote portátil contém apenas os dois plugins: party e manager, e é exclusivo para sistemas Windows.(Se você precisar instalar o LLM party em um comfyui existente, esta etapa pode ser pulada.)
  2. Arraste os seguintes fluxos de trabalho para o seu comfyui e use comfyui-Manager para instalar os nós ausentes.
  1. Se você estiver usando a API, preencha seu base_url (pode ser uma API de retransmissão, certifique-se de que termine com /v1/) e api_key no nó de carregamento da API LLM. Exemplo: https://api.openai.com/v1/
  2. Se você estiver usando ollama, ative a opção is_ollama no nó de carregamento da API LLM, não é necessário preencher base_url e api_key.
  3. Se você estiver usando um modelo local, preencha o caminho do seu modelo no nó de carregamento do modelo local, por exemplo: E:\model\Llama-3.2-1B-Instruct. Você também pode preencher o ID do repositório do modelo no Huggingface no nó de carregamento do modelo local, por exemplo: lllyasviel/omost-llama-3-8b-4bits.
  4. Devido ao alto limiar de uso deste projeto, mesmo que você escolha o início rápido, espero que possa ler pacientemente a página inicial do projeto.

Atualizações Recentes

  1. Foi adicionado um novo nó de hospedagem de imagens, que atualmente suporta a hospedagem de imagens de https://sm.ms (o domínio na região da China é https://smms.app) e https://imgbb.com. No futuro, mais serviços de hospedagem de imagens serão suportados. Exemplo de fluxo de trabalho: Hospedagem de Imagens
  2. O serviço de hospedagem de imagens imgbb, que é compatível por padrão com party, foi atualizado para o domínio imgbb. O serviço anterior não era amigável para usuários da China continental, por isso foi alterado. Sinto muito informar que o serviço API de hospedagem de imagens em https://imgbb.io parece ter sido descontinuado, portanto, o código voltou para o original https://imgbb.com. Agradeço a compreensão de todos. No futuro, atualizarei um nó que suporte mais serviços de hospedagem de imagens.
  3. A ferramenta MCP foi atualizada, você pode modificar a configuração no arquivo 'mcp_config.json' na pasta do projeto party para ajustar o servidor MCP ao qual deseja se conectar. Você pode encontrar aqui vários parâmetros de configuração dos servidores MCP que deseja adicionar: modelcontextprotocol/servers. A configuração padrão deste projeto é o servidor Everything, um servidor utilizado para testar se o servidor MCP opera corretamente. Fluxo de trabalho de referência: start_with_MCP. Nota para desenvolvedores: o nó da ferramenta MCP pode se conectar ao servidor MCP configurado e, em seguida, converter as ferramentas do servidor em ferramentas que o LLM pode usar diretamente. Ao configurar diferentes servidores locais ou em nuvem, você pode experimentar todas as ferramentas LLM disponíveis no mundo.

Instruções de Uso

  1. Para instruções sobre o uso dos nós, consulte: 怎么使用节点

  2. Se houver problemas com o plugin ou se você tiver outras dúvidas, sinta-se à vontade para entrar no grupo QQ: 931057213 |discord:discord.

  3. Para mais fluxos de trabalho, você pode consultar a pasta workflow.

Tutoriais em vídeo

octocat octocat

Suporte ao Modelo

  1. Suporte a todas as chamadas de API no formato openai (combinado com oneapi, é possível chamar quase todas as APIs LLM, além de suportar todas as APIs de encaminhamento), a escolha do base_url deve seguir o exemplo em config.ini.example, atualmente testados incluem:
  1. Suporte a todas as chamadas de API compatíveis com aisuite:
  1. Compatível com a maioria dos modelos locais na biblioteca transformer (o tipo de modelo no nó da cadeia de modelos LLM local foi alterado para LLM, VLM-GGUF e LLM-GGUF, correspondendo ao carregamento direto de modelos LLM, carregamento de modelos VLM e carregamento de modelos LLM no formato GGUF). Se o seu modelo LLM no formato VLM ou GGUF relatar um erro, faça o download da versão mais recente do llama-cpp-python em llama-cpp-python. Os modelos atualmente testados incluem:
  1. Download do modelo:

Download

Utilize um dos métodos abaixo para instalar

Método 1:

  1. No gerenciador comfyui, pesquise por comfyui_LLM_party e instale com um clique
  2. Reinicie o comfyui

Método Dois:

  1. Navegue até a pasta raiz do ComfyUI e acesse a subpasta custom_nodes.
  2. Clone este repositório: git clone https://github.com/heshengtao/comfyui_LLM_party.git

Método Três:

  1. Clique em CODE no canto superior direito.
  2. Clique em download zip.
  3. Extraia o arquivo compactado baixado na subpasta custom_nodes da pasta raiz do ComfyUI.

Implantação do Ambiente

  1. Navegue até a pasta do projeto comfyui_LLM_party.
  2. No terminal, digite pip install -r requirements.txt para implantar as bibliotecas de terceiros necessárias para este projeto no ambiente do ComfyUI. Verifique se você está instalando no ambiente do ComfyUI e fique atento a erros do pip no terminal.
  3. Se você estiver usando o lançador do ComfyUI, você precisará digitar no terminal caminho na configuração do lançador\python_embeded\python.exe -m pip install -r requirements.txt para realizar a instalação. A pasta python_embeded geralmente está no mesmo nível da sua pasta ComfyUI.
  4. Se você encontrar problemas de configuração do ambiente, pode tentar usar as dependências do requirements_fixed.txt.

Configuração

  • A linguagem pode ser configurada no config.ini, atualmente disponíveis apenas o Chinês (zh_CN) e o Inglês (en_US), sendo o padrão a língua do seu sistema.
  • Você pode configurar o APIKEY utilizando um dos métodos a seguir:

Método Um:

  1. Abra o arquivo config.ini na pasta do projeto comfyui_LLM_party.
  2. Insira seu openai_api_key e base_url no config.ini.
  3. Se você estiver utilizando o modelo ollama, insira http://127.0.0.1:11434/v1/ em base_url, coloque ollama em openai_api_key e insira o nome do seu modelo em model_name, por exemplo: llama3.
  4. Se você deseja utilizar ferramentas de busca do Google ou Bing, insira seu google_api_key, cse_id ou bing_api_key no config.ini.
  5. Se você pretende usar entrada de imagem para LLM, recomenda-se o uso do serviço de hospedagem de imagens imgbb, insira seu imgbb_api no config.ini.
  6. Cada modelo pode ser configurado separadamente no arquivo config.ini, utilizando como referência o arquivo config.ini.example. Após a configuração, basta inserir model_name no nó.

Método Dois:

  1. Abra a interface do comfyui.
  2. Crie um nó de modelo de linguagem grande (LLM) e insira diretamente seu openai_api_key e base_url no nó.
  3. Se você estiver utilizando o modelo ollama, utilize o nó LLM_api, insira http://127.0.0.1:11434/v1/ em base_url, coloque ollama em api_key e insira o nome do seu modelo em model_name, por exemplo: llama3.
  4. Se você deseja usar entrada de imagem para LLM, recomenda-se o uso do serviço de hospedagem de imagens imgbb, insira seu imgbb_api_key no nó.

Registro de Atualizações

Click here

Próximos passos:

  1. Mais adaptações de modelos;
  2. Mais formas de construir agentes;
  3. Mais recursos de automação;
  4. Mais recursos de gestão de base de conhecimento;
  5. Mais ferramentas, mais personas.

Isenção de responsabilidade:

Este projeto de código aberto e seu conteúdo (doravante denominado "projeto") são fornecidos apenas para fins de referência e não implicam em qualquer garantia expressa ou implícita. Os contribuintes do projeto não assumem qualquer responsabilidade pela integridade, precisão, confiabilidade ou adequação do projeto. Qualquer ação que dependa do conteúdo do projeto deve ser realizada por sua própria conta e risco. Em nenhuma circunstância os contribuintes do projeto serão responsáveis por quaisquer perdas ou danos indiretos, especiais ou consequenciais decorrentes do uso do conteúdo do projeto.

Agradecimentos Especiais

octocat octocat octocat

Agradecimentos

Alguns nós deste projeto foram inspirados pelos seguintes projetos, agradecemos suas contribuições à comunidade de código aberto!

  1. pythongosssss/ComfyUI-Custom-Scripts
  2. lllyasviel/Omost

Suporte:

Junte-se à Comunidade

Se houver problemas com o plugin ou se você tiver outras dúvidas, sinta-se à vontade para se juntar à nossa comunidade.

  1. Grupo QQ: 931057213
  1. Grupo WeChat: we_glm (adicione o assistente no WeChat antes de entrar no grupo)

  2. Discord: discord链接

Siga-nos

  1. Se desejar acompanhar as últimas funcionalidades deste projeto, fique à vontade para seguir nossa conta no Bilibili: 派对主持BB机
  2. youtube@comfyui-LLM-party

Apoio à doação

Se meu trabalho lhe trouxe valor, considere me convidar para um café! Seu apoio não apenas energiza o projeto, mas também aquece o coração do criador.☕💖 Cada xícara conta!

Histórico de Estrelas

Star History Chart