
AULA para INICIANTES ComfyUI - Parte 1
E aí, pessoal! Tudo bem? Hoje estou aqui para a primeira aula sobre como usar a Confi, uma inteligência artificial que utilizo há cerca de 7 meses. No início, ela pode parecer confusa e até um pouco assustadora devido ao layout, mas na verdade é bem simples de usar. Vou dividir o conteúdo em aulas, e esta será a primeira, focada em iniciantes. Vamos lá!
Ao instalar o programa, ele provavelmente virá sem configurações prontas. No topo, você verá a opção "Workflow". Clicando em "Browse Templates", você encontrará quatro opções pré-definidas: Image Generation, Image to Image, TP Upscale e Flux Channel. Como esta é a primeira aula, vamos focar na Image Generation, a mais básica.
No lado esquerdo, você verá o "Checkpoint", que é o modelo base usado para gerar as imagens. No site CivitAI, você pode encontrar vários checkpoints. Por exemplo, o DreamShaper é mais realista, enquanto o Pony Diffusion é mais cartunesco. Dependendo do checkpoint escolhido, os resultados serão diferentes. Vou usar o DreamShaper, que é mais realista.
Para instalar um checkpoint, basta baixá-lo no site, colar na pasta "app/models/checkpoints" do Confi e dar um refresh no programa. Pronto, o checkpoint estará disponível.
Agora, vamos falar sobre os prompts. O "Clip Text 1" é o positive prompt, ou seja, o que você quer na imagem. O "Clip Text 2" é o negative prompt, o que você não quer. Por exemplo, vou usar "One Boy" (um garoto) segurando uma espada, com cabelo roxo e céu roxo. No negative prompt, vou colocar que não quero textos, marcas d'água ou dedos extras, algo comum em gerações de IA.
Em seguida, temos o "Empty Latent Image", que define o tamanho e a resolução da imagem. Vou gerar uma imagem de 700x1000 pixels. O "Batch Size" define quantas imagens serão geradas de uma vez. Vou gerar apenas uma.
O "K Sampler" é onde finalizamos todos os parâmetros. A "Seed" é como um código que define o resultado da geração. Se você usar a mesma seed com os mesmos parâmetros, terá o mesmo resultado. Vou randomizar a seed. Os "Steps" definem a quantidade de processamentos que a imagem terá. Quanto mais steps, melhor a qualidade, mas também maior o tempo de processamento. Vou usar 20 steps.
O "CFG Scale" define como a IA interpretará os parâmetros. Normalmente, usa-se entre 7 e 8. O "Sampler Name" é a maneira como o checkpoint será interpretado. O mais comum é o "Euler a" ou "Euler ancestral", mas há outros como DPM e DPM2. Vou usar o "Euler a".
Por fim, o "Scheduler" pode ser ajustado, mas normalmente deixo em "Normal". Agora é só clicar em "Queue" e esperar a geração. Pronto! A imagem foi gerada com o DreamShaper, e o resultado é bem realista, com um garoto de cabelo roxo, céu roxo e uma espada.
Se eu mudar o checkpoint para um mais cartunesco, como o Cartoon Arcadia, o resultado será completamente diferente, mesmo com os mesmos parâmetros. Isso mostra a importância do checkpoint na geração de imagens.
Nesta primeira aula, mostrei a importância do checkpoint e como ele altera os resultados. Também expliquei como gerar imagens básicas, usando prompts positivos e negativos, tamanho, resolução e seeds. Nas próximas aulas, vou aprofundar mais. Se este vídeo ajudou, inscreva-se, curta e compartilhe para ajudar a alcançar mais pessoas. Valeu, galera!