Pular para o conteúdo principal

Iniciando a Interface de Chat

A interface de Chat permite que você interaja com seus modelos treinados em um navegador.

Início Rápido

aitraining chat
O navegador abrirá automaticamente em http://localhost:7860/inference.

Opções de Comando

aitraining chat [OPTIONS]

Options:
  --port PORT    Port to run on (default: 7860)
  --host HOST    Host to bind to (default: 127.0.0.1)

Exemplos

# Padrão (localhost:7860)
aitraining chat

# Porta personalizada
aitraining chat --port 3000

# Acessível de outras máquinas
aitraining chat --host 0.0.0.0 --port 7860

Requisitos

Antes de iniciar, você precisa:
  • Um modelo treinado (caminho local ou ID do modelo Hugging Face)
  • Memória suficiente para carregar o modelo

Fluxo de Trabalho Típico

  1. Treine um modelo:
    aitraining llm --train \
      --model meta-llama/Llama-3.2-1B \
      --data-path ./my-data \
      --project-name my-model
    
  2. Inicie o chat:
    aitraining chat
    
  3. O navegador abre automaticamente em localhost:7860/inference
  4. Carregue seu modelo treinado de ./my-model
  5. Comece a conversar

Parando o Servidor

Pressione Ctrl+C no terminal para parar o servidor de chat.

Solução de Problemas

Outro processo está usando a porta 7860. Você pode:
  • Parar o outro processo
  • Usar uma porta diferente: aitraining chat --port 3000
Verifique:
  • O caminho do modelo está correto
  • Memória GPU/RAM suficiente
  • O formato do modelo é compatível (formato Hugging Face)
Use --host 0.0.0.0 para vincular a todas as interfaces:
aitraining chat --host 0.0.0.0

Próximos Passos