Saltar al contenido principal

Iniciar la Interfaz de Chat

La interfaz de Chat te permite interactuar con tus modelos entrenados en un navegador.

Inicio Rápido

aitraining chat
El navegador se abrirá automáticamente en http://localhost:7860/inference.

Opciones de Comando

aitraining chat [OPTIONS]

Options:
  --port PORT    Port to run on (default: 7860)
  --host HOST    Host to bind to (default: 127.0.0.1)

Ejemplos

# Por defecto (localhost:7860)
aitraining chat

# Puerto personalizado
aitraining chat --port 3000

# Accesible desde otras máquinas
aitraining chat --host 0.0.0.0 --port 7860

Requisitos

Antes de iniciar, necesitas:
  • Un modelo entrenado (ruta local o ID de modelo Hugging Face)
  • Memoria suficiente para cargar el modelo

Flujo de Trabajo Típico

  1. Entrena un modelo:
    aitraining llm --train \
      --model meta-llama/Llama-3.2-1B \
      --data-path ./my-data \
      --project-name my-model
    
  2. Inicia el chat:
    aitraining chat
    
  3. El navegador se abre automáticamente en localhost:7860/inference
  4. Carga tu modelo entrenado desde ./my-model
  5. Comienza a chatear

Detener el Servidor

Presiona Ctrl+C en la terminal para detener el servidor de chat.

Solución de Problemas

Otro proceso está usando el puerto 7860. Puedes:
  • Detener el otro proceso
  • Usar un puerto diferente: aitraining chat --port 3000
Verifica:
  • La ruta del modelo es correcta
  • Memoria GPU/RAM suficiente
  • El formato del modelo es compatible (formato Hugging Face)
Usa --host 0.0.0.0 para vincular a todas las interfaces:
aitraining chat --host 0.0.0.0

Próximos Pasos