Saltar al contenido principal

Referencia de Comandos del Asistente

El asistente de AITraining admite varios comandos para ayudarte a navegar, buscar y configurar tu trabajo de entrenamiento.
Importante: Los comandos del asistente están en inglés (como :help, :back, /search), así como algunos mensajes del sistema. Esta documentación explica qué hace cada comando y cómo usarlos, incluso si no hablas inglés con fluidez.

Comandos de Navegación

Estos comandos funcionan en cualquier prompt:
ComandoAtajoDescripción
:backVolver al paso anterior
:help?, :hMostrar ayuda detallada para el prompt actual
:exit:quitCancelar el asistente y salir

Usando :back

Puedes volver en cualquier momento para cambiar respuestas anteriores:
Model (number, HF ID, or command): :back
↩️ Going back to dataset selection...  (Volviendo a selección de dataset...)

Dataset (number, HF ID, or command):
Qué sucede: Cuando escribes :back, el asistente vuelve al paso anterior. El mensaje “Going back to dataset selection…” significa que estás volviendo al paso de selección de dataset.

Usando :help

Cada prompt tiene ayuda contextual. Cuando escribes :help, el asistente muestra explicaciones detalladas sobre lo que se está preguntando:
Training split name [train]: :help

ℹ️  Help
  Dataset splits are named subsets of your data.
  (Los splits de dataset son subconjuntos nombrados de tus datos.)

  Common split names:
    • 'train' - Training data (most common)
      (Datos de entrenamiento - más común)
    • 'test' - Test/evaluation data
      (Datos de prueba/evaluación)
    • 'validation' or 'valid' - Validation data
      (Datos de validación)

  Note: This is NOT asking for a percentage split (like 80/20).
  (Nota: Esto NO está pidiendo una división porcentual como 80/20.)
  It's asking for the exact name of the split in your dataset.
  (Está pidiendo el nombre exacto del split en tu dataset.)

Training split name [train]:
Consejo: Usa :help siempre que no estés seguro de lo que significa una pregunta. La ayuda aparece en inglés, pero explica claramente lo que necesitas hacer. Estos comandos funcionan al navegar modelos o datasets:
ComandoDescripción
/search <query>Buscar modelos/datasets por nombre
/sortCambiar ordenación (trending, downloads, likes, recent)
/filterFiltrar modelos por tamaño (solo modelos)
/refreshLimpiar caché y recargar la lista

/search

Encuentra modelos o datasets específicos. Usa este comando cuando sepas el nombre o tipo de lo que buscas:
Model (number, HF ID, or command): /search llama

Popular models (trending):  (Modelos populares - en tendencia)
  1. meta-llama/Llama-3.2-1B (1B)
  2. meta-llama/Llama-3.2-3B (3B)
  3. meta-llama/Llama-3.1-8B (8B)
  4. meta-llama/Llama-3.1-70B (70B)
  ...
Cómo usar: Escribe /search seguido de una palabra clave. Puedes buscar por:
  • Nombre del modelo: /search gemma, /search llama
  • Tipo de modelo: /search code (modelos enfocados en código)
  • Nombre del dataset: /search alpaca
  • Tipo de dataset: /search conversation (datasets de conversación)
Ejemplos de búsqueda:
  • /search gemma - Encontrar modelos Gemma
  • /search code - Encontrar modelos enfocados en código
  • /search alpaca - Encontrar datasets estilo Alpaca
  • /search conversation - Encontrar datasets de conversación

/sort

Cambia cómo se ordenan los resultados. Usa cuando quieras ver modelos/datasets organizados de forma diferente:
Model (number, HF ID, or command): /sort
Sort options: [T]rending [D]ownloads [L]ikes [R]ecent
(Opciones de ordenación: [T]rending [D]ownloads [L]ikes [R]ecent)
Sort by [T]: D
Cómo usar: Escribe /sort y luego presiona la tecla correspondiente a la ordenación deseada.
Opción de OrdenaciónTeclaDescripciónCuándo Usar
TrendingTLo que está popular ahoraVer qué está usando la comunidad ahora
DownloadsDMás descargados de todos los tiemposEncontrar modelos más probados y confiables
LikesLMás gustados por la comunidadVer los favoritos de la comunidad
RecentRAdiciones más recientesDescubrir lanzamientos nuevos

/filter

Filtra modelos por conteo de parámetros (funciona solo para modelos, no datasets). Muy útil para encontrar modelos que funcionan en tu hardware:
Model (number, HF ID, or command): /filter
Filter size: [A]ll [S]mall(<3B) [M]edium(3-10B) [L]arge(>10B)
(Tamaño del filtro: [A]ll [S]mall(<3B) [M]edium(3-10B) [L]arge(>10B))
Filter size [A]: S
Cómo usar: Escribe /filter y luego presiona la tecla correspondiente al tamaño deseado. Esto muestra solo modelos que caben en tu tipo de hardware.
FiltroTeclaRango de TamañoHardware TípicoEjemplo de Modelo
AllASin filtroCualquieraTodos los modelos
SmallS< 3B parámetrosMacBook, GPU de consumogemma-3-270m, Llama-3.2-1B
MediumM3B - 10B parámetrosGPU gaming, estación de trabajogemma-2-2b, Llama-3.2-3B
LargeL> 10B parámetrosGPU en la nube, multi-GPULlama-3.1-70B, Mistral-7B

/refresh

Limpia el caché y busca datos actualizados. Usa cuando la lista parezca desactualizada o si acabas de agregar un nuevo modelo/dataset:
Model (number, HF ID, or command): /refresh
Cache cleared.  (Caché limpiado.)

Popular models (trending):  (Modelos populares - en tendencia)
  ...
Cuándo usar: Si acabas de subir un modelo a HuggingFace y no aparece en la lista, usa /refresh para actualizar.

Métodos de Selección

Al elegir un modelo o dataset, tienes varias opciones:

Por Número

Selecciona de la lista mostrada:
Popular models (trending):
  1. google/gemma-3-270m (270M)
  2. google/gemma-2-2b (2B)
  3. meta-llama/Llama-3.2-1B (1B)

Model (number, HF ID, or command): 2
✓ Model: google/gemma-2-2b

Por ID de HuggingFace

Escribe el ID completo del modelo/dataset:
Model (number, HF ID, or command): mistralai/Mistral-7B-v0.3
✓ Model: mistralai/Mistral-7B-v0.3

Por Ruta Local

Apunta a un directorio local:
Dataset (number, HF ID, or command): ./my_training_data
✓ Dataset: ./my_training_data

Convenciones de Entrada

Valores Predeterminados

Los valores en [corchetes] son predeterminados. Presiona Enter para aceptar:
Project name [my-llm-project]: ↵
✓ Project: my-llm-project

Campos Obligatorios

Los campos marcados [REQUIRED] deben ser completados. Si intentas omitir (presionar Enter), verás un mensaje de error:
Prompt column name [REQUIRED] [prompt]: ↵
❌ This field is required for DPO/ORPO training.
(❌ Este campo es obligatorio para entrenamiento DPO/ORPO.)
Prompt column name [REQUIRED] [prompt]: instruction

Qué significa: [REQUIRED] = obligatorio. Necesitas completar este campo para continuar. El mensaje de error explica por qué el campo es necesario.

Preguntas Sí/No

Responde con y (yes/sí) o n (no). También puedes presionar Enter para aceptar el predeterminado:
Configure advanced parameters? [y/N]: y
(¿Configurar parámetros avanzados? [y/N]: y)

Enable LoRA? [Y/n]: ↵
(¿Habilitar LoRA? [Y/n]: ↵)
✓ LoRA enabled (default)
(✓ LoRA habilitado (predeterminado))
Entendiendo los predeterminados: La letra mayúscula indica cuál es la respuesta predeterminada:
  • [Y/n] - Predeterminado es (Yes). Presiona Enter para aceptar “sí”
  • [y/N] - Predeterminado es No (No). Presiona Enter para aceptar “no”
Consejo: La mayoría de las veces, puedes simplemente presionar Enter para aceptar el predeterminado sugerido.

Atajos de Teclado

TeclaAcción
EnterAceptar predeterminado o confirmar entrada
Ctrl+CCancelar asistente (igual a :exit)
Flecha Arriba/AbajoDesplazarse por opciones numeradas (si está soportado)

Parámetros Avanzados

Al configurar parámetros avanzados, el asistente los agrupa:
⚙️  Training Hyperparameters

Configure Training Hyperparameters parameters? [y/N]: y

epochs [1]:
batch_size [2]:
lr [3e-5]:
Cada grupo puede configurarse independientemente:
GrupoContiene
Training Hyperparametersepochs, batch_size, lr, warmup_ratio
PEFT/LoRApeft, lora_r, lora_alpha, quantization
DPO/ORPOdpo_beta, max_prompt_length
Hub Integrationpush_to_hub, username, token
Knowledge Distillationteacher_model, distill_temperature
Hyperparameter Sweepuse_sweep, sweep_n_trials
Enhanced Evaluationuse_enhanced_eval, eval_metrics
Reinforcement Learningrl_reward_model_path (solo PPO)

Consejos

Cada prompt tiene ayuda detallada. Si no estás seguro de lo que algo significa, escribe :help.
¿Hiciste una elección incorrecta? Usa :back para volver a pasos anteriores. Tus otras respuestas se conservan.
En lugar de desplazarte a través de cientos de modelos, usa /search llama o /search 7b para reducir.
¿No estás seguro de qué modelos funcionarán? Usa /filterS (small) para ver solo modelos que caben en hardware de consumo.
En tu primer entrenamiento, acepta la mayoría de los predeterminados. Haz que algo funcione, luego personaliza.

Referencia Rápida de Comandos

:back          Volver al paso anterior
:help          Mostrar ayuda para el prompt actual
:exit          Cancelar y salir

Catálogo (modelos/datasets)

/search query  Buscar por nombre
/sort          Cambiar orden de clasificación
/filter        Filtrar por tamaño (solo modelos)
/refresh       Recargar lista

Selección

1, 2, 3...     Seleccionar por número
google/gemma   Escribir ID de HuggingFace
./my_data      Escribir ruta local

Entrada

Enter          Aceptar predeterminado
y/n            Respuestas Sí/No
Ctrl+C         Cancelar

Glosario de Mensajes Comunes

Cuando uses el asistente, verás estos mensajes en inglés. Aquí está lo que significan:
Mensaje en InglésTraducciónCuándo Aparece
Going back to...Volviendo a…Cuando usas :back
HelpAyudaCuando usas :help
Cache clearedCaché limpiadoCuando usas /refresh
Model: ... o ✓ Model: ...Modelo: …Cuando seleccionas un modelo
Dataset: ... o ✓ Dataset: ...Dataset: …Cuando seleccionas un dataset
This field is requiredEste campo es obligatorioCuando intentas omitir un campo obligatorio
Configuration is valid!¡Configuración es válida!Cuando todo está configurado correctamente
Start training?¿Iniciar entrenamiento?Antes de comenzar el entrenamiento
Popular models (trending)Modelos populares (en tendencia)Lista de modelos
Popular datasets (trending)Datasets populares (en tendencia)Lista de datasets
Filter size:Tamaño del filtro:Cuando usas /filter
Sort options:Opciones de ordenación:Cuando usas /sort