Pular para o conteúdo principal

Referência de Comandos do Assistente

O assistente do AITraining suporta vários comandos para ajudá-lo a navegar, buscar e configurar seu trabalho de treinamento.
Importante: Os comandos do assistente estão em inglês (como :help, :back, /search), assim como algumas mensagens do sistema. Esta documentação explica o que cada comando faz e como usá-los, mesmo que você não fale inglês fluentemente.

Comandos de Navegação

Estes comandos funcionam em qualquer prompt:
ComandoAtalhoDescrição
:backVoltar para a etapa anterior
:help?, :hMostrar ajuda detalhada para o prompt atual
:exit:quitCancelar o assistente e sair

Usando :back

Você pode voltar a qualquer momento para mudar respostas anteriores:
Model (number, HF ID, or command): :back
↩️ Going back to dataset selection...  (Voltando para seleção de dataset...)

Dataset (number, HF ID, or command):
O que acontece: Quando você digita :back, o assistente volta para a etapa anterior. A mensagem “Going back to dataset selection…” significa que você está voltando para a etapa de seleção de dataset.

Usando :help

Cada prompt tem ajuda contextual. Quando você digita :help, o assistente mostra explicações detalhadas sobre o que está sendo perguntado:
Training split name [train]: :help

ℹ️  Help
  Dataset splits are named subsets of your data.
  (Splits de dataset são subconjuntos nomeados dos seus dados.)

  Common split names:
    • 'train' - Training data (most common)
      (Dados de treinamento - mais comum)
    • 'test' - Test/evaluation data
      (Dados de teste/avaliação)
    • 'validation' or 'valid' - Validation data
      (Dados de validação)

  Note: This is NOT asking for a percentage split (like 80/20).
  (Nota: Isso NÃO está pedindo uma divisão percentual como 80/20.)
  It's asking for the exact name of the split in your dataset.
  (Está pedindo o nome exato do split no seu dataset.)

Training split name [train]:
Dica: Use :help sempre que não tiver certeza do que uma pergunta significa. A ajuda aparece em inglês, mas explica claramente o que você precisa fazer. Estes comandos funcionam ao navegar modelos ou datasets:
ComandoDescrição
/search <query>Buscar modelos/datasets por nome
/sortAlterar ordenação (trending, downloads, likes, recent)
/filterFiltrar modelos por tamanho (apenas modelos)
/refreshLimpar cache e recarregar a lista

/search

Encontre modelos ou datasets específicos. Use este comando quando souber o nome ou tipo do que procura:
Model (number, HF ID, or command): /search llama

Popular models (trending):  (Modelos populares - em alta)
  1. meta-llama/Llama-3.2-1B (1B)
  2. meta-llama/Llama-3.2-3B (3B)
  3. meta-llama/Llama-3.1-8B (8B)
  4. meta-llama/Llama-3.1-70B (70B)
  ...
Como usar: Digite /search seguido de uma palavra-chave. Você pode buscar por:
  • Nome do modelo: /search gemma, /search llama
  • Tipo de modelo: /search code (modelos focados em código)
  • Nome do dataset: /search alpaca
  • Tipo de dataset: /search conversation (datasets de conversação)
Exemplos de busca:
  • /search gemma - Encontrar modelos Gemma
  • /search code - Encontrar modelos focados em código
  • /search alpaca - Encontrar datasets estilo Alpaca
  • /search conversation - Encontrar datasets de conversação

/sort

Altere como os resultados são ordenados. Use quando quiser ver modelos/datasets organizados de forma diferente:
Model (number, HF ID, or command): /sort
Sort options: [T]rending [D]ownloads [L]ikes [R]ecent
(Opções de ordenação: [T]rending [D]ownloads [L]ikes [R]ecent)
Sort by [T]: D
Como usar: Digite /sort e depois pressione a tecla correspondente à ordenação desejada.
Opção de OrdenaçãoTeclaDescriçãoQuando Usar
TrendingTO que está popular agoraVer o que a comunidade está usando agora
DownloadsDMais baixados de todos os temposEncontrar modelos mais testados e confiáveis
LikesLMais curtidos pela comunidadeVer os favoritos da comunidade
RecentRAdições mais recentesDescobrir lançamentos novos

/filter

Filtre modelos por contagem de parâmetros (funciona apenas para modelos, não datasets). Muito útil para encontrar modelos que funcionam no seu hardware:
Model (number, HF ID, or command): /filter
Filter size: [A]ll [S]mall(<3B) [M]edium(3-10B) [L]arge(>10B)
(Tamanho do filtro: [A]ll [S]mall(<3B) [M]edium(3-10B) [L]arge(>10B))
Filter size [A]: S
Como usar: Digite /filter e depois pressione a tecla correspondente ao tamanho desejado. Isso mostra apenas modelos que cabem no seu tipo de hardware.
FiltroTeclaFaixa de TamanhoHardware TípicoExemplo de Modelo
AllASem filtroQualquerTodos os modelos
SmallS< 3B parâmetrosMacBook, GPU de consumogemma-3-270m, Llama-3.2-1B
MediumM3B - 10B parâmetrosGPU gamer, estação de trabalhogemma-2-2b, Llama-3.2-3B
LargeL> 10B parâmetrosGPU na nuvem, multi-GPULlama-3.1-70B, Mistral-7B

/refresh

Limpe o cache e busque dados atualizados. Use quando a lista parecer desatualizada ou se você acabou de adicionar um novo modelo/dataset:
Model (number, HF ID, or command): /refresh
Cache cleared.  (Cache limpo.)

Popular models (trending):  (Modelos populares - em alta)
  ...
Quando usar: Se você acabou de fazer upload de um modelo no HuggingFace e ele não aparece na lista, use /refresh para atualizar.

Métodos de Seleção

Ao escolher um modelo ou dataset, você tem várias opções:

Por Número

Selecione da lista exibida:
Popular models (trending):
  1. google/gemma-3-270m (270M)
  2. google/gemma-2-2b (2B)
  3. meta-llama/Llama-3.2-1B (1B)

Model (number, HF ID, or command): 2
✓ Model: google/gemma-2-2b

Por ID do HuggingFace

Digite o ID completo do modelo/dataset:
Model (number, HF ID, or command): mistralai/Mistral-7B-v0.3
✓ Model: mistralai/Mistral-7B-v0.3

Por Caminho Local

Aponte para um diretório local:
Dataset (number, HF ID, or command): ./my_training_data
✓ Dataset: ./my_training_data

Convenções de Entrada

Padrões

Valores em [colchetes] são padrões. Pressione Enter para aceitar:
Project name [my-llm-project]: ↵
✓ Project: my-llm-project

Campos Obrigatórios

Campos marcados [REQUIRED] devem ser preenchidos. Se você tentar pular (pressionar Enter), verá uma mensagem de erro:
Prompt column name [REQUIRED] [prompt]: ↵
❌ This field is required for DPO/ORPO training.
(❌ Este campo é obrigatório para treinamento DPO/ORPO.)
Prompt column name [REQUIRED] [prompt]: instruction

O que significa: [REQUIRED] = obrigatório. Você precisa preencher este campo para continuar. A mensagem de erro explica por que o campo é necessário.

Perguntas Sim/Não

Responda com y (yes/sim) ou n (no/não). Você também pode pressionar Enter para aceitar o padrão:
Configure advanced parameters? [y/N]: y
(Configurar parâmetros avançados? [y/N]: y)

Enable LoRA? [Y/n]: ↵
(Habilitar LoRA? [Y/n]: ↵)
✓ LoRA enabled (default)
(✓ LoRA habilitado (padrão))
Entendendo os padrões: A letra maiúscula indica qual é a resposta padrão:
  • [Y/n] - Padrão é Sim (Yes). Pressione Enter para aceitar “sim”
  • [y/N] - Padrão é Não (No). Pressione Enter para aceitar “não”
Dica: Na maioria das vezes, você pode simplesmente pressionar Enter para aceitar o padrão sugerido.

Atalhos de Teclado

TeclaAção
EnterAceitar padrão ou confirmar entrada
Ctrl+CCancelar assistente (igual a :exit)
Seta Cima/BaixoRolar através de opções numeradas (se suportado)

Parâmetros Avançados

Ao configurar parâmetros avançados, o assistente os agrupa:
⚙️  Training Hyperparameters

Configure Training Hyperparameters parameters? [y/N]: y

epochs [1]:
batch_size [2]:
lr [3e-5]:
Cada grupo pode ser configurado independentemente:
GrupoContém
Training Hyperparametersepochs, batch_size, lr, warmup_ratio
PEFT/LoRApeft, lora_r, lora_alpha, quantization
DPO/ORPOdpo_beta, max_prompt_length
Hub Integrationpush_to_hub, username, token
Knowledge Distillationteacher_model, distill_temperature
Hyperparameter Sweepuse_sweep, sweep_n_trials
Enhanced Evaluationuse_enhanced_eval, eval_metrics
Reinforcement Learningrl_reward_model_path (apenas PPO)

Dicas

Cada prompt tem ajuda detalhada. Se você não tiver certeza do que algo significa, digite :help.
Fez uma escolha errada? Use :back para voltar a etapas anteriores. Suas outras respostas são preservadas.
Em vez de rolar através de centenas de modelos, use /search llama ou /search 7b para reduzir.
Não tem certeza de quais modelos funcionarão? Use /filterS (small) para ver apenas modelos que cabem em hardware de consumo.
No seu primeiro treinamento, aceite a maioria dos padrões. Faça algo funcionar, depois personalize.

Referência Rápida de Comandos

:back          Voltar para etapa anterior
:help          Mostrar ajuda para o prompt atual
:exit          Cancelar e sair

Catálogo (modelos/datasets)

/search query  Buscar por nome
/sort          Alterar ordem de classificação
/filter        Filtrar por tamanho (apenas modelos)
/refresh       Recarregar lista

Seleção

1, 2, 3...     Selecionar por número
google/gemma   Digitar ID do HuggingFace
./my_data      Digitar caminho local

Entrada

Enter          Aceitar padrão
y/n            Respostas Sim/Não
Ctrl+C         Cancelar

Glossário de Mensagens Comuns

Quando você usa o assistente, verá estas mensagens em inglês. Aqui está o que elas significam:
Mensagem em InglêsTraduçãoQuando Aparece
Going back to...Voltando para…Quando você usa :back
HelpAjudaQuando você usa :help
Cache clearedCache limpoQuando você usa /refresh
Model: ... ou ✓ Model: ...Modelo: …Quando você seleciona um modelo
Dataset: ... ou ✓ Dataset: ...Dataset: …Quando você seleciona um dataset
This field is requiredEste campo é obrigatórioQuando você tenta pular um campo obrigatório
Configuration is valid!Configuração é válida!Quando tudo está configurado corretamente
Start training?Iniciar treinamento?Antes de começar o treinamento
Popular models (trending)Modelos populares (em alta)Lista de modelos
Popular datasets (trending)Datasets populares (em alta)Lista de datasets
Filter size:Tamanho do filtro:Quando você usa /filter
Sort options:Opções de ordenação:Quando você usa /sort