Pular para o conteúdo principal

Limites de Taxa

Os limites de taxa do AITraining se aplicam ao usar recursos em nuvem.

Treinamento Local

O treinamento local não tem limites de taxa - você está limitado apenas pelo seu hardware.

Hugging Face Hub

Ao enviar para ou baixar do Hub:
OperaçãoLimite de Taxa
Downloads de modelosUso justo
Downloads de datasetsUso justo
Uploads de modelosUso justo

Lidando com Limites de Taxa

Se você atingir limites de taxa:
import time
from huggingface_hub import HfApi

def download_with_retry(model_id, max_retries=3):
    api = HfApi()
    for attempt in range(max_retries):
        try:
            return api.model_info(model_id)
        except Exception as e:
            if "rate limit" in str(e).lower():
                wait = 60 * (attempt + 1)
                print(f"Rate limited, waiting {wait}s...")
                time.sleep(wait)
            else:
                raise

Logging do W&B

O Weights & Biases tem limites de logging baseados no seu plano:
PlanoHoras Registradas/Mês
Grátis200
TeamsIlimitado
EnterpriseIlimitado

Reduzindo o Volume de Logs

params = LLMTrainingParams(
    model="google/gemma-3-270m",
    data_path="./data.jsonl",
    project_name="my-model",
    log="wandb",
    logging_steps=50,  # Log less frequently
)

Serviços de GPU em Nuvem

Se usar GPUs em nuvem (não aplicável ao treinamento local):

Hugging Face Spaces

  • Limitado pela sua cota de Spaces
  • Limites de armazenamento persistente se aplicam

Outras Nuvens

Verifique as cotas do seu provedor de nuvem para:
  • Horas de GPU
  • Armazenamento
  • Largura de banda de rede

Melhores Práticas

  1. Faça cache de modelos localmente - Não baixe novamente
  2. Registre com eficiência - Não registre a cada passo
  3. Use checkpoints - Retome em vez de reiniciar
  4. Operações em lote - Reduza chamadas de API

Próximos Passos