Saltar al contenido principal

Límites de Tasa

Los límites de tasa de AITraining se aplican al usar recursos en la nube.

Entrenamiento Local

El entrenamiento local no tiene límites de tasa - solo estás limitado por tu hardware.

Hugging Face Hub

Al enviar o descargar del Hub:
OperaciónLímite de Tasa
Descargas de modelosUso justo
Descargas de datasetsUso justo
Subidas de modelosUso justo

Manejo de Límites de Tasa

Si alcanzas límites de tasa:
import time
from huggingface_hub import HfApi

def download_with_retry(model_id, max_retries=3):
    api = HfApi()
    for attempt in range(max_retries):
        try:
            return api.model_info(model_id)
        except Exception as e:
            if "rate limit" in str(e).lower():
                wait = 60 * (attempt + 1)
                print(f"Rate limited, waiting {wait}s...")
                time.sleep(wait)
            else:
                raise

Logging de W&B

Weights & Biases tiene límites de logging según tu plan:
PlanHoras Registradas/Mes
Gratis200
TeamsIlimitado
EnterpriseIlimitado

Reducir el Volumen de Logs

params = LLMTrainingParams(
    model="google/gemma-3-270m",
    data_path="./data.jsonl",
    project_name="my-model",
    log="wandb",
    logging_steps=50,  # Log less frequently
)

Servicios de GPU en la Nube

Si usas GPUs en la nube (no aplicable al entrenamiento local):

Hugging Face Spaces

  • Limitado por tu cuota de Spaces
  • Se aplican límites de almacenamiento persistente

Otras Nubes

Verifica las cuotas de tu proveedor de nube para:
  • Horas de GPU
  • Almacenamiento
  • Ancho de banda de red

Mejores Prácticas

  1. Almacena modelos localmente - No vuelvas a descargar
  2. Registra eficientemente - No registres cada paso
  3. Usa checkpoints - Reanuda en lugar de reiniciar
  4. Operaciones por lotes - Reduce llamadas a la API

Próximos Pasos