跳转到主要内容

向导命令参考

AITraining 向导支持各种命令,帮助您导航、搜索和配置训练任务。
重要:向导命令为英文(如 :help:back/search),系统消息也 为英文。本文档解释了每个命令的作用以及如何使用它们,即使您不流利使用 英语。

导航命令

这些命令在任何提示符下都有效:
命令快捷方式描述
:back返回上一步
:help?:h显示当前提示符的详细帮助
:exit:quit取消向导并退出

使用 :back

您可以随时返回以更改先前的答案:
Model (number, HF ID, or command): :back
↩️ Going back to dataset selection...  (返回数据集选择...)

Dataset (number, HF ID, or command):
会发生什么:当您输入 :back 时,向导返回到上一步。消息 “Going back to dataset selection…” 表示您正在返回到数据集选择步骤。

使用 :help

每个提示符都有上下文帮助。当您输入 :help 时,向导会显示关于所询问内容的详细说明:
Training split name [train]: :help

ℹ️  Help
  Dataset splits are named subsets of your data.
  (数据集分割是您数据的命名子集。)

  Common split names:
    • 'train' - Training data (most common)
      (训练数据 - 最常见)
    • 'test' - Test/evaluation data
      (测试/评估数据)
    • 'validation' or 'valid' - Validation data
      (验证数据)

  Note: This is NOT asking for a percentage split (like 80/20).
  (注意:这不是要求百分比分割(如 80/20)。)
  It's asking for the exact name of the split in your dataset.
  (它要求您数据集中分割的确切名称。)

Training split name [train]:
提示:每当您不确定某事的含义时,使用 :help。帮助以英文显示,但清楚地解释了您需要做什么。

目录命令

这些命令在浏览模型或数据集时有效:
命令描述
/search <query>按名称搜索模型/数据集
/sort更改排序(trending、downloads、likes、recent)
/filter按大小过滤模型(仅限模型)
/refresh清除缓存并重新加载列表

/search

查找特定模型或数据集。当您知道要查找的名称或类型时使用此命令:
Model (number, HF ID, or command): /search llama

Popular models (trending):  (热门模型 - 趋势)
  1. meta-llama/Llama-3.2-1B (1B)
  2. meta-llama/Llama-3.2-3B (3B)
  3. meta-llama/Llama-3.1-8B (8B)
  4. meta-llama/Llama-3.1-70B (70B)
  ...
如何使用:输入 /search 后跟关键字。您可以搜索:
  • 模型名称:/search gemma/search llama
  • 模型类型:/search code(专注于代码的模型)
  • 数据集名称:/search alpaca
  • 数据集类型:/search conversation(对话数据集)
搜索示例:
  • /search gemma - 查找 Gemma 模型
  • /search code - 查找专注于代码的模型
  • /search alpaca - 查找 Alpaca 风格的数据集
  • /search conversation - 查找对话数据集

/sort

更改结果的排序方式。当您想以不同方式查看模型/数据集时使用:
Model (number, HF ID, or command): /sort
Sort options: [T]rending [D]ownloads [L]ikes [R]ecent
(排序选项:[T]rending [D]ownloads [L]ikes [R]ecent)
Sort by [T]: D
如何使用:输入 /sort 然后按对应排序的键。
排序选项描述何时使用
TrendingT当前流行的内容查看社区当前使用的内容
DownloadsD有史以来下载最多查找最受验证/使用的模型
LikesL社区最喜欢查看社区最爱
RecentR最新添加发现新发布

/filter

按参数计数过滤模型(仅适用于模型,不适用于数据集)。非常有用用于查找适合您硬件的模型:
Model (number, HF ID, or command): /filter
Filter size: [A]ll [S]mall(<3B) [M]edium(3-10B) [L]arge(>10B)
(过滤大小:[A]ll [S]mall(<3B) [M]edium(3-10B) [L]arge(>10B))
Filter size [A]: S
如何使用:输入 /filter 然后按对应大小的键。这仅显示适合您硬件类型的模型。
过滤器大小范围典型硬件模型示例
AllA无过滤任何所有模型
SmallS< 3B 参数MacBook、消费级 GPUgemma-3-270mLlama-3.2-1B
MediumM3B - 10B 参数游戏 GPU、工作站gemma-2-2bLlama-3.2-3B
LargeL> 10B 参数云 GPU、多 GPULlama-3.1-70BMistral-7B

/refresh

清除缓存并获取最新数据。当列表看起来过时或您刚添加新模型/数据集时使用:
Model (number, HF ID, or command): /refresh
Cache cleared.  (缓存已清除。)

Popular models (trending):  (热门模型 - 趋势)
  ...
何时使用:如果您刚将模型上传到 HuggingFace 但它没有出现在列表中,使用 /refresh 更新。

选择方法

选择模型或数据集时,您有几个选项:

按数字

从显示的列表中选择:
Popular models (trending):
  1. google/gemma-3-270m (270M)
  2. google/gemma-2-2b (2B)
  3. meta-llama/Llama-3.2-1B (1B)

Model (number, HF ID, or command): 2
✓ Model: google/gemma-2-2b

按 HuggingFace ID

输入完整的模型/数据集 ID:
Model (number, HF ID, or command): mistralai/Mistral-7B-v0.3
✓ Model: mistralai/Mistral-7B-v0.3

按本地路径

指向本地目录:
Dataset (number, HF ID, or command): ./my_training_data
✓ Dataset: ./my_training_data

输入约定

默认值

[方括号] 中的值是默认值。按 Enter 接受:
Project name [my-llm-project]: ↵
✓ Project: my-llm-project

必填字段

标记为 [REQUIRED] 的字段必须填写。如果您尝试跳过(按 Enter),将看到错误消息:
Prompt column name [REQUIRED] [prompt]: ↵
❌ This field is required for DPO/ORPO training.
(❌ 此字段是 DPO/ORPO 训练所必需的。)
Prompt column name [REQUIRED] [prompt]: instruction

含义[REQUIRED] = 必填。您需要填写此字段才能继续。错误消息解释了为什么需要此字段。

是/否问题

y(yes/是)或 n(no/否)回答。您也可以按 Enter 接受默认值:
Configure advanced parameters? [y/N]: y
(配置高级参数?[y/N]: y)

Enable LoRA? [Y/n]: ↵
(启用 LoRA?[Y/n]: ↵)
✓ LoRA enabled (default)
(✓ LoRA 已启用(默认))
理解默认值:大写字母表示默认答案:
  • [Y/n] - 默认是(Yes)。按 Enter 接受”是”
  • [y/N] - 默认是(No)。按 Enter 接受”否”
提示:大多数情况下,您可以简单地按 Enter 接受建议的默认值。

键盘快捷方式

操作
Enter接受默认值或确认输入
Ctrl+C取消向导(与 :exit 相同)
上/下箭头滚动浏览编号选项(如果支持)

高级参数

配置高级参数时,向导将它们分组:
⚙️  Training Hyperparameters

Configure Training Hyperparameters parameters? [y/N]: y

epochs [1]:
batch_size [2]:
lr [3e-5]:
每个组可以独立配置:
包含
Training Hyperparametersepochs、batch_size、lr、warmup_ratio
PEFT/LoRApeft、lora_r、lora_alpha、quantization
DPO/ORPOdpo_beta、max_prompt_length
Hub Integrationpush_to_hub、username、token
Knowledge Distillationteacher_model、distill_temperature
Hyperparameter Sweepuse_sweep、sweep_n_trials
Enhanced Evaluationuse_enhanced_eval、eval_metrics
Reinforcement Learningrl_reward_model_path(仅 PPO)

提示

每个提示符都有详细帮助。如果您不确定某事的含义,输入 :help
做出了错误选择?使用 :back 返回到上一步。您的其他答案会被保留。
不要滚动浏览数百个模型,使用 /search llama/search 7b 来缩小范围。
不确定哪些模型会工作?使用 /filterS(small)仅查看适合消费级硬件的模型。
在您的第一次训练中,接受大多数默认值。让某些东西工作,然后自定义。

命令快速参考

导航

:back          返回上一步
:help          显示当前提示符的帮助
:exit          取消并退出

目录(模型/数据集)

/search query  按名称搜索
/sort          更改排序顺序
/filter        按大小过滤(仅限模型)
/refresh       重新加载列表

选择

1, 2, 3...     按数字选择
google/gemma   输入 HuggingFace ID
./my_data      输入本地路径

输入

Enter          接受默认值
y/n            是/否答案
Ctrl+C         取消

常见消息词汇表

使用向导时,您会看到这些英文消息。以下是它们的含义:
英文消息翻译何时出现
Going back to...返回…当您使用 :back
Help帮助当您使用 :help
Cache cleared缓存已清除当您使用 /refresh
Model: ...✓ Model: ...模型:…当您选择模型时
Dataset: ...✓ Dataset: ...数据集:…当您选择数据集时
This field is required此字段是必需的当您尝试跳过必填字段时
Configuration is valid!配置有效!当一切配置正确时
Start training?开始训练?在开始训练之前
Popular models (trending)热门模型(趋势)模型列表
Popular datasets (trending)热门数据集(趋势)数据集列表
Filter size:过滤大小:当您使用 /filter
Sort options:排序选项:当您使用 /sort