跳转到主要内容

您的第一个 AI 模型

让我们训练一个简单的文本分类模型,可以检测文本中的积极与消极情感。本教程大约需要 10 分钟,可在任何计算机上运行。
AI Training 新手? 查看 交互式向导指南 获取更详细的教程,包括如何选择模型、理解数据集大小和使用向导命令。

开始之前

确保您已安装 AI Training。您应该能够运行:
aitraining --version
如果您还没有安装,最快的方法是:
# 如果您没有 uv,请安装它
curl -LsSf https://astral.sh/uv/install.sh | sh  # Mac/Linux
# 或
powershell -c "irm https://astral.sh/uv/install.ps1 | iex"  # Windows

# 然后安装 AI Training
uv pip install aitraining torch torchvision torchaudio

选择您的路径

我们将以两种方式展示相同的任务。选择您熟悉的方式:
  • 交互式向导
  • 命令行
  • Python API

使用交互式向导

AITraining Interactive Wizard

1. 启动向导

打开您的终端并运行:
aitraining
交互式向导将引导您完成配置。

2. 选择任务类型

从菜单中选择 Text Classification

3. 准备您的数据

创建一个名为 reviews.csv 的简单 CSV 文件:
text,label
"This product is amazing! Best purchase ever.",positive
"Terrible quality. Complete waste of money.",negative
"Great service and fast delivery.",positive
"Broken on arrival. Very disappointed.",negative
"Exceeded my expectations!",positive
"Would not recommend to anyone.",negative

4. 按照提示操作

向导将询问:
  • Data path: 输入 ./reviews.csv
  • Model: 选择 bert-base-uncased(或从热门模型中选择)
  • Text column: 输入 text
  • Label column: 输入 label
  • Output directory: 输入 ./my-sentiment-model
向导命令:
  • :help - 获取当前步骤的帮助
  • :back - 返回上一步
  • :exit - 取消并退出
  • :search <query> - 搜索模型/数据集
  • :sort <option> - 按热门、下载量、点赞数排序

5. 开始训练

确认您的设置,训练开始。 在终端中观察进度。

6. 使用 Chat 测试

训练后,测试您的模型:
aitraining chat
在浏览器中打开 localhost:7860 并试用您的模型。

发生了什么?

您已成功完成:
  1. 准备数据 - 创建了供 AI 学习的示例
  2. 配置训练 - 选择了模型和设置
  3. 训练模型 - AI 从您的示例中学习了模式
  4. 测试预测 - 验证了模型在新文本上的工作效果
  5. 保存模型 - 可以随时使用而无需重新训练

理解结果

您的模型学会了:
  • 识别积极词汇和短语
  • 识别消极情感模式
  • 对未见过的文本进行预测
仅用 6 个示例,您就得到了一个可用的模型。使用更多数据(数百或数千个示例),准确性会显著提高。

常见下一步

添加更多数据

更多示例 = 更好的准确性。尝试为每个类别添加 50-100 个示例。

尝试不同模型

尝试不同的基础模型,如 distilbert-base-uncased(更快)或 roberta-base(更准确)。

微调设置

调整 epochs、learning rate 和 batch size 以获得更好的结果。

部署您的模型

了解如何将模型作为 API 提供服务或将其集成到应用程序中。

尝试其他任务

现在您了解了基础知识,试试这些:
  • Language Generation - 使用对话示例训练聊天机器人
  • Image Classification - 将图像分类到类别中
  • Named Entity Recognition - 从文本中提取姓名、地点、日期
  • Translation - 在语言之间转换

故障排除

  • 将 batch size 减少到 4 或 2
  • 使用较小的模型,如 distilbert
  • 确保使用 GPU(如果可用)
  • 添加更多训练示例
  • 确保标签一致
  • 尝试训练更多 epochs
  • 检查您的数据是否平衡
  • 减少 batch size
  • 使用较小的模型
  • 启用 gradient checkpointing
  • 使用 LoRA 进行高效训练

下一步是什么?


专业提示:从交互式向导(aitraining)开始以理解概念,然后转向 CLI 进行自动化,并使用 Chat 界面(aitraining chat)测试您的模型。