您的第一个 AI 模型
让我们训练一个简单的文本分类模型,可以检测文本中的积极与消极情感。本教程大约需要 10 分钟,可在任何计算机上运行。AI Training 新手? 查看 交互式向导指南 获取更详细的教程,包括如何选择模型、理解数据集大小和使用向导命令。
开始之前
确保您已安装 AI Training。您应该能够运行:选择您的路径
我们将以两种方式展示相同的任务。选择您熟悉的方式:- 交互式向导
- 命令行
- Python API
使用交互式向导

1. 启动向导
打开您的终端并运行:2. 选择任务类型
从菜单中选择 Text Classification。3. 准备您的数据
创建一个名为reviews.csv 的简单 CSV 文件:4. 按照提示操作
向导将询问:- Data path: 输入
./reviews.csv - Model: 选择
bert-base-uncased(或从热门模型中选择) - Text column: 输入
text - Label column: 输入
label - Output directory: 输入
./my-sentiment-model
:help- 获取当前步骤的帮助:back- 返回上一步:exit- 取消并退出:search <query>- 搜索模型/数据集:sort <option>- 按热门、下载量、点赞数排序
5. 开始训练
确认您的设置,训练开始。 在终端中观察进度。6. 使用 Chat 测试
训练后,测试您的模型:localhost:7860 并试用您的模型。发生了什么?
您已成功完成:- 准备数据 - 创建了供 AI 学习的示例
- 配置训练 - 选择了模型和设置
- 训练模型 - AI 从您的示例中学习了模式
- 测试预测 - 验证了模型在新文本上的工作效果
- 保存模型 - 可以随时使用而无需重新训练
理解结果
您的模型学会了:- 识别积极词汇和短语
- 识别消极情感模式
- 对未见过的文本进行预测
常见下一步
添加更多数据
更多示例 = 更好的准确性。尝试为每个类别添加 50-100 个示例。
尝试不同模型
尝试不同的基础模型,如
distilbert-base-uncased(更快)或 roberta-base(更准确)。微调设置
调整 epochs、learning rate 和 batch size 以获得更好的结果。
部署您的模型
了解如何将模型作为 API 提供服务或将其集成到应用程序中。
尝试其他任务
现在您了解了基础知识,试试这些:- Language Generation - 使用对话示例训练聊天机器人
- Image Classification - 将图像分类到类别中
- Named Entity Recognition - 从文本中提取姓名、地点、日期
- Translation - 在语言之间转换
故障排除
训练非常慢
训练非常慢
- 将 batch size 减少到 4 或 2
- 使用较小的模型,如
distilbert - 确保使用 GPU(如果可用)
模型预测错误
模型预测错误
- 添加更多训练示例
- 确保标签一致
- 尝试训练更多 epochs
- 检查您的数据是否平衡
内存不足错误
内存不足错误
- 减少 batch size
- 使用较小的模型
- 启用 gradient checkpointing
- 使用 LoRA 进行高效训练
下一步是什么?
- 了解 AI Training - 了解训练如何工作
- 选择您的界面 - UI、CLI 和 API 的详细比较
- 模型类型 - 探索不同的模型架构
- 高级技术 - 了解 DPO、ORPO 等
专业提示:从交互式向导(
aitraining)开始以理解概念,然后转向 CLI 进行自动化,并使用 Chat 界面(aitraining chat)测试您的模型。