进行对话
一旦模型加载完成,您就可以开始聊天了。发送消息
- 在输入框中输入您的消息
- 按 Enter 或点击发送
- 等待模型响应
- 继续对话
对话上下文
聊天会维护对话历史:- 您发送的每条消息都包含之前的上下文
- 模型”记住”您讨论过的内容
- 更长的对话会使用更多内存
上下文窗口
模型有最大上下文长度:| 模型 | 上下文长度 |
|---|---|
| Llama 3.2 (1B/3B) | 128K tokens |
| Llama 3.1 | 128K tokens |
| Mistral 7B v0.3 | 32K tokens |
| Gemma 2 | 8K tokens |
| Qwen 2.5 | 128K tokens |
上下文长度因模型版本而异。请查看 Hugging Face 上的模型卡片以获取确切规格。
对话提示
测试微调模型
使用与训练数据相似的提示进行测试:评估质量
提出能揭示模型能力的问题:- 事实性:“What is the capital of France?”
- 推理:“If A > B and B > C, is A > C?”
- 创造性:“Write a haiku about programming”
- 领域特定:来自您微调领域的问题
发现问题
测试边缘情况:- 非常短的输入 (“Hi”)
- 非常长的输入
- 异常字符或格式
- 训练域外的问题
- 试图混淆模型的尝试
清除历史
要重新开始:- 查找 “Clear” 或 “New Chat” 按钮
- 或重新加载页面
- 测试不同场景
- 上下文变得太长
- 开始新的演示
多轮对话
模型可以看到完整的对话:常见模式
问答测试
指令遵循
角色扮演
下一步
参数
调整生成设置
CLI 训练
训练更好的模型