54 lines
1.3 KiB
Markdown
54 lines
1.3 KiB
Markdown
|
|
# LLM配置说明
|
|||
|
|
|
|||
|
|
## 千问模型配置
|
|||
|
|
|
|||
|
|
本项目默认使用阿里云千问模型。要使用千问模型,请按以下步骤配置:
|
|||
|
|
|
|||
|
|
### 1. 获取API密钥
|
|||
|
|
|
|||
|
|
1. 访问 [阿里云百炼平台](https://bailian.console.aliyun.com/)
|
|||
|
|
2. 注册并登录账号
|
|||
|
|
3. 创建应用并获取API密钥
|
|||
|
|
|
|||
|
|
### 2. 配置API密钥
|
|||
|
|
|
|||
|
|
编辑 `config/llm_config.py` 文件,将 `api_key` 替换为您的实际API密钥:
|
|||
|
|
|
|||
|
|
```python
|
|||
|
|
QWEN_CONFIG = LLMConfig(
|
|||
|
|
provider="openai",
|
|||
|
|
api_key="sk-your-actual-qwen-api-key", # 替换为您的实际密钥
|
|||
|
|
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
|
|||
|
|
model="qwen-turbo",
|
|||
|
|
temperature=0.7,
|
|||
|
|
max_tokens=2000
|
|||
|
|
)
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
### 3. 可用的千问模型
|
|||
|
|
|
|||
|
|
- `qwen-turbo`: 快速响应,适合一般对话
|
|||
|
|
- `qwen-plus`: 平衡性能和成本
|
|||
|
|
- `qwen-max`: 最强性能,适合复杂任务
|
|||
|
|
|
|||
|
|
### 4. 环境变量配置(可选)
|
|||
|
|
|
|||
|
|
您也可以使用环境变量来配置:
|
|||
|
|
|
|||
|
|
```bash
|
|||
|
|
export QWEN_API_KEY="sk-your-actual-qwen-api-key"
|
|||
|
|
export QWEN_MODEL="qwen-turbo"
|
|||
|
|
```
|
|||
|
|
|
|||
|
|
### 5. 其他模型支持
|
|||
|
|
|
|||
|
|
项目也支持其他LLM提供商:
|
|||
|
|
|
|||
|
|
- **OpenAI**: GPT-3.5/GPT-4
|
|||
|
|
- **Anthropic**: Claude系列
|
|||
|
|
- **本地模型**: Ollama等
|
|||
|
|
|
|||
|
|
### 6. 配置验证
|
|||
|
|
|
|||
|
|
启动系统后,可以在Agent管理页面查看LLM使用统计,确认配置是否正确。
|