升级到v1.2.2:完善流式处理文档

- 版本升级至1.2.2
- 更新README文档突出智能流式处理功能
- 添加流式和非流式响应的使用示例
- 详细说明stream参数的三种设置方式
- 新增流式响应控制FAQ问答
- 强调完全尊重客户端stream参数设置
This commit is contained in:
1e0n
2025-10-09 12:01:49 +08:00
parent 1b1a25e68d
commit 036198cebb
2 changed files with 28 additions and 5 deletions

View File

@@ -36,7 +36,7 @@ OpenAI 兼容的 API 代理服务器,统一访问不同的 LLM 模型。
- 🎯 **标准 OpenAI API 接口** - 使用熟悉的 OpenAI API 格式访问所有模型
- 🔄 **自动格式转换** - 自动处理不同 LLM 提供商的格式差异
- 🌊 **流式响应支持** - 支持实时流式输出
- 🌊 **智能流式处理** - 完全尊重客户端stream参数支持流式和非流式响应
- ⚙️ **灵活配置** - 通过配置文件自定义模型和端点
## 安装
@@ -240,8 +240,7 @@ curl http://localhost:3000/v1/models
#### 对话补全
使用标准 OpenAI 格式调用任何模型
**流式响应**(实时返回)
```bash
curl http://localhost:3000/v1/chat/completions \
-H "Content-Type: application/json" \
@@ -254,10 +253,26 @@ curl http://localhost:3000/v1/chat/completions \
}'
```
**非流式响应**(等待完整结果):
```bash
curl http://localhost:3000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "claude-opus-4-1-20250805",
"messages": [
{"role": "user", "content": "你好"}
],
"stream": false
}'
```
**支持的参数:**
- `model` - 模型 ID必需
- `messages` - 对话消息数组(必需)
- `stream` - 是否流式输出(默认 true
- `stream` - 流式输出控制(可选
- `true` - 启用流式响应,实时返回内容
- `false` - 禁用流式响应,等待完整结果
- 未指定 - 由服务器端决定默认行为
- `max_tokens` - 最大输出长度
- `temperature` - 温度参数0-1
@@ -288,6 +303,14 @@ droid2api支持三级授权优先级
- **CI/CD流水线** - 稳定的认证,不依赖刷新机制
- **临时测试** - 快速设置无需配置refresh_token
### 如何控制流式和非流式响应?
droid2api完全尊重客户端的stream参数设置
- **`"stream": true`** - 启用流式响应,内容实时返回
- **`"stream": false`** - 禁用流式响应,等待完整结果后返回
- **不设置stream** - 由服务器端决定默认行为,不强制转换
### 如何配置推理级别?
在 `config.json` 中为每个模型设置 `reasoning` 字段:

View File

@@ -1,6 +1,6 @@
{
"name": "droid2api",
"version": "1.2.1",
"version": "1.2.2",
"description": "OpenAI Compatible API Proxy",
"main": "server.js",
"type": "module",