升级到v1.2.2:完善流式处理文档
- 版本升级至1.2.2 - 更新README文档突出智能流式处理功能 - 添加流式和非流式响应的使用示例 - 详细说明stream参数的三种设置方式 - 新增流式响应控制FAQ问答 - 强调完全尊重客户端stream参数设置
This commit is contained in:
31
README.md
31
README.md
@@ -36,7 +36,7 @@ OpenAI 兼容的 API 代理服务器,统一访问不同的 LLM 模型。
|
|||||||
|
|
||||||
- 🎯 **标准 OpenAI API 接口** - 使用熟悉的 OpenAI API 格式访问所有模型
|
- 🎯 **标准 OpenAI API 接口** - 使用熟悉的 OpenAI API 格式访问所有模型
|
||||||
- 🔄 **自动格式转换** - 自动处理不同 LLM 提供商的格式差异
|
- 🔄 **自动格式转换** - 自动处理不同 LLM 提供商的格式差异
|
||||||
- 🌊 **流式响应支持** - 支持实时流式输出
|
- 🌊 **智能流式处理** - 完全尊重客户端stream参数,支持流式和非流式响应
|
||||||
- ⚙️ **灵活配置** - 通过配置文件自定义模型和端点
|
- ⚙️ **灵活配置** - 通过配置文件自定义模型和端点
|
||||||
|
|
||||||
## 安装
|
## 安装
|
||||||
@@ -240,8 +240,7 @@ curl http://localhost:3000/v1/models
|
|||||||
|
|
||||||
#### 对话补全
|
#### 对话补全
|
||||||
|
|
||||||
使用标准 OpenAI 格式调用任何模型:
|
**流式响应**(实时返回):
|
||||||
|
|
||||||
```bash
|
```bash
|
||||||
curl http://localhost:3000/v1/chat/completions \
|
curl http://localhost:3000/v1/chat/completions \
|
||||||
-H "Content-Type: application/json" \
|
-H "Content-Type: application/json" \
|
||||||
@@ -254,10 +253,26 @@ curl http://localhost:3000/v1/chat/completions \
|
|||||||
}'
|
}'
|
||||||
```
|
```
|
||||||
|
|
||||||
|
**非流式响应**(等待完整结果):
|
||||||
|
```bash
|
||||||
|
curl http://localhost:3000/v1/chat/completions \
|
||||||
|
-H "Content-Type: application/json" \
|
||||||
|
-d '{
|
||||||
|
"model": "claude-opus-4-1-20250805",
|
||||||
|
"messages": [
|
||||||
|
{"role": "user", "content": "你好"}
|
||||||
|
],
|
||||||
|
"stream": false
|
||||||
|
}'
|
||||||
|
```
|
||||||
|
|
||||||
**支持的参数:**
|
**支持的参数:**
|
||||||
- `model` - 模型 ID(必需)
|
- `model` - 模型 ID(必需)
|
||||||
- `messages` - 对话消息数组(必需)
|
- `messages` - 对话消息数组(必需)
|
||||||
- `stream` - 是否流式输出(默认 true)
|
- `stream` - 流式输出控制(可选)
|
||||||
|
- `true` - 启用流式响应,实时返回内容
|
||||||
|
- `false` - 禁用流式响应,等待完整结果
|
||||||
|
- 未指定 - 由服务器端决定默认行为
|
||||||
- `max_tokens` - 最大输出长度
|
- `max_tokens` - 最大输出长度
|
||||||
- `temperature` - 温度参数(0-1)
|
- `temperature` - 温度参数(0-1)
|
||||||
|
|
||||||
@@ -288,6 +303,14 @@ droid2api支持三级授权优先级:
|
|||||||
- **CI/CD流水线** - 稳定的认证,不依赖刷新机制
|
- **CI/CD流水线** - 稳定的认证,不依赖刷新机制
|
||||||
- **临时测试** - 快速设置,无需配置refresh_token
|
- **临时测试** - 快速设置,无需配置refresh_token
|
||||||
|
|
||||||
|
### 如何控制流式和非流式响应?
|
||||||
|
|
||||||
|
droid2api完全尊重客户端的stream参数设置:
|
||||||
|
|
||||||
|
- **`"stream": true`** - 启用流式响应,内容实时返回
|
||||||
|
- **`"stream": false`** - 禁用流式响应,等待完整结果后返回
|
||||||
|
- **不设置stream** - 由服务器端决定默认行为,不强制转换
|
||||||
|
|
||||||
### 如何配置推理级别?
|
### 如何配置推理级别?
|
||||||
|
|
||||||
在 `config.json` 中为每个模型设置 `reasoning` 字段:
|
在 `config.json` 中为每个模型设置 `reasoning` 字段:
|
||||||
|
|||||||
@@ -1,6 +1,6 @@
|
|||||||
{
|
{
|
||||||
"name": "droid2api",
|
"name": "droid2api",
|
||||||
"version": "1.2.1",
|
"version": "1.2.2",
|
||||||
"description": "OpenAI Compatible API Proxy",
|
"description": "OpenAI Compatible API Proxy",
|
||||||
"main": "server.js",
|
"main": "server.js",
|
||||||
"type": "module",
|
"type": "module",
|
||||||
|
|||||||
Reference in New Issue
Block a user