From 036198cebbb39c21d1d079859647b205a6030107 Mon Sep 17 00:00:00 2001 From: 1e0n Date: Thu, 9 Oct 2025 12:01:49 +0800 Subject: [PATCH] =?UTF-8?q?=E5=8D=87=E7=BA=A7=E5=88=B0v1.2.2=EF=BC=9A?= =?UTF-8?q?=E5=AE=8C=E5=96=84=E6=B5=81=E5=BC=8F=E5=A4=84=E7=90=86=E6=96=87?= =?UTF-8?q?=E6=A1=A3?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit - 版本升级至1.2.2 - 更新README文档突出智能流式处理功能 - 添加流式和非流式响应的使用示例 - 详细说明stream参数的三种设置方式 - 新增流式响应控制FAQ问答 - 强调完全尊重客户端stream参数设置 --- README.md | 31 +++++++++++++++++++++++++++---- package.json | 2 +- 2 files changed, 28 insertions(+), 5 deletions(-) diff --git a/README.md b/README.md index da0a1db..ab5b8da 100644 --- a/README.md +++ b/README.md @@ -36,7 +36,7 @@ OpenAI 兼容的 API 代理服务器,统一访问不同的 LLM 模型。 - 🎯 **标准 OpenAI API 接口** - 使用熟悉的 OpenAI API 格式访问所有模型 - 🔄 **自动格式转换** - 自动处理不同 LLM 提供商的格式差异 -- 🌊 **流式响应支持** - 支持实时流式输出 +- 🌊 **智能流式处理** - 完全尊重客户端stream参数,支持流式和非流式响应 - ⚙️ **灵活配置** - 通过配置文件自定义模型和端点 ## 安装 @@ -240,8 +240,7 @@ curl http://localhost:3000/v1/models #### 对话补全 -使用标准 OpenAI 格式调用任何模型: - +**流式响应**(实时返回): ```bash curl http://localhost:3000/v1/chat/completions \ -H "Content-Type: application/json" \ @@ -254,10 +253,26 @@ curl http://localhost:3000/v1/chat/completions \ }' ``` +**非流式响应**(等待完整结果): +```bash +curl http://localhost:3000/v1/chat/completions \ + -H "Content-Type: application/json" \ + -d '{ + "model": "claude-opus-4-1-20250805", + "messages": [ + {"role": "user", "content": "你好"} + ], + "stream": false + }' +``` + **支持的参数:** - `model` - 模型 ID(必需) - `messages` - 对话消息数组(必需) -- `stream` - 是否流式输出(默认 true) +- `stream` - 流式输出控制(可选) + - `true` - 启用流式响应,实时返回内容 + - `false` - 禁用流式响应,等待完整结果 + - 未指定 - 由服务器端决定默认行为 - `max_tokens` - 最大输出长度 - `temperature` - 温度参数(0-1) @@ -288,6 +303,14 @@ droid2api支持三级授权优先级: - **CI/CD流水线** - 稳定的认证,不依赖刷新机制 - **临时测试** - 快速设置,无需配置refresh_token +### 如何控制流式和非流式响应? + +droid2api完全尊重客户端的stream参数设置: + +- **`"stream": true`** - 启用流式响应,内容实时返回 +- **`"stream": false`** - 禁用流式响应,等待完整结果后返回 +- **不设置stream** - 由服务器端决定默认行为,不强制转换 + ### 如何配置推理级别? 在 `config.json` 中为每个模型设置 `reasoning` 字段: diff --git a/package.json b/package.json index 1464558..39db529 100644 --- a/package.json +++ b/package.json @@ -1,6 +1,6 @@ { "name": "droid2api", - "version": "1.2.1", + "version": "1.2.2", "description": "OpenAI Compatible API Proxy", "main": "server.js", "type": "module",