Claude Code
dec2f26b5c
fix: 修复 system 提示词中敏感词导致的 403 错误
...
- 修改 docker-compose.yml:将宿主机端口从 3000 改为 3001
- 修改 routes.js:增强 system 字段过滤逻辑,过滤所有项中的敏感词
- 修改 transformers/request-anthropic.js:添加 filterSensitiveKeywords 函数
- 修改 user-agent-updater.js:优化错误日志输出,增加超时时间
过滤规则:
- "Claude Code" → "AI Assistant"
- "Claude" → "AI"
- "Anthropic" → "Factory"
🤖 Generated with [Claude Code](https://claude.com/claude-code )
Co-Authored-By: Claude Sonnet 4.5 <noreply@anthropic.com >
2025-12-26 18:56:26 +00:00
Claude Code
0b04c300c0
fix: 修复 Claude Code 伪装为 Factory CLI 的 403 错误
...
主要修改:
1. 过滤 anthropic-beta header 中的 Claude Code 特有标识
2. 删除 context_management 字段
3. 过滤所有 Claude Code 特有工具(Skill, EnterPlanMode 等)
4. 过滤所有 MCP 相关工具
5. 过滤 messages 内容中的 Claude Code 特征文本
6. 处理 system 字段中的 cache_control 和字符串替换
7. 添加认证容错机制,token 失效时降级到 client authorization
🤖 Generated with [Claude Code](https://claude.com/claude-code )
Co-Authored-By: Claude Sonnet 4.5 <noreply@anthropic.com >
2025-12-26 15:46:09 +00:00
1eon
aa3bb3c65b
add gpt-5.1-codex-max support
2025-12-05 21:11:53 +08:00
1eon
62a384f34b
feat: add dynamic x-api-provider and reasoning_effort support
...
- Add per-model provider configuration in config.json
- Implement getModelProvider() to fetch provider from model config
- Update all header generators to accept dynamic provider parameter
- Add reasoning_effort field handling for common endpoint type
- Support auto/low/medium/high/off reasoning levels for common models
This enables flexible multi-provider support and reasoning control
across different endpoint types (anthropic, openai, common).
2025-11-19 01:25:01 +08:00
1e0n
3c0e922cbd
add gpt-5.1 and gpt-5.1-codex support
2025-11-14 11:33:37 +08:00
1e0n
f2b1f51a26
uodate prompt
2025-10-15 21:10:37 +08:00
1e0n
e0129b7a83
修正Anthropic端点授权转发逻辑:统一使用authorization header转发到上游端点
2025-10-09 15:21:42 +08:00
1e0n
27fdb7e157
修复 /v1/messages 端点 x-api-key 认证逻辑:
...
- handleDirectMessages 读取客户端 x-api-key header
- getAnthropicHeaders 优先使用客户端 x-api-key,避免同时设置 x-api-key 和 authorization
2025-10-09 15:05:30 +08:00
1e0n
4503604d04
支持Anthropic端点客户端x-api-key:\n- /v1/messages读取x-api-key并优先作为客户端授权传递\n- getAnthropicHeaders转发x-api-key并透传anthropic-version\n- CORS允许X-API-Key与anthropic-version
2025-10-09 14:58:56 +08:00
1e0n
4a8d7986dd
升级到v1.3.0:新增auto推理模式和完善推理级别文档
...
主要功能更新:
- 新增auto推理级别,完全遵循客户端原始请求参数
- 支持五档推理级别:auto/off/low/medium/high
- auto模式零干预:不修改推理字段和anthropic-beta头
- 除gpt-5-codex外,所有模型默认设为auto模式
文档完善:
- 更新核心功能说明,突出智能推理级别控制
- 新增auto推理模式详细说明和使用场景
- 添加推理级别对比表格和配置示例
- 增强FAQ部分,分场景解答推理相关问题
- 提供OpenAI和Anthropic模型字段对应关系
技术实现:
- 更新getModelReasoning函数支持auto选项
- 完善所有transformer的auto模式处理逻辑
- 优化routes.js中直接转发端点的auto支持
- 确保auto模式下头信息和请求体完全透传
2025-10-09 13:32:50 +08:00
1e0n
1b1a25e68d
修复流式参数处理:尊重客户端明确指定的stream参数
...
- 修正transformers中强制添加stream=true的错误逻辑
- 只有客户端明确指定stream参数时才转发该参数
- 客户端未指定stream时不强制添加,保持原有意图
- 更新routes.js中相应的流式判断逻辑
- 确保非流式请求得到正确处理
2025-10-09 11:50:49 +08:00
1e0n
74521c54c3
修复推理字段删除逻辑:当reasoning设置为off时正确删除原始请求中的推理字段
...
- 修正request-openai.js中reasoning字段的处理逻辑
- 修正request-anthropic.js中thinking字段的处理逻辑
- 确保当模型配置reasoning为off时,原始请求中的推理相关字段被显式删除
- 与routes.js中的直接转发逻辑保持一致
2025-10-08 22:07:41 +08:00
1e0n
2dc8c89270
统一User-Agent管理:从config.json读取固定值factory-cli/0.19.3
2025-10-08 18:30:21 +08:00
1e0n
1c29062ba7
增加大模型推理级别配置
2025-10-08 05:26:31 +08:00
1e0n
43803ca9da
Add common endpoint support and system prompt injection, v1.1.0
...
- Add common endpoint type for GLM-4.6 model
- Implement automatic system prompt injection for all requests
- Simplify README documentation for better user focus
- Update version to 1.1.0
- Add *.txt to .gitignore
Co-authored-by: factory-droid[bot] <138933559+factory-droid[bot]@users.noreply.github.com>
2025-10-07 21:06:28 +08:00
1e0n
6dca025e96
Initial commit: OpenAI compatible API proxy with auto token refresh
...
- Implemented OpenAI compatible API proxy server
- Support for Anthropic and custom OpenAI format conversion
- Automatic API key refresh with WorkOS OAuth
- SSE streaming response transformation
- Smart header management for Factory endpoints
- Chinese documentation
2025-10-06 02:12:01 +08:00