将 Codex Desktop 的能力以 OpenAI 标准协议对外暴露,无缝接入任意 AI 客户端。
快速开始 • 核心功能 • 技术架构 • 客户端接入 • 配置说明
简体中文 | English
Codex Proxy 是一个轻量级本地中转服务,将 Codex Desktop 的 Responses API 转换为 OpenAI 标准的 /v1/chat/completions 接口。通过本项目,您可以在 Cursor、Continue、VS Code 等任何兼容 OpenAI 协议的客户端中直接使用 Codex 编程模型。
只需一个 ChatGPT 账号,配合本代理即可在本地搭建一个专属的 AI 编程助手网关。
git clone https://github.com/icebear0828/codex-proxy.git
cd codex-proxydocker compose up -d
# 打开 http://localhost:8080 登录数据持久化通过 volume 映射:data/(账号、Cookie)和 config/(配置文件)。
npm install # 安装后端依赖 + 自动下载 curl-impersonate
cd web && npm install && cd .. # 安装前端依赖
npm run dev # 开发模式(热重载)
# 或:npm run build && npm start # 生产模式也支持
pnpm或bun,将上方npm替换即可。
npm install # 安装后端依赖
cd web && npm install && cd .. # 安装前端依赖
npm run dev # 开发模式(热重载)Windows 下 curl-impersonate 暂不可用,自动降级为系统 curl(无 Chrome TLS 伪装)。建议搭配本地代理使用,或通过 Docker / WSL 部署以获得完整 TLS 伪装能力。
# 打开 http://localhost:8080 使用 ChatGPT 账号登录,然后:
curl http://localhost:8080/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "codex",
"messages": [{"role": "user", "content": "Hello!"}],
"stream": true
}'- 完全兼容
/v1/chat/completions(OpenAI)、/v1/messages(Anthropic)和 Gemini 格式 - 支持 SSE 流式输出,可直接对接所有 OpenAI SDK 和客户端
- 自动完成 Chat Completions ↔ Codex Responses API 双向协议转换
- OAuth PKCE 登录 — 浏览器一键授权,无需手动复制 Token
- 多账号轮换 — 支持
least_used(最少使用优先)和round_robin(轮询)两种调度策略 - Token 自动续期 — JWT 到期前自动刷新,指数退避重试(5 次),临时失败 10 分钟恢复调度
- 配额实时监控 — 控制面板展示各账号剩余用量,限流窗口滚动时自动重置计数器
- 关键数据即时持久化 — 新增/刷新 Token 立即写盘,不丢失
- 稳定连接 — 自动对齐 Codex Desktop 请求特征,Cookie 持久化减少重复验证
- Web 控制面板 — 账号管理、用量监控、状态总览,中英双语
Codex Proxy
┌─────────────────────────────────────────────────────┐
│ │
│ Client (Cursor / Continue / SDK) │
│ │ │
│ POST /v1/chat/completions │
│ POST /v1/messages (Anthropic) │
│ │ │
│ ▼ │
│ ┌──────────┐ ┌───────────────┐ ┌──────────┐ │
│ │ Routes │──▶│ Translation │──▶│ Proxy │ │
│ │ (Hono) │ │ OpenAI→Codex │ │ curl TLS │ │
│ └──────────┘ └───────────────┘ └────┬─────┘ │
│ ▲ │ │
│ │ ┌───────────────┐ │ │
│ └──────────│ Translation │◀───────┘ │
│ │ Codex→OpenAI │ SSE stream │
│ └───────────────┘ │
│ │
│ ┌──────────┐ ┌───────────────┐ ┌─────────────┐ │
│ │ Auth │ │ Fingerprint │ │ Session │ │
│ │ OAuth/JWT│ │ Headers/UA │ │ Manager │ │
│ └──────────┘ └───────────────┘ └─────────────┘ │
│ │
│ ┌──────────────────────────────────────────────┐ │
│ │ Auto-Maintenance (update-checker + scripts) │ │
│ └──────────────────────────────────────────────┘ │
│ │
└─────────────────────────────────────────────────────┘
│
curl subprocess
(Chrome TLS)
│
▼
chatgpt.com
/backend-api/codex/responses
| 模型 ID | 别名 | 说明 |
|---|---|---|
gpt-5.3-codex |
codex |
最新旗舰 agentic 编程模型(默认) |
gpt-5.2-codex |
— | 上一代 agentic 编程模型 |
gpt-5.1-codex-max |
codex-max |
深度推理编程模型 |
gpt-5.2 |
— | 通用旗舰模型 |
gpt-5.1-codex-mini |
codex-mini |
轻量快速编程模型 |
模型列表会随 Codex Desktop 版本更新自动同步。
Settings → Models → OpenAI API Base:
http://localhost:8080/v1
API Key(从控制面板获取):
your-api-key
~/.continue/config.json:
{
"models": [{
"title": "Codex",
"provider": "openai",
"model": "codex",
"apiBase": "http://localhost:8080/v1",
"apiKey": "your-api-key"
}]
}from openai import OpenAI
client = OpenAI(
base_url="http://localhost:8080/v1",
api_key="your-api-key"
)
response = client.chat.completions.create(
model="codex",
messages=[{"role": "user", "content": "Hello!"}],
stream=True
)
for chunk in response:
print(chunk.choices[0].delta.content or "", end="")import OpenAI from "openai";
const client = new OpenAI({
baseURL: "http://localhost:8080/v1",
apiKey: "your-api-key",
});
const stream = await client.chat.completions.create({
model: "codex",
messages: [{ role: "user", content: "Hello!" }],
stream: true,
});
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content || "");
}所有配置位于 config/default.yaml:
| 分类 | 关键配置 | 说明 |
|---|---|---|
server |
host, port, proxy_api_key |
服务监听地址与 API 密钥(见下方说明) |
api |
base_url, timeout_seconds |
上游 API 地址与请求超时 |
client |
app_version, build_number, chromium_version |
模拟的 Codex Desktop 版本与 Chromium 版本 |
model |
default, default_reasoning_effort |
默认模型与推理强度 |
auth |
rotation_strategy, rate_limit_backoff_seconds |
轮换策略与限流退避 |
tls |
curl_binary, impersonate_profile, proxy_url |
TLS 伪装与代理配置 |
在 config/default.yaml 中设置客户端访问代理时使用的 API Key:
server:
proxy_api_key: "pwd" # 自定义密钥,客户端请求时使用此值
# proxy_api_key: null # 设为 null 则自动生成 codex-proxy-xxxx 格式的密钥- 自定义密钥:设置为任意字符串(如
"pwd"),客户端使用Authorization: Bearer pwd访问 - 自动生成:设为
null,代理会根据账号信息自动生成一个codex-proxy-前缀的哈希密钥 - 当前密钥始终显示在控制面板(
http://localhost:8080)的 API Configuration 区域
| 环境变量 | 覆盖配置 |
|---|---|
PORT |
server.port |
CODEX_PLATFORM |
client.platform |
CODEX_ARCH |
client.arch |
HTTPS_PROXY |
tls.proxy_url |
| 端点 | 方法 | 说明 |
|---|---|---|
/v1/chat/completions |
POST | 聊天补全 — OpenAI 格式(核心端点) |
/v1/messages |
POST | 聊天补全 — Anthropic 格式 |
/v1/models |
GET | 可用模型列表 |
/health |
GET | 健康检查 |
/auth/accounts |
GET | 账号列表(?quota=true 含配额) |
/auth/accounts/login |
GET | OAuth 登录入口 |
/debug/fingerprint |
GET | 调试:查看当前伪装头信息 |
| 命令 | 说明 |
|---|---|
npm run dev |
开发模式启动(热重载) |
npm run build |
编译 TypeScript 到 dist/ |
npm start |
运行编译后的生产版本 |
npm run update |
手动触发完整更新流水线 |
- Node.js 18+(推荐 20+)
- curl — 系统自带即可;
npm install自动下载 curl-impersonate 获得完整 Chrome TLS 伪装 - ChatGPT 账号 — 普通免费账号即可
- Docker(可选) — 推荐使用 Docker 部署
- Codex API 为流式输出专用,设置
stream: false时代理会内部流式收集后返回完整 JSON - 本项目依赖 Codex Desktop 的公开接口,上游版本更新时会自动检测并更新指纹
config/default.yaml中的注释在自动更新后会丢失(使用结构化 YAML 写入)
本项目采用 非商业许可 (Non-Commercial):
- 允许:个人学习、研究、自用部署
- 禁止:任何形式的商业用途,包括但不限于出售、转售、收费代理、商业产品集成
本项目与 OpenAI 无关联。使用者需自行承担风险并遵守 OpenAI 的服务条款。