-
Notifications
You must be signed in to change notification settings - Fork 0
Expand file tree
/
Copy path.env.example
More file actions
170 lines (142 loc) · 7.27 KB
/
.env.example
File metadata and controls
170 lines (142 loc) · 7.27 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
# ============================================================
# Evotown 配置示例 — 复制为 .env 后按需填写
# ============================================================
# 每个通道(Judge / Dispatcher / Social / Chronicle)都可以
# 独立指定 provider,不受"本地/远端"限制。
#
# 通道模型路由优先级(从高到低):
#
# 优先级 变量 说明
# ──────────────────────────────────────────────────────────
# 1 {CHANNEL}_BASE_URL 通道专属 endpoint(任意 provider)
# {CHANNEL}_API_KEY 通道专属 API Key
# {CHANNEL}_MODEL 通道专属模型名
# ──────────────────────────────────────────────────────────
# 2 LOCAL_BASE_URL (仅 Judge/Dispatcher/Social)
# LOCAL_API_KEY 向后兼容,统一走本地 Ollama 时用
# ──────────────────────────────────────────────────────────
# 3 BASE_URL / API_KEY 全局兜底(主 Agent 也用这里)
# MODEL
# ──────────────────────────────────────────────────────────
#
# 通道模型 fallback 链(未设 {CHANNEL}_MODEL 时):
# Judge → MODEL
# Dispatcher → JUDGE_MODEL → MODEL
# Social → JUDGE_MODEL → MODEL
# Chronicle → MODEL(不走 LOCAL,建议强模型)
#
# 典型部署方案:
# A. 全远端同一 provider → 只填 BASE_URL / API_KEY / MODEL
# B. 全本地 Ollama → BASE_URL 指向 Ollama,不需要任何 {CHANNEL}_BASE_URL
# C. 混合多 provider → 主 Agent 走 MiniMax,Chronicle 走 Gemini,
# Social 走 Qwen,Judge 走本地 Ollama(见示例 D)
# ============================================================
# ── 主 API(主 Agent + Chronicle 默认使用)────────────────────
# 示例:MiniMax
BASE_URL=https://api.minimax.io/v1
API_KEY=your-api-key-here
MODEL=MiniMax-M2.5
# 示例:Qwen(阿里云灵积)
# BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1
# API_KEY=sk-xxxx
# MODEL=qwen3-max
# 示例:Gemini
# BASE_URL=https://generativelanguage.googleapis.com/v1beta/openai/
# API_KEY=AIzaxxxx
# MODEL=gemini-2.5-flash
# 示例:DeepSeek
# BASE_URL=https://api.deepseek.com/v1
# API_KEY=sk-xxxx
# MODEL=deepseek-chat
# 示例:本地 Ollama(全走本地时直接改这里,无需 LOCAL_BASE_URL)
# BASE_URL=http://localhost:11434/v1
# API_KEY=ollama
# MODEL=qwen2.5:14b
# ── 本地 API(可选,专供 Judge / Dispatcher / Social 低成本通道)─
# 配置后这三个通道优先走本地,主 Agent 仍走上方 BASE_URL
# 本地推荐:qwen2.5:7b (~4.5GB) 或 qwen2.5:14b (~8.5GB) via Ollama
# Docker 内访问宿主机 Ollama 用 host.docker.internal,直接运行用 localhost
# LOCAL_BASE_URL=http://host.docker.internal:11434/v1
# LOCAL_API_KEY=ollama
# ── 分通道配置(可选,每个通道可独立指定 provider)─────────────
#
# 格式:{CHANNEL}_BASE_URL / {CHANNEL}_API_KEY / {CHANNEL}_MODEL
# 只设 MODEL 不设 BASE_URL 时,沿用上方 BASE_URL(或 LOCAL_BASE_URL)
#
# 裁判评分(Judge)
# JUDGE_BASE_URL=http://localhost:11434/v1 # 示例:本地 Ollama
# JUDGE_API_KEY=ollama
# JUDGE_MODEL=qwen2.5:7b
#
# 任务生成(Dispatcher)— 未设 DISPATCHER_MODEL 则复用 JUDGE_MODEL
# DISPATCHER_BASE_URL=http://localhost:11434/v1
# DISPATCHER_API_KEY=ollama
# DISPATCHER_MODEL=qwen2.5:7b
#
# 社交/决策(Social)— 可走任意 provider,未设 MODEL 则复用 JUDGE_MODEL
# SOCIAL_BASE_URL=https://generativelanguage.googleapis.com/v1beta/openai/
# SOCIAL_API_KEY=AIzaxxxx
# SOCIAL_MODEL=gemini-2.5-flash
#
# 战报生成(Chronicle)— 建议强模型(文言文长文),未设则复用 MODEL
# CHRONICLE_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1
# CHRONICLE_API_KEY=sk-xxxx
# CHRONICLE_MODEL=qwen3-max
#
# ── 示例 D:混合多 provider(主 MiniMax + Chronicle Qwen + Social Gemini + Judge 本地)
# BASE_URL=https://api.minimax.io/v1
# API_KEY=sk-minimax-key
# MODEL=MiniMax-M2.5
#
# JUDGE_BASE_URL=http://localhost:11434/v1
# JUDGE_API_KEY=ollama
# JUDGE_MODEL=qwen2.5:7b
#
# SOCIAL_BASE_URL=https://generativelanguage.googleapis.com/v1beta/openai/
# SOCIAL_API_KEY=AIza-gemini-key
# SOCIAL_MODEL=gemini-2.5-flash
#
# CHRONICLE_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1
# CHRONICLE_API_KEY=sk-qwen-key
# CHRONICLE_MODEL=qwen3-max
# ── Skills 配置 ───────────────────────────────────────────────
SKILLS_DIR=./.skills
# ── 网络配置 ──────────────────────────────────────────────────
ALLOW_NETWORK=True
NETWORK_TIMEOUT=30
# ── 沙箱配置 ──────────────────────────────────────────────────
ENABLE_SANDBOX=true
# 沙箱安全级别:1=宽松 2=标准 3=严格(默认 3)
SKILLBOX_SANDBOX_LEVEL=3
# 自动批准安全警告(0=手动确认 1=自动通过,生产环境保持 0)
SKILLBOX_AUTO_APPROVE=0
# Linux 服务器 bwrap 报 "Failed to make / slave: Permission denied" 时启用此项,
# 绕过 bwrap 沙箱直接运行 skill(牺牲隔离换可用性)。
# 推荐优先在宿主机 sysctl -w kernel.unprivileged_userns_clone=1 解决根因。
# SKILLLITE_NO_SANDBOX=1
# ── 资源限制 ──────────────────────────────────────────────────
# Skill 执行超时(秒)
EXECUTION_TIMEOUT=120
# 最大内存(MB)
MAX_MEMORY_MB=256
# ── 高级选项 ──────────────────────────────────────────────────
SKILLBOX_USE_IPC=1
SKILLLITE_QUIET=1
SKILLBOX_ALLOW_PLAYWRIGHT=1
# Memory 向量检索(需要 embedding API)
SKILLLITE_ENABLE_MEMORY_VECTOR=1
# 长文本策略(mapreduce_full / summary / none)
SKILLLITE_LONG_TEXT_STRATEGY=mapreduce_full
# Map 阶段(逐块摘要)使用的轻量模型,可配便宜模型降低成本
# SKILLLITE_MAP_MODEL=gemini-2.5-flash
SKILLLITE_MAX_TOKENS=8192
# LLM 并发限流(同时最多发起多少个 LLM 请求,0=不限)
# LLM_MAX_CONCURRENCY=5
# ── 服务配置 ──────────────────────────────────────────────────
PORT=8080
# 管理员 Token(写操作鉴权)
# 生成方式:python3 -c "import secrets; print(secrets.token_urlsafe(32))"
ADMIN_TOKEN=your-admin-token-here
# CORS 允许来源(* 表示不限,生产环境建议指定域名)
# CORS_ORIGINS=https://your-domain.com
CORS_ORIGINS=*