Include full contents of all nested repositories

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
This commit is contained in:
2026-02-27 16:25:02 +01:00
parent 14ff8fd54c
commit 2401ed446f
7271 changed files with 1310112 additions and 6 deletions

View File

@@ -0,0 +1,159 @@
---
read_when:
- 你想在 OpenClaw 中使用 Anthropic 模型
- 你想使用 setup-token 而不是 API 密钥
summary: 在 OpenClaw 中通过 API 密钥或 setup-token 使用 Anthropic Claude
title: Anthropic
x-i18n:
generated_at: "2026-02-03T10:08:33Z"
model: claude-opus-4-5
provider: pi
source_hash: a78ccd855810a93e71d7138af4d3fc7d66e877349815c4a3207cf2214b0150b3
source_path: providers/anthropic.md
workflow: 15
---
# AnthropicClaude
Anthropic 构建了 **Claude** 模型系列,并通过 API 提供访问。
在 OpenClaw 中,你可以使用 API 密钥或 **setup-token** 进行认证。
## 选项 AAnthropic API 密钥
**适用于:** 标准 API 访问和按用量计费。
在 Anthropic Console 中创建你的 API 密钥。
### CLI 设置
```bash
openclaw onboard
# 选择Anthropic API key
# 或非交互式
openclaw onboard --anthropic-api-key "$ANTHROPIC_API_KEY"
```
### 配置片段
```json5
{
env: { ANTHROPIC_API_KEY: "sk-ant-..." },
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-5" } } },
}
```
## 提示缓存Anthropic API
OpenClaw 支持 Anthropic 的提示缓存功能。这是**仅限 API**;订阅认证不支持缓存设置。
### 配置
在模型配置中使用 `cacheRetention` 参数:
| 值 | 缓存时长 | 描述 |
| ------- | -------- | -------------------------- |
| `none` | 无缓存 | 禁用提示缓存 |
| `short` | 5 分钟 | API 密钥认证的默认值 |
| `long` | 1 小时 | 扩展缓存(需要 beta 标志) |
```json5
{
agents: {
defaults: {
models: {
"anthropic/claude-opus-4-5": {
params: { cacheRetention: "long" },
},
},
},
},
}
```
### 默认值
使用 Anthropic API 密钥认证时OpenClaw 会自动为所有 Anthropic 模型应用 `cacheRetention: "short"`5 分钟缓存)。你可以通过在配置中显式设置 `cacheRetention` 来覆盖此设置。
### 旧版参数
为了向后兼容,仍支持旧版 `cacheControlTtl` 参数:
- `"5m"` 映射到 `short`
- `"1h"` 映射到 `long`
我们建议迁移到新的 `cacheRetention` 参数。
OpenClaw 在 Anthropic API 请求中包含 `extended-cache-ttl-2025-04-11` beta 标志;
如果你覆盖提供商头信息,请保留它(参见 [/gateway/configuration](/gateway/configuration))。
## 选项 BClaude setup-token
**适用于:** 使用你的 Claude 订阅。
### 在哪里获取 setup-token
setup-token 由 **Claude Code CLI** 创建,而不是 Anthropic Console。你可以在**任何机器**上运行:
```bash
claude setup-token
```
将令牌粘贴到 OpenClaw向导**Anthropic token (paste setup-token)**),或在 Gateway 网关主机上运行:
```bash
openclaw models auth setup-token --provider anthropic
```
如果你在不同的机器上生成了令牌,请粘贴它:
```bash
openclaw models auth paste-token --provider anthropic
```
### CLI 设置
```bash
# 在新手引导期间粘贴 setup-token
openclaw onboard --auth-choice setup-token
```
### 配置片段
```json5
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-5" } } },
}
```
## 注意事项
- 使用 `claude setup-token` 生成 setup-token 并粘贴,或在 Gateway 网关主机上运行 `openclaw models auth setup-token`
- 如果你在 Claude 订阅上看到"OAuth token refresh failed …",请使用 setup-token 重新认证。参见 [/gateway/troubleshooting#oauth-token-refresh-failed-anthropic-claude-subscription](/gateway/troubleshooting#oauth-token-refresh-failed-anthropic-claude-subscription)。
- 认证详情 + 重用规则在 [/concepts/oauth](/concepts/oauth)。
## 故障排除
**401 错误/令牌突然失效**
- Claude 订阅认证可能过期或被撤销。重新运行 `claude setup-token`
并将其粘贴到 **Gateway 网关主机**
- 如果 Claude CLI 登录在不同的机器上,在 Gateway 网关主机上使用
`openclaw models auth paste-token --provider anthropic`
**No API key found for provider "anthropic"**
- 认证是**按智能体**的。新智能体不会继承主智能体的密钥。
- 为该智能体重新运行新手引导,或在 Gateway 网关主机上粘贴 setup-token / API 密钥,
然后使用 `openclaw models status` 验证。
**No credentials found for profile `anthropic:default`**
- 运行 `openclaw models status` 查看哪个认证配置文件处于活动状态。
- 重新运行新手引导,或为该配置文件粘贴 setup-token / API 密钥。
**No available auth profile (all in cooldown/unavailable)**
- 检查 `openclaw models status --json` 中的 `auth.unusableProfiles`
- 添加另一个 Anthropic 配置文件或等待冷却期结束。
更多信息:[/gateway/troubleshooting](/gateway/troubleshooting) 和 [/help/faq](/help/faq)。

View File

@@ -0,0 +1,170 @@
---
read_when:
- 你想在 OpenClaw 中使用 Amazon Bedrock 模型
- 你需要为模型调用配置 AWS 凭证/区域
summary: 在 OpenClaw 中使用 Amazon BedrockConverse API模型
title: Amazon Bedrock
x-i18n:
generated_at: "2026-02-03T10:04:01Z"
model: claude-opus-4-5
provider: pi
source_hash: 318f1048451a1910b70522e2f7f9dfc87084de26d9e3938a29d372eed32244a8
source_path: providers/bedrock.md
workflow: 15
---
# Amazon Bedrock
OpenClaw 可以通过 piai 的 **Bedrock Converse** 流式提供商使用 **Amazon Bedrock** 模型。Bedrock 认证使用 **AWS SDK 默认凭证链**,而非 API 密钥。
## piai 支持的功能
- 提供商:`amazon-bedrock`
- API`bedrock-converse-stream`
- 认证AWS 凭证(环境变量、共享配置或实例角色)
- 区域:`AWS_REGION``AWS_DEFAULT_REGION`(默认:`us-east-1`
## 自动模型发现
如果检测到 AWS 凭证OpenClaw 可以自动发现支持**流式传输**和**文本输出**的 Bedrock 模型。发现功能使用 `bedrock:ListFoundationModels`并会被缓存默认1 小时)。
配置选项位于 `models.bedrockDiscovery` 下:
```json5
{
models: {
bedrockDiscovery: {
enabled: true,
region: "us-east-1",
providerFilter: ["anthropic", "amazon"],
refreshInterval: 3600,
defaultContextWindow: 32000,
defaultMaxTokens: 4096,
},
},
}
```
注意事项:
- `enabled` 在存在 AWS 凭证时默认为 `true`
- `region` 默认为 `AWS_REGION``AWS_DEFAULT_REGION`,然后是 `us-east-1`
- `providerFilter` 匹配 Bedrock 提供商名称(例如 `anthropic`)。
- `refreshInterval` 单位为秒;设置为 `0` 可禁用缓存。
- `defaultContextWindow`(默认:`32000`)和 `defaultMaxTokens`(默认:`4096`)用于已发现的模型(如果你知道模型限制,可以覆盖这些值)。
## 设置(手动)
1. 确保 AWS 凭证在 **Gateway 网关主机**上可用:
```bash
export AWS_ACCESS_KEY_ID="AKIA..."
export AWS_SECRET_ACCESS_KEY="..."
export AWS_REGION="us-east-1"
# 可选:
export AWS_SESSION_TOKEN="..."
export AWS_PROFILE="your-profile"
# 可选Bedrock API 密钥/Bearer 令牌):
export AWS_BEARER_TOKEN_BEDROCK="..."
```
2. 在配置中添加 Bedrock 提供商和模型(无需 `apiKey`
```json5
{
models: {
providers: {
"amazon-bedrock": {
baseUrl: "https://bedrock-runtime.us-east-1.amazonaws.com",
api: "bedrock-converse-stream",
auth: "aws-sdk",
models: [
{
id: "anthropic.claude-opus-4-5-20251101-v1:0",
name: "Claude Opus 4.5 (Bedrock)",
reasoning: true,
input: ["text", "image"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
agents: {
defaults: {
model: { primary: "amazon-bedrock/anthropic.claude-opus-4-5-20251101-v1:0" },
},
},
}
```
## EC2 实例角色
当在附加了 IAM 角色的 EC2 实例上运行 OpenClaw 时AWS SDK 会自动使用实例元数据服务IMDS进行认证。但是OpenClaw 的凭证检测目前只检查环境变量,不检查 IMDS 凭证。
**解决方法:** 设置 `AWS_PROFILE=default` 以表明 AWS 凭证可用。实际认证仍然通过 IMDS 使用实例角色。
```bash
# 添加到 ~/.bashrc 或你的 shell 配置文件
export AWS_PROFILE=default
export AWS_REGION=us-east-1
```
EC2 实例角色**所需的 IAM 权限**
- `bedrock:InvokeModel`
- `bedrock:InvokeModelWithResponseStream`
- `bedrock:ListFoundationModels`(用于自动发现)
或者附加托管策略 `AmazonBedrockFullAccess`
**快速设置:**
```bash
# 1. 创建 IAM 角色和实例配置文件
aws iam create-role --role-name EC2-Bedrock-Access \
--assume-role-policy-document '{
"Version": "2012-10-17",
"Statement": [{
"Effect": "Allow",
"Principal": {"Service": "ec2.amazonaws.com"},
"Action": "sts:AssumeRole"
}]
}'
aws iam attach-role-policy --role-name EC2-Bedrock-Access \
--policy-arn arn:aws:iam::aws:policy/AmazonBedrockFullAccess
aws iam create-instance-profile --instance-profile-name EC2-Bedrock-Access
aws iam add-role-to-instance-profile \
--instance-profile-name EC2-Bedrock-Access \
--role-name EC2-Bedrock-Access
# 2. 附加到你的 EC2 实例
aws ec2 associate-iam-instance-profile \
--instance-id i-xxxxx \
--iam-instance-profile Name=EC2-Bedrock-Access
# 3. 在 EC2 实例上启用发现功能
openclaw config set models.bedrockDiscovery.enabled true
openclaw config set models.bedrockDiscovery.region us-east-1
# 4. 设置解决方法所需的环境变量
echo 'export AWS_PROFILE=default' >> ~/.bashrc
echo 'export AWS_REGION=us-east-1' >> ~/.bashrc
source ~/.bashrc
# 5. 验证模型已被发现
openclaw models list
```
## 注意事项
- Bedrock 需要在你的 AWS 账户/区域中启用**模型访问**。
- 自动发现需要 `bedrock:ListFoundationModels` 权限。
- 如果你使用配置文件,请在 Gateway 网关主机上设置 `AWS_PROFILE`
- OpenClaw 按以下顺序获取凭证来源:`AWS_BEARER_TOKEN_BEDROCK`,然后是 `AWS_ACCESS_KEY_ID` + `AWS_SECRET_ACCESS_KEY`,然后是 `AWS_PROFILE`,最后是默认的 AWS SDK 链。
- 推理支持取决于模型;请查看 Bedrock 模型卡了解当前功能。
- 如果你更喜欢托管密钥流程,也可以在 Bedrock 前面放置一个 OpenAI 兼容的代理,并将其配置为 OpenAI 提供商。

View File

@@ -0,0 +1,155 @@
---
read_when:
- 你想将 Claude Max 订阅与 OpenAI 兼容工具配合使用
- 你想要一个封装 Claude Code CLI 的本地 API 服务器
- 你想通过使用订阅而非 API 密钥来节省费用
summary: 将 Claude Max/Pro 订阅用作 OpenAI 兼容的 API 端点
title: Claude Max API 代理
x-i18n:
generated_at: "2026-02-01T21:34:52Z"
model: claude-opus-4-5
provider: pi
source_hash: 63b61096b96b720c6d0c317520852db65d72ca8279b3868f35e8387fe3b6ce41
source_path: providers/claude-max-api-proxy.md
workflow: 15
---
# Claude Max API 代理
**claude-max-api-proxy** 是一个社区工具,将你的 Claude Max/Pro 订阅暴露为 OpenAI 兼容的 API 端点。这使你可以将订阅与任何支持 OpenAI API 格式的工具配合使用。
## 为什么使用它?
| 方式 | 费用 | 适用场景 |
| --------------- | ----------------------------------------------- | ------------------------ |
| Anthropic API | 按 token 计费Opus 约 $15/M 输入,$75/M 输出) | 生产应用、高流量场景 |
| Claude Max 订阅 | 每月固定 $200 | 个人使用、开发、无限用量 |
如果你有 Claude Max 订阅并希望与 OpenAI 兼容工具配合使用,这个代理可以帮你节省大量费用。
## 工作原理
```
你的应用 → claude-max-api-proxy → Claude Code CLI → Anthropic通过订阅
OpenAI 格式) (转换格式) (使用你的登录凭据)
```
该代理:
1.`http://localhost:3456/v1/chat/completions` 接受 OpenAI 格式的请求
2. 将其转换为 Claude Code CLI 命令
3. 以 OpenAI 格式返回响应(支持流式传输)
## 安装
```bash
# 需要 Node.js 20+ 和 Claude Code CLI
npm install -g claude-max-api-proxy
# 验证 Claude CLI 已认证
claude --version
```
## 使用方法
### 启动服务器
```bash
claude-max-api
# 服务器运行在 http://localhost:3456
```
### 测试
```bash
# 健康检查
curl http://localhost:3456/health
# 列出模型
curl http://localhost:3456/v1/models
# 聊天补全
curl http://localhost:3456/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "claude-opus-4",
"messages": [{"role": "user", "content": "Hello!"}]
}'
```
### 与 OpenClaw 配合使用
你可以将 OpenClaw 指向该代理作为自定义 OpenAI 兼容端点:
```json5
{
env: {
OPENAI_API_KEY: "not-needed",
OPENAI_BASE_URL: "http://localhost:3456/v1",
},
agents: {
defaults: {
model: { primary: "openai/claude-opus-4" },
},
},
}
```
## 可用模型
| 模型 ID | 对应模型 |
| ----------------- | --------------- |
| `claude-opus-4` | Claude Opus 4 |
| `claude-sonnet-4` | Claude Sonnet 4 |
| `claude-haiku-4` | Claude Haiku 4 |
## macOS 自动启动
创建 LaunchAgent 以自动运行代理:
```bash
cat > ~/Library/LaunchAgents/com.claude-max-api.plist << 'EOF'
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
<plist version="1.0">
<dict>
<key>Label</key>
<string>com.claude-max-api</string>
<key>RunAtLoad</key>
<true/>
<key>KeepAlive</key>
<true/>
<key>ProgramArguments</key>
<array>
<string>/usr/local/bin/node</string>
<string>/usr/local/lib/node_modules/claude-max-api-proxy/dist/server/standalone.js</string>
</array>
<key>EnvironmentVariables</key>
<dict>
<key>PATH</key>
<string>/usr/local/bin:/opt/homebrew/bin:~/.local/bin:/usr/bin:/bin</string>
</dict>
</dict>
</plist>
EOF
launchctl bootstrap gui/$(id -u) ~/Library/LaunchAgents/com.claude-max-api.plist
```
## 链接
- **npm:** https://www.npmjs.com/package/claude-max-api-proxy
- **GitHub:** https://github.com/atalovesyou/claude-max-api-proxy
- **Issues:** https://github.com/atalovesyou/claude-max-api-proxy/issues
## 注意事项
- 这是一个**社区工具**,并非由 Anthropic 或 OpenClaw 官方支持
- 需要有效的 Claude Max/Pro 订阅并已认证 Claude Code CLI
- 代理在本地运行,不会将数据发送到任何第三方服务器
- 完全支持流式响应
## 另请参阅
- [Anthropic 提供商](/providers/anthropic) - OpenClaw 与 Claude 的原生集成,使用 setup-token 或 API 密钥
- [OpenAI 提供商](/providers/openai) - 适用于 OpenAI/Codex 订阅

View File

@@ -0,0 +1,97 @@
---
read_when:
- 你想使用 Deepgram 语音转文字处理音频附件
- 你需要一个快速的 Deepgram 配置示例
summary: Deepgram 语音转录,用于接收语音消息
title: Deepgram
x-i18n:
generated_at: "2026-02-01T21:34:47Z"
model: claude-opus-4-5
provider: pi
source_hash: 8f19e072f08672116ed1a72578635c0dcebb2b1f0dfcbefa12f80b21a18ad25c
source_path: providers/deepgram.md
workflow: 15
---
# Deepgram音频转录
Deepgram 是一个语音转文字 API。在 OpenClaw 中,它通过 `tools.media.audio` 用于**接收音频/语音消息的转录**。
启用后OpenClaw 会将音频文件上传到 Deepgram并将转录文本注入回复管道`{{Transcript}}` + `[Audio]` 块)。这**不是流式**处理;它使用的是预录音转录端点。
网站https://deepgram.com
文档https://developers.deepgram.com
## 快速开始
1. 设置你的 API 密钥:
```
DEEPGRAM_API_KEY=dg_...
```
2. 启用提供商:
```json5
{
tools: {
media: {
audio: {
enabled: true,
models: [{ provider: "deepgram", model: "nova-3" }],
},
},
},
}
```
## 选项
- `model`Deepgram 模型 ID默认`nova-3`
- `language`:语言提示(可选)
- `tools.media.audio.providerOptions.deepgram.detect_language`:启用语言检测(可选)
- `tools.media.audio.providerOptions.deepgram.punctuate`:启用标点符号(可选)
- `tools.media.audio.providerOptions.deepgram.smart_format`:启用智能格式化(可选)
带语言参数的示例:
```json5
{
tools: {
media: {
audio: {
enabled: true,
models: [{ provider: "deepgram", model: "nova-3", language: "en" }],
},
},
},
}
```
带 Deepgram 选项的示例:
```json5
{
tools: {
media: {
audio: {
enabled: true,
providerOptions: {
deepgram: {
detect_language: true,
punctuate: true,
smart_format: true,
},
},
models: [{ provider: "deepgram", model: "nova-3" }],
},
},
},
}
```
## 注意事项
- 认证遵循标准提供商认证顺序;`DEEPGRAM_API_KEY` 是最简单的方式。
- 使用代理时,可通过 `tools.media.audio.baseUrl``tools.media.audio.headers` 覆盖端点或请求头。
- 输出遵循与其他提供商相同的音频规则(大小限制、超时、转录文本注入)。

View File

@@ -0,0 +1,67 @@
---
read_when:
- 你想使用 GitHub Copilot 作为模型提供商
- 你需要了解 `openclaw models auth login-github-copilot` 流程
summary: 使用设备流从 OpenClaw 登录 GitHub Copilot
title: GitHub Copilot
x-i18n:
generated_at: "2026-02-01T21:34:57Z"
model: claude-opus-4-5
provider: pi
source_hash: 503e0496d92c921e2f7111b1b4ba16374f5b781643bfbc6cb69cea97d9395c25
source_path: providers/github-copilot.md
workflow: 15
---
# GitHub Copilot
## 什么是 GitHub Copilot
GitHub Copilot 是 GitHub 的 AI 编程助手。它为你的 GitHub 账户和订阅计划提供 Copilot 模型的访问权限。OpenClaw 可以通过两种不同的方式将 Copilot 用作模型提供商。
## 在 OpenClaw 中使用 Copilot 的两种方式
### 1内置 GitHub Copilot 提供商(`github-copilot`
使用原生设备登录流程获取 GitHub 令牌,然后在 OpenClaw 运行时将其兑换为 Copilot API 令牌。这是**默认**且最简单的方式,因为它不需要 VS Code。
### 2Copilot Proxy 插件(`copilot-proxy`
使用 **Copilot Proxy** VS Code 扩展作为本地桥接。OpenClaw 与代理的 `/v1` 端点通信,并使用你在其中配置的模型列表。当你已经在 VS Code 中运行 Copilot Proxy 或需要通过它进行路由时,选择此方式。你必须启用该插件并保持 VS Code 扩展运行。
使用 GitHub Copilot 作为模型提供商(`github-copilot`)。登录命令运行 GitHub 设备流程,保存认证配置文件,并更新你的配置以使用该配置文件。
## CLI 设置
```bash
openclaw models auth login-github-copilot
```
系统会提示你访问一个 URL 并输入一次性代码。请保持终端打开直到流程完成。
### 可选参数
```bash
openclaw models auth login-github-copilot --profile-id github-copilot:work
openclaw models auth login-github-copilot --yes
```
## 设置默认模型
```bash
openclaw models set github-copilot/gpt-4o
```
### 配置片段
```json5
{
agents: { defaults: { model: { primary: "github-copilot/gpt-4o" } } },
}
```
## 注意事项
- 需要交互式 TTY请直接在终端中运行。
- Copilot 模型的可用性取决于你的订阅计划;如果某个模型被拒绝,请尝试其他 ID例如 `github-copilot/gpt-4.1`)。
- 登录会将 GitHub 令牌存储在认证配置文件中,并在 OpenClaw 运行时将其兑换为 Copilot API 令牌。

View File

@@ -0,0 +1,39 @@
---
read_when:
- 你想在 OpenClaw 中使用 GLM 模型
- 你需要了解模型命名规范和设置方法
summary: GLM 模型系列概述 + 如何在 OpenClaw 中使用
title: GLM 模型
x-i18n:
generated_at: "2026-02-01T21:34:53Z"
model: claude-opus-4-5
provider: pi
source_hash: 2d7b457f033f26f28c230a9cd2310151f825fc52c3ee4fb814d08fd2d022d041
source_path: providers/glm.md
workflow: 15
---
# GLM 模型
GLM 是一个**模型系列**(而非公司),通过 Z.AI 平台提供。在 OpenClaw 中GLM 模型通过 `zai` 提供商访问,模型 ID 格式如 `zai/glm-4.7`
## CLI 设置
```bash
openclaw onboard --auth-choice zai-api-key
```
## 配置片段
```json5
{
env: { ZAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "zai/glm-4.7" } } },
}
```
## 注意事项
- GLM 版本和可用性可能会变化;请查阅 Z.AI 的文档获取最新信息。
- 示例模型 ID 包括 `glm-4.7``glm-4.6`
- 有关提供商的详细信息,请参阅 [/providers/zai](/providers/zai)。

View File

@@ -0,0 +1,68 @@
---
read_when:
- 你想选择一个模型提供商
- 你需要快速了解支持的 LLM 后端
summary: OpenClaw 支持的模型提供商LLM
title: 模型提供商
x-i18n:
generated_at: "2026-02-03T07:53:32Z"
model: claude-opus-4-5
provider: pi
source_hash: eb4a97438adcf610499253afcf8b2af6624f4be098df389a6c3746f14c4a901b
source_path: providers/index.md
workflow: 15
---
# 模型提供商
OpenClaw 可以使用许多 LLM 提供商。选择一个提供商,进行认证,然后将默认模型设置为 `provider/model`
正在寻找聊天渠道文档WhatsApp/Telegram/Discord/Slack/Mattermost插件参见[渠道](/channels)。
## 亮点VeniceVenice AI
Venice 是我们推荐的 Venice AI 设置,用于隐私优先的推理,并可选择使用 Opus 处理困难任务。
- 默认:`venice/llama-3.3-70b`
- 最佳综合:`venice/claude-opus-45`Opus 仍然是最强的)
参见 [Venice AI](/providers/venice)。
## 快速开始
1. 与提供商进行认证(通常通过 `openclaw onboard`)。
2. 设置默认模型:
```json5
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-5" } } },
}
```
## 提供商文档
- [OpenAIAPI + Codex](/providers/openai)
- [AnthropicAPI + Claude Code CLI](/providers/anthropic)
- [QwenOAuth](/providers/qwen)
- [OpenRouter](/providers/openrouter)
- [Vercel AI Gateway](/providers/vercel-ai-gateway)
- [Moonshot AIKimi + Kimi Coding](/providers/moonshot)
- [OpenCode Zen](/providers/opencode)
- [Amazon Bedrock](/providers/bedrock)
- [Z.AI](/providers/zai)
- [Xiaomi](/providers/xiaomi)
- [GLM 模型](/providers/glm)
- [MiniMax](/providers/minimax)
- [VeniceVenice AI注重隐私](/providers/venice)
- [Ollama本地模型](/providers/ollama)
## 转录提供商
- [Deepgram音频转录](/providers/deepgram)
## 社区工具
- [Claude Max API Proxy](/providers/claude-max-api-proxy) - 将 Claude Max/Pro 订阅作为 OpenAI 兼容的 API 端点使用
有关完整的提供商目录xAI、Groq、Mistral 等)和高级配置,
参见[模型提供商](/concepts/model-providers)。

View File

@@ -0,0 +1,206 @@
---
read_when:
- 你想在 OpenClaw 中使用 MiniMax 模型
- 你需要 MiniMax 设置指南
summary: 在 OpenClaw 中使用 MiniMax M2.1
title: MiniMax
x-i18n:
generated_at: "2026-02-03T10:08:52Z"
model: claude-opus-4-5
provider: pi
source_hash: 861e1ddc3c24be88f716bfb72d6015d62875a9087f8e89ea4ba3a35f548c7fae
source_path: providers/minimax.md
workflow: 15
---
# MiniMax
MiniMax 是一家构建 **M2/M2.1** 模型系列的 AI 公司。当前面向编程的版本是 **MiniMax M2.1**2025 年 12 月 23 日),专为现实世界的复杂任务而构建。
来源:[MiniMax M2.1 发布说明](https://www.minimax.io/news/minimax-m21)
## 模型概述M2.1
MiniMax 强调 M2.1 的以下改进:
- 更强的**多语言编程**能力Rust、Java、Go、C++、Kotlin、Objective-C、TS/JS
- 更好的 **Web/应用开发**和美观输出质量(包括原生移动端)。
- 改进的**复合指令**处理,适用于办公风格的工作流程,基于交错思考和集成约束执行。
- **更简洁的响应**,更低的 token 使用量和更快的迭代循环。
- 更强的**工具/智能体框架**兼容性和上下文管理Claude Code、Droid/Factory AI、Cline、Kilo Code、Roo Code、BlackBox
- 更高质量的**对话和技术写作**输出。
## MiniMax M2.1 vs MiniMax M2.1 Lightning
- **速度:** Lightning 是 MiniMax 定价文档中的"快速"变体。
- **成本:** 定价显示相同的输入成本,但 Lightning 的输出成本更高。
- **编程计划路由:** Lightning 后端在 MiniMax 编程计划中不能直接使用。MiniMax 自动将大多数请求路由到 Lightning但在流量高峰期会回退到常规 M2.1 后端。
## 选择设置方式
### MiniMax OAuth编程计划— 推荐
**适用于:** 通过 OAuth 快速设置 MiniMax 编程计划,无需 API 密钥。
启用内置 OAuth 插件并进行认证:
```bash
openclaw plugins enable minimax-portal-auth # 如果已加载则跳过
openclaw gateway restart # 如果 Gateway 网关已在运行则重启
openclaw onboard --auth-choice minimax-portal
```
系统会提示你选择端点:
- **Global** - 国际用户(`api.minimax.io`
- **CN** - 中国用户(`api.minimaxi.com`
详情参见 [MiniMax OAuth 插件 README](https://github.com/openclaw/openclaw/tree/main/extensions/minimax-portal-auth)。
### MiniMax M2.1API 密钥)
**适用于:** 使用 Anthropic 兼容 API 的托管 MiniMax。
通过 CLI 配置:
- 运行 `openclaw configure`
- 选择 **Model/auth**
- 选择 **MiniMax M2.1**
```json5
{
env: { MINIMAX_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "minimax/MiniMax-M2.1" } } },
models: {
mode: "merge",
providers: {
minimax: {
baseUrl: "https://api.minimax.io/anthropic",
apiKey: "${MINIMAX_API_KEY}",
api: "anthropic-messages",
models: [
{
id: "MiniMax-M2.1",
name: "MiniMax M2.1",
reasoning: false,
input: ["text"],
cost: { input: 15, output: 60, cacheRead: 2, cacheWrite: 10 },
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
}
```
### MiniMax M2.1 作为备用Opus 为主)
**适用于:** 保持 Opus 4.5 为主模型,故障时切换到 MiniMax M2.1。
```json5
{
env: { MINIMAX_API_KEY: "sk-..." },
agents: {
defaults: {
models: {
"anthropic/claude-opus-4-5": { alias: "opus" },
"minimax/MiniMax-M2.1": { alias: "minimax" },
},
model: {
primary: "anthropic/claude-opus-4-5",
fallbacks: ["minimax/MiniMax-M2.1"],
},
},
},
}
```
### 可选:通过 LM Studio 本地运行(手动)
**适用于:** 使用 LM Studio 进行本地推理。
我们在强大硬件(例如台式机/服务器)上使用 LM Studio 的本地服务器运行 MiniMax M2.1 时看到了出色的效果。
通过 `openclaw.json` 手动配置:
```json5
{
agents: {
defaults: {
model: { primary: "lmstudio/minimax-m2.1-gs32" },
models: { "lmstudio/minimax-m2.1-gs32": { alias: "Minimax" } },
},
},
models: {
mode: "merge",
providers: {
lmstudio: {
baseUrl: "http://127.0.0.1:1234/v1",
apiKey: "lmstudio",
api: "openai-responses",
models: [
{
id: "minimax-m2.1-gs32",
name: "MiniMax M2.1 GS32",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 196608,
maxTokens: 8192,
},
],
},
},
},
}
```
## 通过 `openclaw configure` 配置
使用交互式配置向导设置 MiniMax无需编辑 JSON
1. 运行 `openclaw configure`
2. 选择 **Model/auth**
3. 选择 **MiniMax M2.1**
4. 在提示时选择你的默认模型。
## 配置选项
- `models.providers.minimax.baseUrl`:推荐使用 `https://api.minimax.io/anthropic`Anthropic 兼容);`https://api.minimax.io/v1` 可选用于 OpenAI 兼容的负载。
- `models.providers.minimax.api`:推荐使用 `anthropic-messages``openai-completions` 可选用于 OpenAI 兼容的负载。
- `models.providers.minimax.apiKey`MiniMax API 密钥(`MINIMAX_API_KEY`)。
- `models.providers.minimax.models`:定义 `id``name``reasoning``contextWindow``maxTokens``cost`
- `agents.defaults.models`:为你想要在允许列表中的模型设置别名。
- `models.mode`:如果你想将 MiniMax 与内置模型一起添加,保持 `merge`
## 注意事项
- 模型引用格式为 `minimax/<model>`
- 编程计划使用量 API`https://api.minimaxi.com/v1/api/openplatform/coding_plan/remains`(需要编程计划密钥)。
- 如果需要精确的成本跟踪,请更新 `models.json` 中的定价值。
- MiniMax 编程计划推荐链接9 折优惠https://platform.minimax.io/subscribe/coding-plan?code=DbXJTRClnb&source=link
- 参见 [/concepts/model-providers](/concepts/model-providers) 了解提供商规则。
- 使用 `openclaw models list``openclaw models set minimax/MiniMax-M2.1` 切换模型。
## 故障排除
### "Unknown model: minimax/MiniMax-M2.1"
这通常意味着 **MiniMax 提供商未配置**(没有提供商条目,也没有找到 MiniMax 认证配置文件/环境变量密钥)。此检测的修复在 **2026.1.12** 中(撰写本文时尚未发布)。修复方法:
- 升级到 **2026.1.12**(或从源码 `main` 分支运行),然后重启 Gateway 网关。
- 运行 `openclaw configure` 并选择 **MiniMax M2.1**,或
- 手动添加 `models.providers.minimax` 块,或
- 设置 `MINIMAX_API_KEY`(或 MiniMax 认证配置文件)以便注入提供商。
确保模型 id **区分大小写**
- `minimax/MiniMax-M2.1`
- `minimax/MiniMax-M2.1-lightning`
然后重新检查:
```bash
openclaw models list
```

View File

@@ -0,0 +1,55 @@
---
read_when:
- 你想选择一个模型提供商
- 你想要 LLM 认证 + 模型选择的快速设置示例
summary: OpenClaw 支持的模型提供商LLM
title: 模型提供商快速入门
x-i18n:
generated_at: "2026-02-03T07:53:35Z"
model: claude-opus-4-5
provider: pi
source_hash: 2f5b99207dc7860e0a7b541b61e984791f5d7ab1953b3e917365a248a09b025b
source_path: providers/models.md
workflow: 15
---
# 模型提供商
OpenClaw 可以使用许多 LLM 提供商。选择一个,进行认证,然后将默认模型设置为 `provider/model`
## 推荐VeniceVenice AI
Venice 是我们推荐的 Venice AI 设置,用于隐私优先的推理,并可选择使用 Opus 处理最困难的任务。
- 默认:`venice/llama-3.3-70b`
- 最佳综合:`venice/claude-opus-45`Opus 仍然是最强的)
参见 [Venice AI](/providers/venice)。
## 快速开始(两个步骤)
1. 与提供商认证(通常通过 `openclaw onboard`)。
2. 设置默认模型:
```json5
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-5" } } },
}
```
## 支持的提供商(入门集)
- [OpenAIAPI + Codex](/providers/openai)
- [AnthropicAPI + Claude Code CLI](/providers/anthropic)
- [OpenRouter](/providers/openrouter)
- [Vercel AI Gateway](/providers/vercel-ai-gateway)
- [Moonshot AIKimi + Kimi Coding](/providers/moonshot)
- [Synthetic](/providers/synthetic)
- [OpenCode Zen](/providers/opencode)
- [Z.AI](/providers/zai)
- [GLM 模型](/providers/glm)
- [MiniMax](/providers/minimax)
- [VeniceVenice AI](/providers/venice)
- [Amazon Bedrock](/providers/bedrock)
有关完整的提供商目录xAI、Groq、Mistral 等)和高级配置,请参阅[模型提供商](/concepts/model-providers)。

View File

@@ -0,0 +1,145 @@
---
read_when:
- 你想了解 Moonshot K2Moonshot 开放平台)与 Kimi Coding 的配置
- 你需要了解独立的端点、密钥和模型引用
- 你想获取任一提供商的可复制粘贴配置
summary: 配置 Moonshot K2 与 Kimi Coding独立提供商和密钥
title: Moonshot AI
x-i18n:
generated_at: "2026-02-01T21:35:13Z"
model: claude-opus-4-5
provider: pi
source_hash: 2de81b1a37a0e6e61e0e142fcd36760ecd00834e107dc9b5e38bbf971b27e18e
source_path: providers/moonshot.md
workflow: 15
---
# Moonshot AI (Kimi)
Moonshot 提供兼容 OpenAI 端点的 Kimi API。配置提供商并将默认模型设置为 `moonshot/kimi-k2.5`,或使用 Kimi Coding 的 `kimi-coding/k2p5`
当前 Kimi K2 模型 ID
{/_ moonshot-kimi-k2-ids:start _/}
- `kimi-k2.5`
- `kimi-k2-0905-preview`
- `kimi-k2-turbo-preview`
- `kimi-k2-thinking`
- `kimi-k2-thinking-turbo`
{/_ moonshot-kimi-k2-ids:end _/}
```bash
openclaw onboard --auth-choice moonshot-api-key
```
Kimi Coding
```bash
openclaw onboard --auth-choice kimi-code-api-key
```
注意Moonshot 和 Kimi Coding 是独立的提供商。密钥不可互换端点不同模型引用也不同Moonshot 使用 `moonshot/...`Kimi Coding 使用 `kimi-coding/...`)。
## 配置片段Moonshot API
```json5
{
env: { MOONSHOT_API_KEY: "sk-..." },
agents: {
defaults: {
model: { primary: "moonshot/kimi-k2.5" },
models: {
// moonshot-kimi-k2-aliases:start
"moonshot/kimi-k2.5": { alias: "Kimi K2.5" },
"moonshot/kimi-k2-0905-preview": { alias: "Kimi K2" },
"moonshot/kimi-k2-turbo-preview": { alias: "Kimi K2 Turbo" },
"moonshot/kimi-k2-thinking": { alias: "Kimi K2 Thinking" },
"moonshot/kimi-k2-thinking-turbo": { alias: "Kimi K2 Thinking Turbo" },
// moonshot-kimi-k2-aliases:end
},
},
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.ai/v1",
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [
// moonshot-kimi-k2-models:start
{
id: "kimi-k2.5",
name: "Kimi K2.5",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 256000,
maxTokens: 8192,
},
{
id: "kimi-k2-0905-preview",
name: "Kimi K2 0905 Preview",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 256000,
maxTokens: 8192,
},
{
id: "kimi-k2-turbo-preview",
name: "Kimi K2 Turbo",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 256000,
maxTokens: 8192,
},
{
id: "kimi-k2-thinking",
name: "Kimi K2 Thinking",
reasoning: true,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 256000,
maxTokens: 8192,
},
{
id: "kimi-k2-thinking-turbo",
name: "Kimi K2 Thinking Turbo",
reasoning: true,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 256000,
maxTokens: 8192,
},
// moonshot-kimi-k2-models:end
],
},
},
},
}
```
## Kimi Coding
```json5
{
env: { KIMI_API_KEY: "sk-..." },
agents: {
defaults: {
model: { primary: "kimi-coding/k2p5" },
models: {
"kimi-coding/k2p5": { alias: "Kimi K2.5" },
},
},
},
}
```
## 注意事项
- Moonshot 模型引用使用 `moonshot/<modelId>`。Kimi Coding 模型引用使用 `kimi-coding/<modelId>`
- 如有需要,可在 `models.providers` 中覆盖定价和上下文元数据。
- 如果 Moonshot 发布了某个模型的不同上下文限制,请相应调整 `contextWindow`
- 如需使用中国端点,请使用 `https://api.moonshot.cn/v1`

View File

@@ -0,0 +1,230 @@
---
read_when:
- 你想通过 Ollama 使用本地模型运行 OpenClaw
- 你需要 Ollama 的安装和配置指导
summary: 通过 Ollama本地 LLM 运行时)运行 OpenClaw
title: Ollama
x-i18n:
generated_at: "2026-02-01T21:35:22Z"
model: claude-opus-4-5
provider: pi
source_hash: 157080ad90f449f622260a5f5bd293f79c15800527d36b15596e8ca232e3c957
source_path: providers/ollama.md
workflow: 15
---
# Ollama
Ollama 是一个本地 LLM 运行时可以轻松在你的机器上运行开源模型。OpenClaw 通过 Ollama 的 OpenAI 兼容 API 进行集成,并且当你通过 `OLLAMA_API_KEY`(或认证配置)启用且未定义显式的 `models.providers.ollama` 条目时,可以**自动发现支持工具调用的模型**。
## 快速开始
1. 安装 Ollamahttps://ollama.ai
2. 拉取模型:
```bash
ollama pull llama3.3
# 或
ollama pull qwen2.5-coder:32b
# 或
ollama pull deepseek-r1:32b
```
3. 为 OpenClaw 启用 Ollama任意值即可Ollama 不需要真实密钥):
```bash
# 设置环境变量
export OLLAMA_API_KEY="ollama-local"
# 或在配置文件中设置
openclaw config set models.providers.ollama.apiKey "ollama-local"
```
4. 使用 Ollama 模型:
```json5
{
agents: {
defaults: {
model: { primary: "ollama/llama3.3" },
},
},
}
```
## 模型发现(隐式提供商)
当你设置了 `OLLAMA_API_KEY`(或认证配置)且**未**定义 `models.providers.ollama`OpenClaw 会从本地 Ollama 实例 `http://127.0.0.1:11434` 发现模型:
- 查询 `/api/tags``/api/show`
- 仅保留报告了 `tools` 能力的模型
- 当模型报告 `thinking` 时标记为 `reasoning`
- 在可用时从 `model_info["<arch>.context_length"]` 读取 `contextWindow`
-`maxTokens` 设置为上下文窗口的 10 倍
- 所有费用设置为 `0`
这样无需手动配置模型条目,同时保持目录与 Ollama 的能力对齐。
查看可用模型:
```bash
ollama list
openclaw models list
```
要添加新模型,只需通过 Ollama 拉取:
```bash
ollama pull mistral
```
新模型将被自动发现并可供使用。
如果你显式设置了 `models.providers.ollama`,自动发现将被跳过,你必须手动定义模型(见下文)。
## 配置
### 基本设置(隐式发现)
启用 Ollama 最简单的方式是通过环境变量:
```bash
export OLLAMA_API_KEY="ollama-local"
```
### 显式设置(手动模型)
在以下情况使用显式配置:
- Ollama 运行在其他主机/端口上。
- 你想强制指定上下文窗口或模型列表。
- 你想包含未报告工具支持的模型。
```json5
{
models: {
providers: {
ollama: {
// 使用包含 /v1 的主机地址以兼容 OpenAI API
baseUrl: "http://ollama-host:11434/v1",
apiKey: "ollama-local",
api: "openai-completions",
models: [
{
id: "llama3.3",
name: "Llama 3.3",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 8192,
maxTokens: 8192 * 10
}
]
}
}
}
}
```
如果设置了 `OLLAMA_API_KEY`,你可以在提供商条目中省略 `apiKey`OpenClaw 会自动填充以进行可用性检查。
### 自定义基础 URL显式配置
如果 Ollama 运行在不同的主机或端口上(显式配置会禁用自动发现,因此需要手动定义模型):
```json5
{
models: {
providers: {
ollama: {
apiKey: "ollama-local",
baseUrl: "http://ollama-host:11434/v1",
},
},
},
}
```
### 模型选择
配置完成后,所有 Ollama 模型即可使用:
```json5
{
agents: {
defaults: {
model: {
primary: "ollama/llama3.3",
fallbacks: ["ollama/qwen2.5-coder:32b"],
},
},
},
}
```
## 高级用法
### 推理模型
当 Ollama 在 `/api/show` 中报告 `thinking`OpenClaw 会将模型标记为具有推理能力:
```bash
ollama pull deepseek-r1:32b
```
### 模型费用
Ollama 免费且在本地运行,因此所有模型费用均设置为 $0。
### 上下文窗口
对于自动发现的模型OpenClaw 会使用 Ollama 报告的上下文窗口(如果可用),否则默认为 `8192`。你可以在显式提供商配置中覆盖 `contextWindow``maxTokens`
## 故障排除
### Ollama 未被检测到
确保 Ollama 正在运行,且你已设置 `OLLAMA_API_KEY`(或认证配置),并且**未**定义显式的 `models.providers.ollama` 条目:
```bash
ollama serve
```
同时确认 API 可访问:
```bash
curl http://localhost:11434/api/tags
```
### 没有可用模型
OpenClaw 仅自动发现报告了工具支持的模型。如果你的模型未列出,可以:
- 拉取一个支持工具调用的模型,或
-`models.providers.ollama` 中显式定义该模型。
添加模型:
```bash
ollama list # 查看已安装的模型
ollama pull llama3.3 # 拉取模型
```
### 连接被拒绝
检查 Ollama 是否在正确的端口上运行:
```bash
# 检查 Ollama 是否在运行
ps aux | grep ollama
# 或重启 Ollama
ollama serve
```
## 另请参阅
- [模型提供商](/concepts/model-providers) - 所有提供商概览
- [模型选择](/concepts/models) - 如何选择模型
- [配置](/gateway/configuration) - 完整配置参考

View File

@@ -0,0 +1,68 @@
---
read_when:
- 你想在 OpenClaw 中使用 OpenAI 模型
- 你想使用 Codex 订阅认证而非 API 密钥
summary: 在 OpenClaw 中通过 API 密钥或 Codex 订阅使用 OpenAI
title: OpenAI
x-i18n:
generated_at: "2026-02-01T21:35:10Z"
model: claude-opus-4-5
provider: pi
source_hash: f15365d5d616258f6035b986d80fe6acd1be5836a07e5bb68236688ef2952ef7
source_path: providers/openai.md
workflow: 15
---
# OpenAI
OpenAI 提供 GPT 模型的开发者 API。Codex 支持**ChatGPT 登录**进行订阅访问,或**API 密钥**登录进行按量计费访问。Codex 云端需要 ChatGPT 登录。
## 方式 AOpenAI API 密钥OpenAI Platform
**适用于:**直接 API 访问和按量计费。
从 OpenAI 控制台获取你的 API 密钥。
### CLI 设置
```bash
openclaw onboard --auth-choice openai-api-key
# 或非交互式
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
```
### 配置片段
```json5
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/gpt-5.2" } } },
}
```
## 方式 BOpenAI CodeCodex订阅
**适用于:**使用 ChatGPT/Codex 订阅访问而非 API 密钥。
Codex 云端需要 ChatGPT 登录,而 Codex CLI 支持 ChatGPT 或 API 密钥登录。
### CLI 设置
```bash
# 在向导中运行 Codex OAuth
openclaw onboard --auth-choice openai-codex
# 或直接运行 OAuth
openclaw models auth login --provider openai-codex
```
### 配置片段
```json5
{
agents: { defaults: { model: { primary: "openai-codex/gpt-5.2" } } },
}
```
## 注意事项
- 模型引用始终使用 `provider/model` 格式(参见 [/concepts/models](/concepts/models))。
- 认证详情和复用规则请参阅 [/concepts/oauth](/concepts/oauth)。

View File

@@ -0,0 +1,41 @@
---
read_when:
- 你想通过 OpenCode Zen 访问模型
- 你想要一个适合编程的精选模型列表
summary: 在 OpenClaw 中使用 OpenCode Zen精选模型
title: OpenCode Zen
x-i18n:
generated_at: "2026-02-01T21:35:16Z"
model: claude-opus-4-5
provider: pi
source_hash: 1390f9803a3cac48cb40694dd69267e3ddccd203a4ce8babda3198b926b5f6a3
source_path: providers/opencode.md
workflow: 15
---
# OpenCode Zen
OpenCode Zen 是由 OpenCode 团队推荐的一组**精选模型列表**,适用于编程智能体。它是一个可选的托管模型访问路径,使用 API 密钥和 `opencode` 提供商。Zen 目前处于测试阶段。
## CLI 设置
```bash
openclaw onboard --auth-choice opencode-zen
# 或非交互式
openclaw onboard --opencode-zen-api-key "$OPENCODE_API_KEY"
```
## 配置片段
```json5
{
env: { OPENCODE_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "opencode/claude-opus-4-5" } } },
}
```
## 注意事项
- 也支持 `OPENCODE_ZEN_API_KEY`
- 你需要登录 Zen添加账单信息然后复制你的 API 密钥。
- OpenCode Zen 按请求计费;详情请查看 OpenCode 控制台。

View File

@@ -0,0 +1,43 @@
---
read_when:
- 你想用一个 API 密钥访问多种 LLM
- 你想在 OpenClaw 中通过 OpenRouter 运行模型
summary: 使用 OpenRouter 的统一 API 在 OpenClaw 中访问多种模型
title: OpenRouter
x-i18n:
generated_at: "2026-02-01T21:35:19Z"
model: claude-opus-4-5
provider: pi
source_hash: b7e29fc9c456c64d567dd909a85166e6dea8388ebd22155a31e69c970e081586
source_path: providers/openrouter.md
workflow: 15
---
# OpenRouter
OpenRouter 提供了一个**统一 API**,通过单一端点和 API 密钥将请求路由到多种模型。它兼容 OpenAI因此大多数 OpenAI SDK 只需切换 base URL 即可使用。
## CLI 设置
```bash
openclaw onboard --auth-choice apiKey --token-provider openrouter --token "$OPENROUTER_API_KEY"
```
## 配置片段
```json5
{
env: { OPENROUTER_API_KEY: "sk-or-..." },
agents: {
defaults: {
model: { primary: "openrouter/anthropic/claude-sonnet-4-5" },
},
},
}
```
## 注意事项
- 模型引用格式为 `openrouter/<provider>/<model>`
- 更多模型/提供商选项,请参阅[模型提供商](/concepts/model-providers)。
- OpenRouter 底层使用 Bearer 令牌和你的 API 密钥进行认证。

View File

@@ -0,0 +1,8 @@
---
summary: 使用千帆统一 API 在 OpenClaw 中接入多种模型
title: 千帆Qianfan
---
# 千帆Qianfan
该页面是英文文档的中文占位版本,完整内容请先参考英文版:[Qianfan](/providers/qianfan)。

View File

@@ -0,0 +1,55 @@
---
read_when:
- 你想在 OpenClaw 中使用 Qwen
- 你想要免费层 OAuth 访问 Qwen Coder
summary: 在 OpenClaw 中使用 Qwen OAuth免费层
title: Qwen
x-i18n:
generated_at: "2026-02-03T07:53:34Z"
model: claude-opus-4-5
provider: pi
source_hash: 88b88e224e2fecbb1ca26e24fbccdbe25609be40b38335d0451343a5da53fdd4
source_path: providers/qwen.md
workflow: 15
---
# Qwen
Qwen 为 Qwen Coder 和 Qwen Vision 模型提供免费层 OAuth 流程(每天 2,000 次请求,受 Qwen 速率限制约束)。
## 启用插件
```bash
openclaw plugins enable qwen-portal-auth
```
启用后重启 Gateway 网关。
## 认证
```bash
openclaw models auth login --provider qwen-portal --set-default
```
这会运行 Qwen 设备码 OAuth 流程并将提供商条目写入你的 `models.json`(加上一个 `qwen` 别名以便快速切换)。
## 模型 ID
- `qwen-portal/coder-model`
- `qwen-portal/vision-model`
切换模型:
```bash
openclaw models set qwen-portal/coder-model
```
## 复用 Qwen Code CLI 登录
如果你已经使用 Qwen Code CLI 登录OpenClaw 会在加载认证存储时从 `~/.qwen/oauth_creds.json` 同步凭证。你仍然需要一个 `models.providers.qwen-portal` 条目(使用上面的登录命令创建一个)。
## 注意
- 令牌自动刷新;如果刷新失败或访问被撤销,请重新运行登录命令。
- 默认基础 URL`https://portal.qwen.ai/v1`(如果 Qwen 提供不同的端点,使用 `models.providers.qwen-portal.baseUrl` 覆盖)。
- 参阅[模型提供商](/concepts/model-providers)了解提供商级别的规则。

View File

@@ -0,0 +1,102 @@
---
read_when:
- 你想使用 Synthetic 作为模型提供商
- 你需要配置 Synthetic API 密钥或 base URL
summary: 在 OpenClaw 中使用 Synthetic 的 Anthropic 兼容 API
title: Synthetic
x-i18n:
generated_at: "2026-02-01T21:35:34Z"
model: claude-opus-4-5
provider: pi
source_hash: f3f6e3eb864661754cbe2276783c5bc96ae01cb85ee4a19c92bed7863a35a4f7
source_path: providers/synthetic.md
workflow: 15
---
# Synthetic
Synthetic 提供兼容 Anthropic 的端点。OpenClaw 将其注册为 `synthetic` 提供商,并使用 Anthropic Messages API。
## 快速设置
1. 设置 `SYNTHETIC_API_KEY`(或运行以下向导)。
2. 运行新手引导:
```bash
openclaw onboard --auth-choice synthetic-api-key
```
默认模型设置为:
```
synthetic/hf:MiniMaxAI/MiniMax-M2.1
```
## 配置示例
```json5
{
env: { SYNTHETIC_API_KEY: "sk-..." },
agents: {
defaults: {
model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.1" },
models: { "synthetic/hf:MiniMaxAI/MiniMax-M2.1": { alias: "MiniMax M2.1" } },
},
},
models: {
mode: "merge",
providers: {
synthetic: {
baseUrl: "https://api.synthetic.new/anthropic",
apiKey: "${SYNTHETIC_API_KEY}",
api: "anthropic-messages",
models: [
{
id: "hf:MiniMaxAI/MiniMax-M2.1",
name: "MiniMax M2.1",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 192000,
maxTokens: 65536,
},
],
},
},
},
}
```
注意OpenClaw 的 Anthropic 客户端会自动在 base URL 后追加 `/v1`,因此请使用 `https://api.synthetic.new/anthropic`(而非 `/anthropic/v1`)。如果 Synthetic 更改了其 base URL请覆盖 `models.providers.synthetic.baseUrl`
## 模型目录
以下所有模型的费用均为 `0`(输入/输出/缓存)。
| 模型 ID | 上下文窗口 | 最大令牌数 | 推理 | 输入 |
| ------------------------------------------------------ | ---------- | ---------- | ----- | ------------ |
| `hf:MiniMaxAI/MiniMax-M2.1` | 192000 | 65536 | false | text |
| `hf:moonshotai/Kimi-K2-Thinking` | 256000 | 8192 | true | text |
| `hf:zai-org/GLM-4.7` | 198000 | 128000 | false | text |
| `hf:deepseek-ai/DeepSeek-R1-0528` | 128000 | 8192 | false | text |
| `hf:deepseek-ai/DeepSeek-V3-0324` | 128000 | 8192 | false | text |
| `hf:deepseek-ai/DeepSeek-V3.1` | 128000 | 8192 | false | text |
| `hf:deepseek-ai/DeepSeek-V3.1-Terminus` | 128000 | 8192 | false | text |
| `hf:deepseek-ai/DeepSeek-V3.2` | 159000 | 8192 | false | text |
| `hf:meta-llama/Llama-3.3-70B-Instruct` | 128000 | 8192 | false | text |
| `hf:meta-llama/Llama-4-Maverick-17B-128E-Instruct-FP8` | 524000 | 8192 | false | text |
| `hf:moonshotai/Kimi-K2-Instruct-0905` | 256000 | 8192 | false | text |
| `hf:openai/gpt-oss-120b` | 128000 | 8192 | false | text |
| `hf:Qwen/Qwen3-235B-A22B-Instruct-2507` | 256000 | 8192 | false | text |
| `hf:Qwen/Qwen3-Coder-480B-A35B-Instruct` | 256000 | 8192 | false | text |
| `hf:Qwen/Qwen3-VL-235B-A22B-Instruct` | 250000 | 8192 | false | text + image |
| `hf:zai-org/GLM-4.5` | 128000 | 128000 | false | text |
| `hf:zai-org/GLM-4.6` | 198000 | 128000 | false | text |
| `hf:deepseek-ai/DeepSeek-V3` | 128000 | 8192 | false | text |
| `hf:Qwen/Qwen3-235B-A22B-Thinking-2507` | 256000 | 8192 | true | text |
## 注意事项
- 模型引用格式为 `synthetic/<modelId>`
- 如果启用了模型允许列表(`agents.defaults.models`),请添加你计划使用的所有模型。
- 参阅[模型提供商](/concepts/model-providers)了解提供商规则。

View File

@@ -0,0 +1,274 @@
---
read_when:
- 你想在 OpenClaw 中使用注重隐私的推理服务
- 你需要 Venice AI 设置指导
summary: 在 OpenClaw 中使用 Venice AI 注重隐私的模型
title: Venice AI
x-i18n:
generated_at: "2026-02-01T21:36:03Z"
model: claude-opus-4-5
provider: pi
source_hash: 2453a6ec3a715c24c460f902dec1755edcad40328de2ef895e35a614a25624cf
source_path: providers/venice.md
workflow: 15
---
# Venice AIVenice 精选)
**Venice** 是我们精选的 Venice 隐私优先推理配置,支持可选的匿名化访问专有模型。
Venice AI 提供注重隐私的 AI 推理服务,支持无审查模型,并可通过其匿名代理访问主流专有模型。所有推理默认私密——不会用你的数据训练,不会记录日志。
## 为什么在 OpenClaw 中使用 Venice
- **私密推理**,适用于开源模型(无日志记录)。
- 需要时可使用**无审查模型**。
- 在质量重要时,可**匿名访问**专有模型Opus/GPT/Gemini
- 兼容 OpenAI 的 `/v1` 端点。
## 隐私模式
Venice 提供两种隐私级别——理解这一点是选择模型的关键:
| 模式 | 描述 | 模型 |
| ---------- | ------------------------------------------------------------------------------------- | ------------------------------------------- |
| **私密** | 完全私密。提示词/回复**从不存储或记录**。临时性处理。 | Llama、Qwen、DeepSeek、Venice Uncensored 等 |
| **匿名化** | 通过 Venice 代理转发并剥离元数据。底层提供商OpenAI、Anthropic收到的是匿名化请求。 | Claude、GPT、Gemini、Grok、Kimi、MiniMax |
## 功能特性
- **注重隐私**:可选择"私密"(完全私密)和"匿名化"(代理转发)模式
- **无审查模型**:访问无内容限制的模型
- **主流模型访问**:通过 Venice 匿名代理使用 Claude、GPT-5.2、Gemini、Grok
- **兼容 OpenAI API**:标准 `/v1` 端点,易于集成
- **流式输出**:✅ 所有模型均支持
- **函数调用**:✅ 部分模型支持(请检查模型能力)
- **视觉**:✅ 具有视觉能力的模型支持
- **无硬性速率限制**:极端使用情况下可能触发公平使用限流
## 设置
### 1. 获取 API 密钥
1. 在 [venice.ai](https://venice.ai) 注册
2. 前往 **Settings → API Keys → Create new key**
3. 复制你的 API 密钥(格式:`vapi_xxxxxxxxxxxx`
### 2. 配置 OpenClaw
**方案 A环境变量**
```bash
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
```
**方案 B交互式设置推荐**
```bash
openclaw onboard --auth-choice venice-api-key
```
这将:
1. 提示输入你的 API 密钥(或使用已有的 `VENICE_API_KEY`
2. 显示所有可用的 Venice 模型
3. 让你选择默认模型
4. 自动配置提供商
**方案 C非交互式**
```bash
openclaw onboard --non-interactive \
--auth-choice venice-api-key \
--venice-api-key "vapi_xxxxxxxxxxxx"
```
### 3. 验证设置
```bash
openclaw chat --model venice/llama-3.3-70b "Hello, are you working?"
```
## 模型选择
设置完成后OpenClaw 会显示所有可用的 Venice 模型。根据你的需求选择:
- **默认(我们的推荐)**`venice/llama-3.3-70b`,私密且性能均衡。
- **最佳整体质量**`venice/claude-opus-45`适合复杂任务Opus 仍然是最强的)。
- **隐私**:选择"私密"模型以获得完全私密的推理。
- **能力**:选择"匿名化"模型以通过 Venice 代理访问 Claude、GPT、Gemini。
随时更改默认模型:
```bash
openclaw models set venice/claude-opus-45
openclaw models set venice/llama-3.3-70b
```
列出所有可用模型:
```bash
openclaw models list | grep venice
```
## 通过 `openclaw configure` 配置
1. 运行 `openclaw configure`
2. 选择 **Model/auth**
3. 选择 **Venice AI**
## 应该使用哪个模型?
| 使用场景 | 推荐模型 | 原因 |
| ---------------------- | -------------------------------- | ---------------------------- |
| **通用对话** | `llama-3.3-70b` | 综合表现好,完全私密 |
| **最佳整体质量** | `claude-opus-45` | Opus 在复杂任务上仍然最强 |
| **隐私 + Claude 品质** | `claude-opus-45` | 通过匿名代理获得最佳推理能力 |
| **编程** | `qwen3-coder-480b-a35b-instruct` | 代码优化262k 上下文 |
| **视觉任务** | `qwen3-vl-235b-a22b` | 最佳私密视觉模型 |
| **无审查** | `venice-uncensored` | 无内容限制 |
| **快速 + 低成本** | `qwen3-4b` | 轻量级,仍有不错能力 |
| **复杂推理** | `deepseek-v3.2` | 推理能力强,私密 |
## 可用模型(共 25 个)
### 私密模型15 个)— 完全私密,无日志记录
| 模型 ID | 名称 | 上下文token | 特性 |
| -------------------------------- | ----------------------- | --------------- | ------------ |
| `llama-3.3-70b` | Llama 3.3 70B | 131k | 通用 |
| `llama-3.2-3b` | Llama 3.2 3B | 131k | 快速,轻量 |
| `hermes-3-llama-3.1-405b` | Hermes 3 Llama 3.1 405B | 131k | 复杂任务 |
| `qwen3-235b-a22b-thinking-2507` | Qwen3 235B Thinking | 131k | 推理 |
| `qwen3-235b-a22b-instruct-2507` | Qwen3 235B Instruct | 131k | 通用 |
| `qwen3-coder-480b-a35b-instruct` | Qwen3 Coder 480B | 262k | 编程 |
| `qwen3-next-80b` | Qwen3 Next 80B | 262k | 通用 |
| `qwen3-vl-235b-a22b` | Qwen3 VL 235B | 262k | 视觉 |
| `qwen3-4b` | Venice Small (Qwen3 4B) | 32k | 快速,推理 |
| `deepseek-v3.2` | DeepSeek V3.2 | 163k | 推理 |
| `venice-uncensored` | Venice Uncensored | 32k | 无审查 |
| `mistral-31-24b` | Venice Medium (Mistral) | 131k | 视觉 |
| `google-gemma-3-27b-it` | Gemma 3 27B Instruct | 202k | 视觉 |
| `openai-gpt-oss-120b` | OpenAI GPT OSS 120B | 131k | 通用 |
| `zai-org-glm-4.7` | GLM 4.7 | 202k | 推理,多语言 |
### 匿名化模型10 个)— 通过 Venice 代理
| 模型 ID | 原始模型 | 上下文token | 特性 |
| ------------------------ | ----------------- | --------------- | ---------- |
| `claude-opus-45` | Claude Opus 4.5 | 202k | 推理,视觉 |
| `claude-sonnet-45` | Claude Sonnet 4.5 | 202k | 推理,视觉 |
| `openai-gpt-52` | GPT-5.2 | 262k | 推理 |
| `openai-gpt-52-codex` | GPT-5.2 Codex | 262k | 推理,视觉 |
| `gemini-3-pro-preview` | Gemini 3 Pro | 202k | 推理,视觉 |
| `gemini-3-flash-preview` | Gemini 3 Flash | 262k | 推理,视觉 |
| `grok-41-fast` | Grok 4.1 Fast | 262k | 推理,视觉 |
| `grok-code-fast-1` | Grok Code Fast 1 | 262k | 推理,编程 |
| `kimi-k2-thinking` | Kimi K2 Thinking | 262k | 推理 |
| `minimax-m21` | MiniMax M2.1 | 202k | 推理 |
## 模型发现
当设置了 `VENICE_API_KEY`OpenClaw 会自动从 Venice API 发现模型。如果 API 不可达,则回退到静态目录。
`/models` 端点是公开的(列出模型无需认证),但推理需要有效的 API 密钥。
## 流式输出与工具支持
| 功能 | 支持情况 |
| ------------- | ---------------------------------------------------------- |
| **流式输出** | ✅ 所有模型 |
| **函数调用** | ✅ 大多数模型(请检查 API 中的 `supportsFunctionCalling` |
| **视觉/图像** | ✅ 标记为"视觉"特性的模型 |
| **JSON 模式** | ✅ 通过 `response_format` 支持 |
## 定价
Venice 使用积分制。请查看 [venice.ai/pricing](https://venice.ai/pricing) 了解当前费率:
- **私密模型**:通常成本较低
- **匿名化模型**:与直接 API 定价相近 + 少量 Venice 费用
## 对比Venice 与直接 API
| 方面 | Venice匿名化 | 直接 API |
| -------- | ------------------ | ------------ |
| **隐私** | 剥离元数据,匿名化 | 关联你的账户 |
| **延迟** | +10-50ms代理 | 直连 |
| **功能** | 支持大部分功能 | 完整功能 |
| **计费** | Venice 积分 | 提供商计费 |
## 使用示例
```bash
# 使用默认私密模型
openclaw chat --model venice/llama-3.3-70b
# 通过 Venice 使用 Claude匿名化
openclaw chat --model venice/claude-opus-45
# 使用无审查模型
openclaw chat --model venice/venice-uncensored
# 使用视觉模型处理图像
openclaw chat --model venice/qwen3-vl-235b-a22b
# 使用编程模型
openclaw chat --model venice/qwen3-coder-480b-a35b-instruct
```
## 故障排除
### API 密钥无法识别
```bash
echo $VENICE_API_KEY
openclaw models list | grep venice
```
确保密钥以 `vapi_` 开头。
### 模型不可用
Venice 模型目录会动态更新。运行 `openclaw models list` 查看当前可用的模型。部分模型可能暂时离线。
### 连接问题
Venice API 地址为 `https://api.venice.ai/api/v1`。确保你的网络允许 HTTPS 连接。
## 配置文件示例
```json5
{
env: { VENICE_API_KEY: "vapi_..." },
agents: { defaults: { model: { primary: "venice/llama-3.3-70b" } } },
models: {
mode: "merge",
providers: {
venice: {
baseUrl: "https://api.venice.ai/api/v1",
apiKey: "${VENICE_API_KEY}",
api: "openai-completions",
models: [
{
id: "llama-3.3-70b",
name: "Llama 3.3 70B",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 131072,
maxTokens: 8192,
},
],
},
},
},
}
```
## 链接
- [Venice AI](https://venice.ai)
- [API 文档](https://docs.venice.ai)
- [定价](https://venice.ai/pricing)
- [状态页](https://status.venice.ai)

View File

@@ -0,0 +1,57 @@
---
read_when:
- 你想将 Vercel AI Gateway 与 OpenClaw 配合使用
- 你需要 API 密钥环境变量或 CLI 认证选择
summary: Vercel AI Gateway 设置(认证 + 模型选择)
title: Vercel AI Gateway
x-i18n:
generated_at: "2026-02-03T07:53:39Z"
model: claude-opus-4-5
provider: pi
source_hash: c6482f047a31b09c7a691d40babbd1f9fb3aa2042b61cc42956ad9b791da8285
source_path: providers/vercel-ai-gateway.md
workflow: 15
---
# Vercel AI Gateway
[Vercel AI Gateway](https://vercel.com/ai-gateway) 提供了一个统一的 API通过单一端点访问数百个模型。
- 提供商:`vercel-ai-gateway`
- 认证:`AI_GATEWAY_API_KEY`
- API兼容 Anthropic Messages
## 快速开始
1. 设置 API 密钥(推荐:为 Gateway 网关存储它):
```bash
openclaw onboard --auth-choice ai-gateway-api-key
```
2. 设置默认模型:
```json5
{
agents: {
defaults: {
model: { primary: "vercel-ai-gateway/anthropic/claude-opus-4.5" },
},
},
}
```
## 非交互式示例
```bash
openclaw onboard --non-interactive \
--mode local \
--auth-choice ai-gateway-api-key \
--ai-gateway-api-key "$AI_GATEWAY_API_KEY"
```
## 环境变量说明
如果 Gateway 网关作为守护进程运行launchd/systemd请确保 `AI_GATEWAY_API_KEY`
对该进程可用(例如,在 `~/.openclaw/.env` 中或通过
`env.shellEnv`)。

View File

@@ -0,0 +1,68 @@
---
read_when:
- 你想在 OpenClaw 中使用 Xiaomi MiMo 模型
- 你需要设置 XIAOMI_API_KEY
summary: 在 OpenClaw 中使用 Xiaomi MiMo (mimo-v2-flash)
title: Xiaomi MiMo
x-i18n:
generated_at: "2026-02-01T21:36:15Z"
model: claude-opus-4-5
provider: pi
source_hash: 366fd2297b2caf8c5ad944d7f1b6d233b248fe43aedd22a28352ae7f370d2435
source_path: providers/xiaomi.md
workflow: 15
---
# Xiaomi MiMo
Xiaomi MiMo 是 **MiMo** 模型的 API 平台。它提供与 OpenAI 和 Anthropic 格式兼容的 REST API并使用 API 密钥进行身份验证。请在 [Xiaomi MiMo 控制台](https://platform.xiaomimimo.com/#/console/api-keys) 中创建你的 API 密钥。OpenClaw 使用 `xiaomi` 提供商配合 Xiaomi MiMo API 密钥。
## 模型概览
- **mimo-v2-flash**262144 token 上下文窗口,兼容 Anthropic Messages API。
- 基础 URL`https://api.xiaomimimo.com/anthropic`
- 授权方式:`Bearer $XIAOMI_API_KEY`
## CLI 设置
```bash
openclaw onboard --auth-choice xiaomi-api-key
# 或非交互式
openclaw onboard --auth-choice xiaomi-api-key --xiaomi-api-key "$XIAOMI_API_KEY"
```
## 配置片段
```json5
{
env: { XIAOMI_API_KEY: "your-key" },
agents: { defaults: { model: { primary: "xiaomi/mimo-v2-flash" } } },
models: {
mode: "merge",
providers: {
xiaomi: {
baseUrl: "https://api.xiaomimimo.com/anthropic",
api: "anthropic-messages",
apiKey: "XIAOMI_API_KEY",
models: [
{
id: "mimo-v2-flash",
name: "Xiaomi MiMo V2 Flash",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 262144,
maxTokens: 8192,
},
],
},
},
},
}
```
## 备注
- 模型引用:`xiaomi/mimo-v2-flash`
- 当设置了 `XIAOMI_API_KEY`(或存在身份验证配置文件)时,该提供商会自动注入。
- 有关提供商规则,请参阅 [/concepts/model-providers](/concepts/model-providers)。

View File

@@ -0,0 +1,41 @@
---
read_when:
- 你想在 OpenClaw 中使用 Z.AI / GLM 模型
- 你需要简单的 ZAI_API_KEY 配置
summary: 在 OpenClaw 中使用智谱 AIGLM 模型)
title: Z.AI
x-i18n:
generated_at: "2026-02-01T21:36:13Z"
model: claude-opus-4-5
provider: pi
source_hash: 2c24bbad86cf86c38675a58e22f9e1b494f78a18fdc3051c1be80d2d9a800711
source_path: providers/zai.md
workflow: 15
---
# Z.AI
Z.AI 是 **GLM** 模型的 API 平台。它为 GLM 提供 REST API并使用 API 密钥进行身份验证。请在 Z.AI 控制台中创建你的 API 密钥。OpenClaw 通过 `zai` 提供商配合 Z.AI API 密钥使用。
## CLI 设置
```bash
openclaw onboard --auth-choice zai-api-key
# 或非交互式
openclaw onboard --zai-api-key "$ZAI_API_KEY"
```
## 配置片段
```json5
{
env: { ZAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "zai/glm-4.7" } } },
}
```
## 注意事项
- GLM 模型以 `zai/<model>` 的形式提供(例如:`zai/glm-4.7`)。
- 参阅 [/providers/glm](/providers/glm) 了解模型系列概览。
- Z.AI 使用 Bearer 认证方式配合你的 API 密钥。