XylemNode logo

API 接入文档

XylemNode 使用统一的接口地址与 API Key 完成接入,适合 AI 编程、对话助手、自动化 Agent、文档处理、图片理解等多功能场景。支持自定义接口地址与密钥填写的 AI 编辑器、客户端和开发工具,通常只需要配置 Base URL、API Key 和模型名称即可开始使用。

请先确保账户已开通并充值对应套餐额度,完成后才可正常调用相关模型能力。

RequiredBase URL

Base URL 是接口请求地址,需要按目标工具的协议填写。OpenAI 兼容工具通常填写 https://api.xylemnode.com/v1;Claude Code CLI 和 Gemini CLI 填写 https://api.xylemnode.com。

RequiredAPI Key

API Key 用于验证请求身份并绑定可调用的模型分组。进入 XylemNode 后台的 API 密钥页面,点击创建密钥,填写名称并选择分组后即可生成。

OpenCode

1. 下载并安装 OpenCode

未安装 OpenCode 时,先按官方文档完成安装。使用 CLI 的用户可通过 npm 安装。

npm install -g opencode-ai
2. 确认配置文件位置

OpenCode 会读取用户级配置文件和项目级配置文件。配置文件支持 JSON / JSONC。

注意

如果该目录下还没有 opencode.jsonc 或 opencode.json,请手动新建其中任意一个文件,再写入下方配置内容。

macOS / Linux 用户级配置~/.config/opencode/opencode.json
Windows 用户级配置%USERPROFILE%\.config\opencode\opencode.json
项目级配置项目根目录/opencode.json
3. 写入 XylemNode Provider

自定义 OpenAI-compatible 服务需要在 provider 中指定 npm: @ai-sdk/openai-compatible,并通过 options.baseURL 配置接口地址。将下面示例中的 sk-xxxx 替换为你在 XylemNode 后台创建的 API Key。

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "xylemnode": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "XylemNode",
      "options": {
        "baseURL": "https://api.xylemnode.com/v1",
        "apiKey": "sk-xxxx"
      },
      "models": {
        "gpt-5.5": {
          "name": "GPT-5.5"
        }
      }
    }
  },
  "model": "xylemnode/gpt-5.5"
}
4. 启动 OpenCode 并选择模型

保存配置文件后重新启动 OpenCode。可以通过 /models 查看和选择模型;如果配置已生效,应能看到 XylemNode provider 下配置的 gpt-5.5。

Aider

1. 安装 Aider

Aider 可以通过 Python 安装。安装完成后运行 aider --version 确认命令可用。

python -m pip install aider-install
aider-install

# Windows 当前终端立即使用
$env:PATH = "$env:USERPROFILE\.local\bin;$env:PATH"

# 验证安装
aider --version
2. 设置 XylemNode 环境变量

将 XylemNode 的 API Key 和 Base URL 写入 OpenAI 兼容环境变量。

# macOS / Linux
export OPENAI_API_KEY="你的 API Key"
export OPENAI_API_BASE="https://api.xylemnode.com/v1"

# Windows PowerShell
setx OPENAI_API_KEY "你的 API Key"
setx OPENAI_API_BASE "https://api.xylemnode.com/v1"
3. 当前终端立即生效

setx 写入的是新终端会读取的用户级环境变量。如果你想在当前 PowerShell 里立刻测试,需要先给当前会话赋值。

$env:OPENAI_API_KEY = "你的 API Key"
$env:OPENAI_API_BASE = "https://api.xylemnode.com/v1"
4. 启动并验证

进入项目目录后运行 Aider,并指定模型为 openai/gpt-5.5。

aider --model openai/gpt-5.5

# 非交互验证
aider --model openai/gpt-5.5 --message "只回复 OK,不要解释。"

OpenClaw

1. 安装 OpenClaw

OpenClaw 可以通过官方安装脚本或 npm 安装。安装完成后运行 openclaw --version 确认命令可用。

# macOS / Linux / WSL
curl -fsSL https://openclaw.ai/install.sh | bash

# Windows PowerShell
iwr -useb https://openclaw.ai/install.ps1 | iex

# npm
npm install -g openclaw@latest

# 验证安装
openclaw --version
2. 准备 XylemNode API Key

进入 XylemNode 后台的 API 密钥页面,复制已经绑定可用模型分组的 API Key。下面配置示例中只需要替换 apiKey 字段。

Base URLhttps://api.xylemnode.com/v1
Provider IDxylemnode
Model IDgpt-5.5
3. 打开 openclaw.json

OpenClaw 的主配置文件是 openclaw.json。运行 openclaw config file 查看当前实际读取的配置文件路径,再打开该文件进行修改。

查看当前配置文件openclaw config file
macOS / Linux / WSL 常见位置~/.openclaw/openclaw.json
Windows 常见位置%USERPROFILE%\.openclaw\openclaw.json
# macOS
open ~/.openclaw

# Linux / WSL
xdg-open ~/.openclaw

# Windows PowerShell
explorer $env:USERPROFILE\.openclaw

# 查看 OpenClaw 当前读取的配置文件
openclaw config file
4. 写入 openclaw.json 配置

复制下面内容到 openclaw.json。将 apiKey 的值替换为你在 XylemNode 后台创建的 API Key,默认模型保持 gpt-5.5。input 字段声明模型输入能力,支持文本和图片时填写 ["text", "image"]。

{
  "gateway": {
    "mode": "local"
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "xylemnode/gpt-5.5"
      },
      "models": {
        "xylemnode/gpt-5.5": {
          "alias": "GPT-5.5"
        }
      }
    }
  },
  "models": {
    "mode": "merge",
    "providers": {
      "xylemnode": {
        "baseUrl": "https://api.xylemnode.com/v1",
        "apiKey": "sk-你的密钥",
        "api": "openai-completions",
        "models": [
          {
            "id": "gpt-5.5",
            "name": "GPT-5.5",
            "input": ["text", "image"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 1000000,
            "contextTokens": 272000,
            "maxTokens": 32000
          }
        ]
      }
    }
  }
}
5. 启动网关并验证

保存 openclaw.json 后,运行校验命令并启动 OpenClaw Gateway。模型列表中应能看到 xylemnode/gpt-5.5。

openclaw config validate
openclaw models list
openclaw gateway

# 打开可视化界面
openclaw dashboard

Codex

1. 下载并安装 Codex CLI

Codex CLI 可以通过 npm 全局安装;macOS 也可以使用 Homebrew。安装完成后运行 codex --version 验证安装,再运行 codex 启动。也可以前往 GitHub Releases 下载对应平台的二进制文件。

npm install -g @openai/codex

# macOS 可选
brew install --cask codex

# 验证安装
codex --version
2. 确认配置文件位置

Codex 默认读取用户级 ~/.codex/config.toml。也可以在项目内添加 .codex/config.toml 做项目级覆盖;项目级配置只有在该项目被 Codex 标记为 trusted 后才会加载。Codex CLI、Codex IDE 扩展,以及 Codex App 的 Local 本地模式都会读取同一套配置。Codex App 只有在选择项目后使用 Local 模式时,才会继承本机的模型、Provider、审批与沙箱配置;如果使用 chatgpt.com/codex 或 App 里的云端/远程线程,通常不会读取本机 config.toml。如果你在 Windows 中让扩展运行在 WSL,请把配置写到 WSL 的 ~/.codex/config.toml。

macOS / Linux 用户级配置~/.codex/config.toml
Windows 用户级配置C:\Users\你的用户名\.codex\config.toml
项目级配置项目根目录/.codex/config.toml
3. 设置 API Key 环境变量

推荐让 config.toml 通过 env_key 从环境变量读取密钥,不要把真实 API Key 明文写进配置文件。请先把你在 XylemNode 后台创建的 API Key 写入环境变量,变量名需要和配置里的 env_key 保持一致。

# macOS / Linux
export XYLEMNODE_API_KEY="你的 API Key"

# Windows PowerShell
setx XYLEMNODE_API_KEY "你的 API Key"

# Windows CMD
setx XYLEMNODE_API_KEY "你的 API Key"
4. 写入 config.toml

在 config.toml 中新增 XylemNode provider,并把默认模型设置为你要使用的模型。Codex 的 model_providers 需要指定 base_url、wire_api 和 env_key;XylemNode 使用 OpenAI-compatible / Responses API 格式。第三方 Provider 推荐使用 env_key 从环境变量读取密钥,不要再写 requires_openai_auth = true;如果 requires_openai_auth 为 true,Codex 会走 OpenAI 登录缓存,并忽略 env_key。

model = "gpt-5.5"
model_provider = "xylemnode"

# 可选:按需调整推理强度
model_reasoning_effort = "high"

[model_providers.xylemnode]
name = "XylemNode"
base_url = "https://api.xylemnode.com/v1"
wire_api = "responses"
env_key = "XYLEMNODE_API_KEY"
5. 按需补充安全与权限设置

Codex 支持通过 config.toml 控制审批策略、沙箱级别、Web Search 和 Windows 原生沙箱。日常开发建议先保持 on-request 与 workspace-write,确认稳定后再按需求调整。

approval_policy = "on-request"
sandbox_mode = "workspace-write"
web_search = "cached"

# Windows 原生环境可选
[windows]
sandbox = "elevated"
6. 启动并验证

保存配置后重新打开终端,再运行 codex。进入 Codex 后发起一次简单请求,确认模型、接口地址和 API Key 都已正确生效。如果刚设置了 setx,需要重新打开终端让环境变量生效。Codex App 用户请打开 App,选择项目文件夹,并确认线程运行在 Local 本地模式后再测试;如果选择云端/远程线程,本机 XylemNode 配置不会自动生效。App 底部如果显示 XylemNode、5.5 和本地模式,就说明配置已被读取。

codex

# 非交互验证
codex exec --skip-git-repo-check --sandbox read-only "只回复 OK,不要解释。"

# 也可以临时覆盖模型测试
codex --model gpt-5.5
Windows 与 WSL 注意事项

Windows 版 Codex App 使用的 Codex 主目录与 Windows 原生 CLI 相同,默认是 %USERPROFILE%\.codex。若你把 App 智能体或 IDE 扩展切到 WSL,它会读取 WSL 自己的 ~/.codex;如果希望 WSL 也复用 Windows 配置,可以在 WSL 中设置 CODEX_HOME=/mnt/c/Users/<windows-user>/.codex。

配置优先级说明

如果同一个键在多个位置都配置了,Codex 会优先使用 CLI flags 与 --config 覆盖,其次是 --profile 选中的配置档案,再到项目级 .codex/config.toml,最后才是用户级 ~/.codex/config.toml。排查配置不生效时,优先检查是否被更高优先级覆盖。

Claude Code CLI

1. 安装 Claude Code

如果本机还没有安装 Claude Code,请先按官方方式完成安装。Windows 原生环境建议优先使用 WinGet;安装完成后重新打开终端,再运行 claude --version 确认命令可用。

# Windows
winget install --id Anthropic.ClaudeCode

# macOS / Linux / WSL
curl -fsSL https://claude.ai/install.sh | bash

# 验证安装
claude --version
2. 确认配置文件位置

Claude Code 可以通过用户级 settings.json 写入环境变量。建议把 XylemNode 的 Claude Code 配置放在用户级配置中,这样不同项目都可以复用。

macOS / Linux / WSL~/.claude/settings.json
WindowsC:\Users\你的用户名\.claude\settings.json
3. 写入 XylemNode 环境变量

在 settings.json 中通过 env 写入 ANTHROPIC_API_KEY、ANTHROPIC_BASE_URL 和 ANTHROPIC_MODEL。

{
  "env": {
    "ANTHROPIC_API_KEY": "你的 API Key",
    "ANTHROPIC_BASE_URL": "https://api.xylemnode.com",
    "ANTHROPIC_MODEL": "gpt-5.5"
  }
}
4. 也可以使用系统环境变量

如果你不想把密钥写进 settings.json,也可以把变量写入系统环境变量。写入后需要重新打开终端,再启动 Claude Code。

# macOS / Linux
export ANTHROPIC_API_KEY="你的 API Key"
export ANTHROPIC_BASE_URL="https://api.xylemnode.com"
export ANTHROPIC_MODEL="gpt-5.5"

# Windows PowerShell
setx ANTHROPIC_API_KEY "你的 API Key"
setx ANTHROPIC_BASE_URL "https://api.xylemnode.com"
setx ANTHROPIC_MODEL "gpt-5.5"
5. 启动并验证

保存配置后关闭当前 Claude Code 和终端窗口,重新打开终端运行 Claude Code。

claude --bare --model gpt-5.5

# 非交互验证
claude --bare -p --model gpt-5.5 "只回复 OK,不要解释。"

Gemini CLI

1. 安装 Gemini CLI

Gemini CLI 可以通过 npm 全局安装。Windows 上官方还提供 Chocolatey、Scoop,以及源码安装方式。安装完成后运行 gemini --version 确认命令可用;能看到版本号才说明 gemini 命令已经进入 PATH。

# npm
npm install -g @google/gemini-cli

# Chocolatey
choco install gemini-cli

# Scoop
scoop install gemini-cli

# 验证安装
gemini --version
2. 设置 XylemNode 环境变量

Gemini CLI 默认读取 GEMINI_API_KEY。接入 XylemNode 时,需要同时设置 GOOGLE_GEMINI_BASE_URL 和 GEMINI_MODEL。

# macOS / Linux
export GEMINI_API_KEY="你的 API Key"
export GOOGLE_GEMINI_BASE_URL="https://api.xylemnode.com"
export GEMINI_MODEL="gpt-5.5"

# Windows PowerShell
setx GEMINI_API_KEY "你的 API Key"
setx GOOGLE_GEMINI_BASE_URL "https://api.xylemnode.com"
setx GEMINI_MODEL "gpt-5.5"
3. 当前终端立即生效

setx 写入的是新终端会读取的用户级环境变量。如果你想在当前 PowerShell 里立刻测试,需要先给当前会话赋值。

$env:GEMINI_API_KEY = "你的 API Key"
$env:GOOGLE_GEMINI_BASE_URL = "https://api.xylemnode.com"
$env:GEMINI_MODEL = "gpt-5.5"
4. 启动并验证

重新打开终端后运行 gemini。先发送一条最简单的测试消息,确认 API Key、Base URL 和模型名称已经生效。

gemini -m gpt-5.5

# 非交互验证
gemini -m gpt-5.5 -p "只回复 OK,不要解释。" --output-format json --skip-trust

Cursor

1. 下载 cursor-byok

进入 cursor-byok Releases,按系统下载对应安装包。Windows 用户通常下载 cursor-byok-*-windows-amd64.zip。下载后解压并按工具提示完成安装或启动。

2. 准备 XylemNode API Key

进入 XylemNode 后台的 API 密钥页面,创建或复制一个已绑定可用模型分组的 API Key。建议为 Cursor 单独创建一个密钥,后续更容易排查调用来源、控制权限和统计消耗。

3. 在 cursor-byok 中添加模型配置

打开 cursor-byok 后,新增一个模型或供应商配置。把接口地址填为 https://api.xylemnode.com/v1,把 API Key 填为你在 XylemNode 后台创建的密钥,把模型标识填为你实际要使用的模型,例如 gpt-5.5。

Base URL: https://api.xylemnode.com/v1
API Key: sk-你的密钥
Model ID: gpt-5.5
4. 保存并重启 Cursor

保存 cursor-byok 配置后,完全退出并重新打开 Cursor,确保新的配置已经生效。

5. 选择模型并发送测试消息

回到 Cursor 聊天或 Agent 界面,打开模型下拉列表,选择刚才在 cursor-byok 中创建的模型,例如 GPT-5.5。选中后发送一条简单请求,例如“只回复 OK”。如果能正常返回,就说明配置已生效。若报 401/403,优先检查 API Key、套餐额度和模型分组;若报 model not found,优先检查 cursor-byok 中填写的模型名称是否正确。

只回复 OK,不要解释。
注意

cursor-byok 是用于把自定义模型 API 接入 Cursor 的第三方工具。配置时重点确认 Base URL、API Key 和 Model ID 填写正确。

Continue

1. 安装 Continue

Continue 支持 VS Code 和 JetBrains。按自己的编辑器安装对应扩展,安装完成后打开编辑器侧边栏中的 Continue 面板。

2. 切换到本地配置

首次打开 Continue 可能会停留在 Credits 页面。配置 XylemNode 时,点击面板下方的 Local 标签,确认右上角显示 Local Config。

3. 打开 config.yaml

在 Local Config 旁边的下拉菜单或配置按钮中打开本地配置文件,也可以直接打开下面的路径编辑 config.yaml。

Windows%USERPROFILE%\.continue\config.yaml
macOS / Linux~/.continue/config.yaml
4. 写入 XylemNode 模型

在 models 列表中加入 XylemNode 配置。provider 使用 openai,apiBase 使用 OpenAI 兼容地址,model 默认使用 gpt-5.5。

name: XylemNode
version: 0.0.1
schema: v1

models:
  - name: GPT-5.5
    provider: openai
    model: gpt-5.5
    apiBase: https://api.xylemnode.com/v1
    apiKey: sk-你的密钥
    useResponsesApi: false
5. 选择模型并测试

保存 config.yaml 后回到 Continue,在输入框下方的 Select model 中选择 GPT-5.5,然后发送一条简单消息确认可以正常调用模型。

只回复 OK,不要解释。

Cline

1. 安装 Cline

在 VS Code 扩展市场中搜索并安装 Cline。安装完成后打开侧边栏中的 Cline 面板。

2. 选择自带 API Key

首次打开 Cline 时,在 How will you use Cline 页面选择 Bring my own API key,然后点击 Continue。

3. 选择 OpenAI Compatible

进入 Configure your provider 页面后,将 API Provider 选择为 OpenAI Compatible。

4. 填写 XylemNode 配置

填写 Base URL、OpenAI Compatible API Key 和 Model ID。Model ID 使用 gpt-5.5。

Base URLhttps://api.xylemnode.com/v1
API Keysk-你的密钥
Model IDgpt-5.5
5. 保存并测试

点击右上角 Done 保存配置。保存后新建一个任务,发送一条简单消息确认 Cline 可以正常调用模型。

只回复 OK,不要解释。

SillyTavern

1. 下载并安装 SillyTavern

先安装 Node.js LTS 和 Git,然后使用 Git 下载 SillyTavern release 分支。

git clone https://github.com/SillyTavern/SillyTavern -b release
cd SillyTavern
2. 启动 SillyTavern

进入 SillyTavern 目录后启动服务。Windows 双击 Start.bat;macOS / Linux 在终端运行 start.sh。首次启动会自动安装依赖,完成后浏览器会打开 SillyTavern 页面。

# Windows
双击 Start.bat

# macOS / Linux
./start.sh
# 或
bash start.sh
3. 打开 API 连接面板

进入 SillyTavern 页面后,打开顶部 API Connections / API 连接面板,进入聊天补全相关配置。

4. 选择 OpenAI 兼容来源

将 API 类型选择为 Chat Completion,在 Source / 来源中选择 Custom (OpenAI-compatible)。

5. 填写 XylemNode 配置

Endpoint 填写基础接口地址,API Key 填写你在 XylemNode 后台创建的密钥,模型名称默认使用 gpt-5.5。这里不需要追加 /chat/completions。

Endpoint / API Base URLhttps://api.xylemnode.com/v1
API Keysk-你的密钥
Modelgpt-5.5
6. 连接并选择模型

填写完成后必须点击下方的连接按钮。状态变成绿色有效后,可用模型列表才会加载出来;在列表中选择 gpt-5.5,或在模型字段中直接填写 gpt-5.5。

7. 发送测试消息

确认连接状态为有效后,回到聊天页面发送一条简单测试消息,确认 SillyTavern 可以正常调用模型。

只回复 OK,不要解释。

Open WebUI

1. 下载并安装 Open WebUI Desktop

以桌面版为主,打开 open-webui/desktop,按自己的系统下载对应安装包。Windows 通常下载 x64 .exe,macOS 下载 .dmg,Linux 可选择 AppImage、deb、snap 或 flatpak。安装后启动 Open WebUI Desktop,点击开始使用。

Windows下载 Windows x64 .exe 后双击安装
macOS下载 Apple Silicon 或 Intel .dmg 后拖入 Applications
Linux按发行版选择 AppImage / deb / snap / flatpak
2. 注册并进入管理设置

首次进入 Open WebUI Desktop 需要先注册一个账号。按页面提示填写账号信息完成注册后,进入主界面,点击左下角头像或用户名打开用户菜单,选择管理员面板。

3. 打开外部连接

进入管理员面板后,点击顶部的设置,再在左侧选择外部连接。在 OpenAI 接口区域点击添加或编辑按钮,新增或编辑一个外部连接。

4. 填写 XylemNode 配置

新增或编辑外部连接,URL 填写 OpenAI 兼容地址,认证方式选择密钥(Bearer),接口类型选择 Chat Completions。模型 ID 前缀可填写 XylemNode,便于在模型列表中区分来源。模型 ID 可以留空,让 Open WebUI 自动从 /models 读取可用模型。

URLhttps://api.xylemnode.com/v1
认证方式密钥(Bearer)
密钥sk-你的密钥
接口类型Chat Completions
模型 ID 前缀XylemNode
模型 ID留空自动读取,或手动添加 gpt-5.5
5. 保存并测试

先点击编辑连接弹窗里的保存,再点击设置页面右下角的保存。回到聊天页面,在模型列表中选择 gpt-5.5 或带有 XylemNode 前缀的 gpt-5.5,发送一条简单消息确认 Open WebUI 可以正常调用模型。

只回复 OK,不要解释。

CC Switch

1. 下载并安装 CC Switch

CC Switch 是用于统一管理多个 AI 编辑器和 CLI 工具配置的桌面工具,适合在不同 API 服务、模型和开发工具之间切换。下面以 Codex 供应商配置为例说明。按你的系统选择对应版本安装,安装完成后启动 CC Switch。

2. 以 Codex 为例新增供应商

进入添加新供应商页面后,顶部选择 Codex 供应商,在预设供应商区域选择自定义配置。其他 AI 编辑器或 CLI 的配置入口可能不同,但核心都是填写供应商名称、API Key、请求地址和模型名称。

3. 填写基础信息

供应商名称填写 XylemNode;备注和官网链接可以按需填写,也可以留空。API Key 填写你在 XylemNode 后台创建的密钥。

供应商名称XylemNode
备注可选
官网链接可选
API Keysk-你的密钥
4. 填写 API 请求地址

API 请求地址填写兼容 OpenAI Response 格式的服务端点地址。这里使用 XylemNode 的统一接入地址。

API 请求地址https://api.xylemnode.com/v1
5. 填写模型名称

模型名称默认填写 gpt-5.5。保存后 CC Switch 会自动把模型配置更新到 Codex 的 config.toml 中。

模型名称gpt-5.5
6. 添加并验证

确认 auth.json 和请求地址相关内容无误后,点击右下角添加。添加完成后重新打开 Codex 或终端会话,再发送一个最简单的测试请求确认配置已生效。

只回复 OK,不要解释。
注意

本节以 Codex 配置为例。CC Switch 也可以统一管理其他 AI 编辑器或 CLI 工具,不同工具的入口和字段名称可能略有差异;配置完成后如果没有立即生效,先重启对应工具或当前终端会话。

FAQ

常见问题

这里集中整理配置过程中最容易遇到的问题,配置步骤保持简洁,排查说明统一放在 FAQ 中查看。

为什么配置完成后仍然无法调用?

先检查三项最常见的问题:请求 URL 是否填写为正确地址、API Key 是否填写完整、模型名称是否与当前供应商支持的模型一致。很多客户端在修改配置后还需要重启应用或重新打开会话。

为什么有些工具要填 https://api.xylemnode.com/v1,有些不一定能直接用?

https://api.xylemnode.com/v1 主要面向 OpenAI 格式或兼容 OpenAI 的接入方式。如果某个工具使用的是 Anthropic、Gemini、Bedrock 或其它专有提供商协议,就不能直接照搬这套地址和字段,必须按对应协议来配。

如何确认自己的 API Key 是否正常?

最直接的方法是先在目标客户端里完成配置,然后发起一个最简单的请求进行测试。如果提示鉴权失败、401、403 或无权限,一般就是 API Key 不正确、已失效,或者当前账号套餐额度不足。

为什么模型名称填写后提示 model not found?

这通常说明当前工具填写的模型标识、Model ID 或 model 字段与实际可用模型不一致。不同客户端对模型名大小写、完整标识符、后缀格式的要求可能不同,建议以你当前后台实际可用模型名为准。

充值额度和套餐会影响调用吗?

会。即使 URL 和 API Key 都填写正确,如果当前账户没有开通对应套餐,或者套餐额度已经耗尽,也可能无法正常调用模型。遇到调用失败时,建议同时检查账户状态、余额和套餐是否满足当前模型的使用条件。

修改配置后为什么没有立即生效?

很多 AI 编辑器、插件和 CLI 工具会在启动时读取配置。修改后如果没有立即生效,建议先保存设置,再重启当前插件、编辑器或终端会话。有些工具还需要重新选择模型,或者重新进入当前会话才会刷新配置。

Claude Code 为什么不能直接照搬 https://api.xylemnode.com/v1?

Claude Code 默认更偏向 Anthropic 自身的认证和提供商接入方式。如果你当前接的是 OpenAI 格式或兼容 OpenAI 的接口,那么是否能直接使用,要看 Claude Code 当前所选的接入模式是否支持这类兼容接口。

Codex CLI 配好了 config.toml 还是不生效怎么办?

先确认 ~/.codex/config.toml 和 ~/.codex/auth.json 是否写在正确位置,其次检查 model_provider、base_url、wire_api、OPENAI_API_KEY 是否拼写正确。如果修改配置后仍旧没有变化,建议完全关闭当前 codex 会话后重新启动,再做一次最简单的请求验证。

Cursor 为什么填完 URL 和 Key 后还是报错?

Cursor 常见问题通常出在三处:插件安装后没有完全重启、接口地址末尾漏了 /v1、模型标识填写错误。尤其是 BYOK 插件方案下,配置界面里的字段很多,建议逐项核对。

SillyTavern 下载失败或启动异常怎么办?

如果 git clone 连接 GitHub 失败,可以下载 Release ZIP 后解压使用。Windows 用户不要把 SillyTavern 放到 Program Files、System32 等系统受控目录,建议放在桌面、用户目录或其它普通工作目录中。

SillyTavern 提示 127.0.0.1:8000 已被占用怎么办?

这表示本机已经有一个 SillyTavern 实例或其它程序占用了 8000 端口。先关闭之前打开的 SillyTavern 终端窗口,或在任务管理器中结束对应的 node.exe 进程,再重新运行 Start.bat。

SillyTavern 为什么填完配置后还是发不出消息?

SillyTavern 填完 Endpoint、API Key 和模型名称后,还需要点击连接按钮。只有状态变成绿色有效,并且可用模型列表加载出来后,聊天页面才会正常发送消息。

Gemini CLI 为什么也不能直接使用这套地址?

Gemini CLI 走的是 Gemini 原生请求格式,Base URL 需要填写 https://api.xylemnode.com,不能直接使用 OpenAI 兼容工具常用的 https://api.xylemnode.com/v1。Gemini CLI 会自动拼接 /v1beta/models/{model}:streamGenerateContent 等请求路径。

为什么同一个模型在不同工具里名称不一致?

不同工具对模型字段的命名方式不同,有的叫 Model,有的叫 Model ID,有的还会额外区分显示名称与真实标识符。文档里看到的推荐模型名只是填写参考,真正以你当前后台可用模型名和目标工具支持的字段格式为准。

已经登录成功,为什么还是提示无额度或调用失败?

登录成功只说明账号状态正常,不代表当前模型已经具备可调用额度。你还需要确认账户是否已经开通对应套餐、是否完成充值、以及当前选择的模型是否在该套餐可用范围内。