{{ pageTitles[currentPage] }}
调用趋势
接口信息
{{ baseUrl }}/v1
{{ maskedApiKey }}
公告
常见问题
调用日志
| 时间 | 模型 | 消耗次数 | Token费用 | 延迟 | 状态 |
|---|---|---|---|---|---|
| 暂无调用记录 | |||||
| {{ log.time }} | {{ log.model }} | {{ log.cost }} | {{ log.token_cost_cents > 0 ? '$' + (log.token_cost_cents / 100).toFixed(4) : '-' }} | {{ log.latency }}ms | {{ log.status === 'success' ? '成功' : '失败' }} |
余额明细
| 时间 | 类型 | 金额 | 变动后余额 | 说明 |
|---|---|---|---|---|
| 暂无余额变动记录 | ||||
| {{ bl.time }} | {{ bl.type === 'deduct' ? '扣款' : bl.type === 'topup' ? '充值' : '卡券兑换' }} | {{ bl.amount_cents > 0 ? '+' : '' }}${{ (bl.amount_cents / 100).toFixed(4) }} | ${{ (bl.balance_after / 100).toFixed(2) }} | {{ bl.description }} |
{{ user.username }}
{{ user.email || '未绑定邮箱' }}
账户信息
安全设置
通知设置
每周用量报告
每周一发送上周的使用统计
新功能上线通知
第一时间获取平台更新资讯
一键配置指南
快速将{{ siteName }}集成到您的开发工具中。支持 OpenAI、Anthropic Claude、Google Gemini 等主流 AI 模型。
您的 API Base URL
{{ baseUrl }}
您的 API 密钥
{{ maskedApiKey }}
选择配置模型
下方所有代码示例将自动更新为所选模型
OpenAI 标准 API 接入
兼容所有支持 OpenAI API 格式的工具和框架 · 通用接入方式
📡 接口信息
{{ baseUrl }}/v1
{{ maskedApiKey }}
{{ configModel }}
⚡ 一键复制配置
复制以下 JSON 配置,可直接用于支持 OpenAI API 的任何工具
{
"base_url": "{{ baseUrl }}/v1",
"api_key": "{{ apiKey }}",
"model": "{{ configModel }}"
}
📦 Node.js / TypeScript
使用 openai npm 包接入
import OpenAI from 'openai';
const client = new OpenAI({
baseURL: '{{ baseUrl }}/v1',
apiKey: '{{ apiKey }}'
});
const response = await client.chat.completions.create({
model: '{{ configModel }}',
messages: [{ role: 'user', content: 'Hello!' }]
});
console.log(response.choices[0].message.content);
✅ 支持的 API 端点
Claude Code
🔥 推荐Anthropic 官方命令行工具 · 无需翻墙
推荐 一键配置命令
复制命令到终端执行,自动配置 ANTHROPIC_BASE_URL / ANTHROPIC_AUTH_TOKEN。
macOS / Linux:
curl -sL '{{ baseUrl }}/api/setup/claude?key={{ apiKey }}' | bash
Windows PowerShell:
irm {{ baseUrl }}/api/setup/claude-win?key={{ apiKey }} | iex
使用前提
- 需先安装 Claude Code:
npm i -g @anthropic-ai/claude-code - 脚本会自动写入
~/.zshrc或~/.bashrc - 执行后 重启终端 或
source ~/.zshrc即可使用claude命令 - 支持模型:
claude-opus-4.6/claude-sonnet-4.6/claude-haiku-4.5等
手动配置环境变量 ▼
export ANTHROPIC_BASE_URL="{{ baseUrl }}"
export ANTHROPIC_AUTH_TOKEN="{{ apiKey }}"
unset ANTHROPIC_API_KEY
Codex CLI
🔥 推荐OpenAI 官方编码助手 · 无需翻墙
推荐 一键配置命令
复制命令到终端执行,自动写入 ~/.codex/config.toml 和环境变量。
macOS / Linux:
curl -sL '{{ baseUrl }}/api/setup/codex?key={{ apiKey }}' | bash
Windows PowerShell:
irm {{ baseUrl }}/api/setup/codex-win?key={{ apiKey }} | iex
使用前提
- 需先安装 Codex CLI:
npm i -g @openai/codex - 脚本写入自定义 provider
xingyao,默认模型gpt-5.1-codex - 执行后 重启终端 即可运行
codex命令 - 切换其他 Codex 模型: 编辑
~/.codex/config.toml中的 model 字段
手动配置 config.toml ▼
创建 ~/.codex/config.toml:
model = "gpt-5.1-codex"
model_provider = "xingyao"
[model_providers.xingyao]
name = "{{ siteName }}"
base_url = "{{ baseUrl }}/v1"
env_key = "XINGYAO_API_KEY"
wire_api = "responses"
添加环境变量到 ~/.zshrc:
export XINGYAO_API_KEY="{{ apiKey }}"
VS Code (Continue)
🔥 强烈推荐开源 AI 编程插件 · 无需翻墙
推荐 一键配置命令
复制以下命令到终端执行,自动创建 Continue 配置文件(config.yaml)。
macOS / Linux:
curl -sL '{{ baseUrl }}/api/setup/continue?key={{ apiKey }}' | bash
Windows PowerShell:
irm {{ baseUrl }}/api/setup/continue-win?key={{ apiKey }} | iex
使用前提
- 需要已安装 VS Code 和 Continue 扩展(在 VS Code 扩展市场搜索 "Continue")
- Continue 会自动加载配置,无需重启 VS Code
- 如未生效,按
Ctrl+Shift+P→ Reload Window
手动配置方法 ▼
创建或编辑 ~/.continue/config.yaml:
{{ continueConfig }}
提示:Continue 已迁移到 YAML 格式配置。如果您之前使用 config.json,建议迁移到 config.yaml。
Roo Code
AI 智能编程助手 · 无需翻墙
推荐 一键配置命令
复制以下命令到终端执行,自动创建 Roo Code 配置并关联到 VS Code。
macOS / Linux:
curl -sL '{{ baseUrl }}/api/setup/roocode?key={{ apiKey }}' | bash
Windows PowerShell:
irm {{ baseUrl }}/api/setup/roocode-win?key={{ apiKey }} | iex
使用前提
- 需要已安装 VS Code 和 Roo Code 扩展(在扩展市场搜索 "Roo Code")
- 支持 多模型配置,可创建多个 API Profile 切换使用
- 配置后需 重启 VS Code 自动加载配置
手动配置方法 ▼
创建 ~/.roo-code/roo-settings.json 配置文件,然后在 VS Code settings.json 中添加自动导入路径:
{{ rooCodeConfig }}
提示:Roo Code 支持通过 autoImportSettingsPath 自动加载外部配置文件,无需手动在 UI 中设置。
VSCode Copilot
GitHub Copilot 插件接入 · 无需翻墙
推荐 一键配置命令
复制以下命令到终端执行,自动配置 VSCode settings.json 中的 Copilot Chat Models。
macOS / Linux:
curl -sL '{{ baseUrl }}/api/setup/vscode?key={{ apiKey }}' | bash
Windows PowerShell:
irm {{ baseUrl }}/api/setup/vscode-win?key={{ apiKey }} | iex
版本兼容说明
VS Code Insiders:完整支持一键脚本自动配置(customOAIModels),运行上方命令后重启即可使用。
VS Code 正式版 (1.99+):一键脚本会写入配置,但部分版本可能尚未支持 customOAIModels。如运行脚本后模型未出现,请使用下方「手动配置方法」中的 UI 配置方式。
使用前提
- 需要 VS Code 1.99+ 或 VS Code Insiders 最新版
- 需要已安装 GitHub Copilot 和 GitHub Copilot Chat 扩展
- 需要在 VS Code 中 登录 GitHub 账号(免费注册即可,无需付费订阅 Copilot)→ 注册 GitHub
- 配置后需 重启 VS Code 或重新加载窗口 (
Ctrl+Shift+P→ Reload Window) - 在 Copilot Chat 中选择模型时,选择带有
{{ siteName }}前缀的模型
手动配置方法 ▼
在 VS Code 中打开 settings.json(Ctrl+Shift+P → Preferences: Open User Settings (JSON)),添加:
{{ vscodeSettingsJson }}
提示:此方式使用 customOAIModels 格式,首次使用时 Copilot Chat 会弹窗要求输入 API Key,输入您的密钥即可。
- 打开 Copilot Chat 面板(
Ctrl+Shift+I或点击左侧 Copilot 图标) - 点击 Chat 面板底部的 模型选择器(显示当前模型名称的下拉按钮)
- 在弹出列表中点击 「Manage Models...」
- 选择 「OpenAI Compatible」 或 「Add More Models」→「OpenAI Compatible」
- 填写以下信息:
Model Name:输入模型名(如
claude-sonnet-4-20250514)Base URL:
{{ baseUrl }}/v1API Key:输入您的密钥
{{ apiKey }} - 点击 「Save」,模型即出现在选择列表中
提示:每次只能添加一个模型,需要多个模型请重复以上步骤。此方式无需编辑 JSON,适合所有 VS Code 版本。
OpenClaw
开源 AI 编程 IDE,支持多模型 · 无需翻墙
推荐 一键配置命令
复制以下命令到终端执行,自动创建 OpenClaw 配置文件。
macOS / Linux:
curl -sL '{{ baseUrl }}/api/setup/openclaw?key={{ apiKey }}' | bash
Windows PowerShell:
irm {{ baseUrl }}/api/setup/openclaw-win?key={{ apiKey }} | iex
手动配置方法 ▼
创建或编辑 ~/.openclaw/openclaw.json:
{{ openclawConfig }}
提示:OpenAI 格式模型 (GPT/Gemini) 使用 openai-completions,Claude 模型使用 anthropic-messages。可同时配置多个 provider。
直接下载配置文件:
下载后放到 ~/.openclaw/openclaw.json 即可
Twinny
AI 代码补全 & 聊天插件 · 无需翻墙
推荐 一键配置命令
复制以下命令到终端执行,自动配置 Twinny 聊天和代码补全。
macOS / Linux:
curl -sL '{{ baseUrl }}/api/setup/twinny?key={{ apiKey }}' | bash
Windows PowerShell:
irm {{ baseUrl }}/api/setup/twinny-win?key={{ apiKey }} | iex
使用前提
- 需要已安装 VS Code 和 Twinny 扩展(在扩展市场搜索 "Twinny")
- 同时支持 代码补全 和 AI 聊天 两大功能
- 配置后需 重启 VS Code 或重新加载窗口
手动配置方法 ▼
在 VS Code 中打开 settings.json(Ctrl+Shift+P → Preferences: Open User Settings (JSON)),添加:
{{ twinnySettingsJson }}
提示:Twinny 同时配置了聊天(chat)和代码补全(FIM),使用 OpenAI 兼容格式接入。
Python / OpenAI SDK
标准 OpenAI 格式调用
from openai import OpenAI
client = OpenAI(
base_url="{{ baseUrl }}/v1",
api_key="{{ apiKey }}"
)
response = client.chat.completions.create(
model="{{ configModel }}",
messages=[{"role": "user", "content": "Hello!"}]
)
cURL
命令行直接调用 API
直接通过命令行测试 API:
curl {{ baseUrl }}/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer {{ apiKey }}" \
-d '{
"model": "{{ configModel }}",
"messages": [{"role": "user", "content": "Hello!"}]
}'
流式输出 (SSE) ▼
curl {{ baseUrl }}/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer {{ apiKey }}" \
-N -d '{
"model": "{{ configModel }}",
"messages": [{"role": "user", "content": "Hello!"}],
"stream": true
}'
购买套餐
选择适合您的套餐,解锁更多模型和额度。
当前套餐
{{ availablePlans.find(p => p.id === user.plan_id)?.display_name || user.plan_id || '免费套餐' }}
额度使用
{{ user.quota_used || 0 }} / {{ user.quota_limit === -1 ? '无限' : (user.quota_limit > 0 ? user.quota_limit : '0') }}
卡券兑换
输入兑换码可直接激活对应套餐,次数将叠加到当前账户
暂无
暂无可用套餐,请联系管理员
{{ plan.display_name }}
当前可用模型:
提示: 购买套餐后,请联系管理员确认开通。套餐生效后,您的额度和模型权限将自动更新。
开始一个新的对话
选择一个模型,开始探索 AI 的无限可能。
模型广场
查看所有可用模型及其计费信息,基于 GitHub Copilot 官方高级请求倍率
{{ model.display_name || model.model_id }}
{{ model.model_id }}
{{ model.description || '暂无说明' }}
没有符合筛选条件的模型
计费说明
按次计费 (高级请求倍率):
• 免费包含 (0x):付费计划不消耗高级请求次数,无限使用
• 低成本 (0.5x):每次调用消耗 0.5 次高级请求
• 标准 (1x):每次调用消耗 1 次高级请求
• 中成本 (3x):每次调用消耗 3 次高级请求
• 高成本 (5x):每次调用消耗 5 次高级请求
• 极高成本 (10x):每次调用消耗 10 次高级请求
• 超高成本 (20x):每次调用消耗 20 次高级请求
按Token计费 (USD):
• Token 计费按实际输入/输出 Token 数量计算,以每百万 Token 为单位定价
• 官方原价 表示模型官方定价,平台价 为我们的折扣价格
• 按 Token 计费用户使用 USD 余额,按平台折扣价扣费
• 所有价格基于 GitHub Copilot 官方高级请求倍率,实际消耗取决于您的套餐和计费模式