🦞 OpenClaw Proxy

AI 模型代理服务平台

注册即赠 ¥1.00 体验额度

🦞 OpenClaw Proxy

欢迎,

账户余额

¥

总请求次数

⚠️ 余额不足 ¥1.00,部分功能可能受限,请及时充值

输入 Token

输出 Token

累计消费

账户状态

用量趋势(近 14 天)

最近调用记录

时间 模型 输入 Token 输出 Token 费用
暂无调用记录

我的 API Key

暂无 Key

邀请好友赚额度

每成功邀请一位好友注册,你获得 ¥0.50 额度,好友获得 ¥1.50(比正常多 ¥0.50)。

已生成

已使用

累计奖励

暂无邀请码,点击上方按钮生成

如何使用 OpenClaw

注册后,你可以通过以下方式使用 AI 服务

推荐! 在你自己的电脑或服务器上执行以下命令,即可自动安装 OpenClaw 并配置好 API 代理,开箱即用。

# 在 PowerShell 中执行(你的 Key 已自动填入)

$env:OPENCLAW_KEY=""; irm /install.ps1 | iex

提示:如果提示"执行策略"错误,请先运行 Set-ExecutionPolicy RemoteSigned -Scope CurrentUser

# 在终端中执行(你的 Key 已自动填入)

curl -fsSL /install.sh | bash -s --

安装完成后,按以下步骤使用:

Step 1: 启动 Gateway(首次需要运行)

openclaw gateway --port 15454

Step 2: 新开一个终端窗口,进入交互式 TUI

openclaw tui

或直接发送单条消息:

openclaw agent -m "帮我写一个 Python 爬虫"

🤖 用 QQ 远程操控你的电脑! 将 OpenClaw 接入 QQ 机器人后,你可以随时随地通过手机 QQ 给 AI 发指令,AI Agent 会在你的电脑上执行操作并返回结果。
1

安装 OpenClaw(如未安装)

如果还没有安装 OpenClaw,先切换到「一键安装 OpenClaw」标签完成安装。安装脚本会自动安装 QQ Bot 插件。

已安装 OpenClaw?手动安装 QQ 插件:

openclaw plugins install @sliverp/qqbot@latest

2

注册 QQ 开放平台 & 创建机器人

2.1
访问 q.qq.com,使用你的 QQ 号登录开放平台
2.2
点击「创建机器人」,填写机器人名称和简介,选择「文字子频道」类型
2.3
创建完成后,在机器人管理页面找到 AppIDAppSecret,复制备用
提示:QQ 开放平台注册和审核通常很快(个人开发者也可注册)。创建后即可拿到 AppID/AppSecret。
3

配置 OpenClaw 连接 QQ

将你的 AppID 和 AppSecret 填入以下命令并执行:

# 将 AppID 和 AppSecret 替换为你的真实值

openclaw channels add --channel qqbot --token "你的AppID:你的AppSecret"

或手动编辑 ~/.openclaw/openclaw.json,在 channels 中添加:

{
  "channels": {
    "qqbot": {
      "token": "你的AppID:你的AppSecret"
    }
  }
}
4

启动并测试

# 启动 Gateway(QQ Bot 会自动连接)

openclaw gateway --port 15454

启动后,打开手机 QQ,找到你创建的机器人,发送一条消息测试。AI Agent 会接收到消息并回复。

💡 使用场景示例

📂 远程查文件

QQ 发送:"帮我看看桌面有哪些文件"

⚡ 执行命令

QQ 发送:"运行 git pull 更新代码"

📝 编辑文件

QQ 发送:"把 config.json 里的端口改成 8080"

🔍 搜索信息

QQ 发送:"帮我搜索今天的科技新闻"

Agent 运行在你自己的电脑上,所有操作都在本地执行,数据不会离开你的机器。

模型推荐:QQ 场景建议使用 glm-4-plus 模型。OpenClaw Agent 的系统提示词较大(约 14k Token),轻量模型可能无法正常工作。安装脚本已默认配置 glm-4-plus。
🐦 用飞书远程操控你的电脑! 将 OpenClaw 接入飞书机器人后,你可以在飞书中随时给 AI 发指令。支持私聊和群聊,使用 WebSocket 长连接,本地无需公网 IP。
两种接入方式: 方式 A(推荐):使用 OpenClaw 官方飞书插件 @openclaw/feishu,与 QQ 机器人接入方式一致。 方式 B:使用独立 Python 脚本 feishu_bot.py,适合不使用 OpenClaw Gateway 的用户。
1

在飞书开放平台创建应用

1.1
访问 open.feishu.cn/app,登录后点击「创建企业自建应用」
1.2
在「凭证与基础信息」页面复制 App ID(格式 cli_xxx)和 App Secret
1.3
在「权限管理」中搜索并开通:im:messageim:message:send_as_botim:chat
1.4
在「应用能力」中启用 机器人 能力
1.5
在「事件订阅」中选择 「使用长连接接收事件」先不要添加事件,直接保存
1.6
在「版本管理与发布」中创建版本并发布应用
重要顺序:配置事件订阅时如果报「未检测到应用连接信息」,说明需要先启动下方的脚本/插件(让应用建立 WebSocket 连接),然后再回到飞书平台添加事件。具体步骤:
  1. 先完成上面 1.1~1.5,选择「使用长连接」并保存(不添加事件
  2. 发布应用(1.6)
  3. 启动下方的插件或脚本(让 WebSocket 连接建立)
  4. 回到「事件订阅」,添加 im.message.receive_v1 事件,此时可以保存成功
提示:飞书企业自建应用需要企业管理员审批后才能使用。个人开发者可以使用飞书开发者测试企业。
A

方式 A:OpenClaw 插件(推荐)

已安装 OpenClaw 的用户,安装飞书插件后用法与 QQ 机器人完全一致:

# 安装飞书插件

openclaw plugins install @openclaw/feishu

# 配置飞书渠道

openclaw channels add --channel feishu

# 或手动写入配置

手动编辑 ~/.openclaw/openclaw.json,在 channels 中添加:

{
  "channels": {
    "feishu": {
      "enabled": true,
      "accounts": {
        "main": {
          "appId": "你的App ID",
          "appSecret": "你的App Secret"
        }
      }
    }
  }
}

# 启动 Gateway(飞书 Bot 会自动连接)

openclaw gateway --port 15454

B

方式 B:独立 Python 脚本

不使用 OpenClaw Gateway 时,可直接运行独立桥接脚本:

# 安装依赖

pip install lark-oapi httpx

# 下载并运行桥接脚本

curl -O https://lhyijian.xyz/feishu_bot.py

python feishu_bot.py \

--app-id 你的AppID \

--app-secret 你的AppSecret \

--api-key

脚本通过 WebSocket 长连接接收飞书消息,调用 OpenClaw API 获取 AI 回复。支持 /reset/model/help 命令。

3

在飞书中测试

启动后,在飞书中找到你的机器人,发送一条消息。AI 会自动回复。

群聊中需要 @机器人 触发回复,私聊直接发送即可。

💡 使用场景示例

📂 远程查文件

飞书发送:"帮我看看桌面有哪些文件"

⚡ 执行命令

飞书发送:"运行 git pull 更新代码"

💬 智能问答

飞书发送:"帮我写一份会议纪要模板"

🔍 搜索信息

飞书发送:"帮我搜索 Python 3.12 新特性"

模型推荐:飞书场景建议使用 glm-4-plusdeepseek-chat 模型。
如果你的机器上已经安装了 OpenClaw,只需编辑配置文件即可接入本平台。

编辑 ~/.openclaw/openclaw.json,在 models.providers 中添加:

{
  "models": {
    "providers": {
      "openclaw-proxy": {
        "baseUrl": "",
        "apiKey": "",
        "api": "openai-completions",
        "models": [
          { "id": "glm-4-plus", "name": "GLM-4-Plus (推荐)", "api": "openai-completions", "contextWindow": 128000, "maxTokens": 8192 },
          { "id": "glm-4-flash", "name": "GLM-4-Flash (免费)", "api": "openai-completions", "contextWindow": 128000, "maxTokens": 8192 },
          { "id": "deepseek-chat", "name": "DeepSeek Chat", "api": "openai-completions", "contextWindow": 128000, "maxTokens": 8192 }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": { "primary": "openclaw-proxy/glm-4-plus" }
    }
  }
}

保存后重启 OpenClaw 即可生效:openclaw gateway --port 15454

本服务完全兼容 OpenAI Chat API 格式,你可以用任何支持 OpenAI API 的客户端或代码直接调用。

cURL 示例

curl /v1/chat/completions \

-H "Authorization: Bearer " \

-H "Content-Type: application/json" \

-d '{"model":"glm-4-flash","messages":[{"role":"user","content":"Hello!"}]}'

Python 示例

from openai import OpenAI

client = OpenAI(

base_url="",

api_key="",

)

resp = client.chat.completions.create(

model="glm-4-flash",

messages=[{"role": "user", "content": "你好!"}],

)

print(resp.choices[0].message.content)

可用模型

glm-4-flash 免费
glm-4-plus
deepseek-chat
deepseek-reasoner
MiniMax-Text-01
gpt-4o / gpt-4o-mini

账户充值

选择充值金额,充值越多赠送越多