Category: Blog

  • GPT-5.4×OpenClaw:从模型升级到可落地的智能体生产力

    这不是一篇比拼参数的技术评测,而是聚焦「AI落地实战」的生产力观察。 过去一周,GPT-5.4的相关新闻与测评密集释出,主流媒体和科技评测机构的结论高度一致:它的推理与长任务处理能力显著增强,针对智能体(Agent)的优化方向清晰可见,事实性输出准确率也有明显提升——当然,仍需人工校验确保严谨性。 但如果仅把GPT-5.4当作「更会聊天的AI」,你只挖掘到了它30%的价值。真正的价值分水岭,在于它能否嵌入稳定的业务工作流,持续、可靠地交付可复用结果。而这,正是OpenClaw的核心强项。

    为什么说OpenClaw是GPT-5.4的「生产力放大器」?

    很多企业已经引入了优秀的大模型,但团队生产力并未真正提升,根源往往在于三个「断点」: – 模型在网页端,业务在IM工具里,能力与场景割裂; – 任务流程只存在于员工脑子里,没有固化为标准流程,无法复用; – 多是临时对话式的零散使用,缺乏可持续的运营机制。 OpenClaw的价值,就是把这些断点串联成闭环:

    1. 多渠道统一入口

    无需切换不同平台,在Telegram、Discord、WhatsApp、iMessage等主流即时通讯渠道,都能直接触发同一个智能体的能力,让AI能力与业务场景无缝对接。

    2. 会话与记忆可管理

    告别「每次对话从零开始」的低效模式,通过会话(session)管理、上下文记忆、工具链调用和可追踪状态,让AI能承接有延续性的复杂任务。

    3. 原生自动化能力

    借助定时任务(cron)、心跳监测(heartbeat)、触发钩子(hooks)等机制,把「偶发的人工提问」转化为「自动触发的持续交付」,让AI主动完成工作。

    4. 支持多智能体隔离

    针对销售助理、财务助理、技术助理等不同角色,可设置独立工作区、专属配置和权限体系,让不同智能体各司其职,避免能力冲突。 一句话总结:GPT-5.4让单点AI能力更聪明,OpenClaw则把单点能力整合成了可落地、可复用、可持续的生产力系统。

    可直接复制的落地案例:GPT-5.4+OpenClaw打造内容运营自动化

    我们以微信公众号运营/内容团队的「每周AI行业快评」为例,拆解一套可直接复用的落地流程:

    Step1:自动化采集

    通过OpenClaw的定时任务功能,自动抓取行业重点媒体新闻、权威机构评测、官方技术文档等信息源,同时过滤重复内容与低质量信息,确保素材的精准性。

    Step2:模型智能归纳

    调用GPT-5.4对采集到的素材进行处理,按照「3条核心行业变化+2条行业争议点+1条实操建议」的固定框架,生成面向普通读者的通俗版本,避免技术术语堆砌。

    Step3:人工审稿把关

    对GPT-5.4的输出进行事实核验,调整过于夸张的表述,并加入团队的业务视角与行业判断,确保内容的严谨性和实用性。

    Step4:多渠道智能分发

    基于同一核心内容,OpenClaw自动生成适配不同场景的版本:微信公众号完整正文、社群传播的精简摘要、供团队内部参考的策略版,同步分发到对应渠道。 这套流程的核心,不是「写一篇文章」,而是每周稳定输出高质量内容——把偶发的创意工作,变成可标准化的持续生产力。

    给团队的三个实操建议:避免AI落地「高开低走」

    建议1:先定义「输出格式」,再追求「模型效果」

    如果输出格式不稳定,团队就无法复用AI结果。在测试模型能力前,先统一输出模板,比如固定为「开场结论+三点核心拆解+反方观点+行动建议」的结构,让AI的输出能直接对接业务需求。

    建议2:把「审稿规则」转化为系统规则

    将人工审稿的经验固化为可执行的系统规则:比如涉及数据必须标注来源、所有结论需明确适用边界、预测类内容必须标注「仅为判断,非既定事实」,用规则降低人工校验的成本。

    建议3:用OpenClaw实现「流程资产化」

    不要把AI能力绑定在某个人身上,而是通过OpenClaw沉淀可复用的「流程资产」:包括定时任务配置、标准提示词模板、多渠道触达规则、全流程版本记录,让新人也能快速承接工作,避免人员变动导致的能力断层。

    结语:2026年的竞争,是「AI生产力系统」的竞争

    现在仍有很多人在争论「哪个模型参数更高、能力更强」,但企业真正应该思考的是:你是否已经把模型能力,转化为可持续、可复制、可审计的业务流程? GPT-5.4代表了当前AI能力的「上限」,决定了团队的想象力边界;而OpenClaw代表了AI落地的「下限」,决定了想象力能否转化为实际结果。 如果你已经在使用GPT-5.x系列模型,现在最有价值的下一步,不是继续比拼模型跑分,而是把你的内容、运营、分析、协作流程,接入一个稳定的智能体网关(Agent Gateway)。只有走完这一步,AI才真正从「辅助工具」,变成驱动业务增长的「生产力系统」。

  • OpenClaw 源码架构深度解析

    引言

    OpenClaw(原Clawdbot)作为当前全球最炙手可热的开源AI Agent框架,其GitHub星标数已超越Linux和React,登顶全球榜首。它的爆火绝非偶然——这套架构完美解决了AI Agent落地的“最后一公里”问题,实现了从云端大脑到本地肢体的无缝协同。

    本文将深入OpenClaw源码,从四层架构插件化重构三级记忆系统Gateway-Pi执行链路四个维度,彻底拆解这套系统的设计哲学与实现细节。

    一、整体架构:四层解耦设计

    OpenClaw采用经典的四层解耦架构,从外到内依次是:交互层、网关层、智能体层、执行层。这种分层设计确保了各模块职责清晰、可独立演进。

    ┌─────────────────────────────────────────────────────────────┐
    │                        交互层 (Channels)                      │
    │  ┌──────────┐ ┌──────────┐ ┌──────────┐ ┌──────────┐      │
    │  │ WhatsApp │ │ Telegram │ │  飞书    │ │  iMessage │  ...  │
    │  └──────────┘ └──────────┘ └──────────┘ └──────────┘      │
    └─────────────────────────────────────────────────────────────┘
                                  │
                                  ▼
    ┌─────────────────────────────────────────────────────────────┐
    │                     网关层 (Gateway)                          │
    │             路由 · 排队 · 调度 · 鉴权 · 协议转换                │
    └─────────────────────────────────────────────────────────────┘
                                  │
                                  ▼
    ┌─────────────────────────────────────────────────────────────┐
    │                     智能体层 (Agent)                           │
    │  ┌────────────┐ ┌────────────┐ ┌────────────┐              │
    │  │会话管理器   │ │上下文组装器 │ │ 记忆系统   │              │
    │  └────────────┘ └────────────┘ └────────────┘              │
    │  ┌────────────┐ ┌────────────┐                              │
    │  │执行循环     │ │工具调用     │                              │
    │  └────────────┘ └────────────┘                              │
    └─────────────────────────────────────────────────────────────┘
                                  │
                                  ▼
    ┌─────────────────────────────────────────────────────────────┐
    │                      执行层 (Execution)                       │
    │  ┌──────────┐ ┌──────────┐ ┌──────────┐ ┌──────────┐      │
    │  │ 本地节点  │ │ 远端节点  │ │  技能    │ │  沙箱    │      │
    │  └──────────┘ └──────────┘ └──────────┘ └──────────┘      │
    └─────────────────────────────────────────────────────────────┘

    1.1 交互层:抹平所有IM差异

    交互层的核心职责是协议适配。OpenClaw内置支持8个核心通道(Telegram、WhatsApp、Discord等),并通过插件系统支持超过50个扩展通道。

    源码中,每个通道都是一个独立的插件,必须实现统一的ChannelPlugin接口:

    export type ChannelPlugin = {
      id: ChannelId;              // 通道唯一标识
      meta: ChannelMeta;          // 通道元信息
      capabilities: ChannelCapabilities; // 能力声明
      config: ChannelConfigAdapter;      // 配置管理

    // 可选实现
      outbound?: ChannelOutboundAdapter;  // 发送消息
      pairing?: ChannelPairingAdapter;    // 配对逻辑
      messaging?: ChannelMessagingAdapter; // 消息处理
    // ...
    }

    这种设计的精妙之处在于:核心模块不面向任何具体IM编程,只面向接口编程。无论未来出现什么新的IM工具,只要实现这套接口,就能无缝接入OpenClaw生态。

    1.2 网关层:系统的控制中枢

    Gateway是整个OpenClaw的核心服务,作为一个常驻的Node.js进程,它承担着:

    1. 路由:根据消息来源分配给对应的会话
    2. 排队:实现“车道式队列”(Lane Queue),默认串行、显式并行
    3. 调度:管理定时任务(Heartbeat)
    4. 鉴权:验证请求合法性
    5. 协议转换:将不同通道的消息统一成内部格式

    网关层的核心实现在src/gateway/server.py中,关键代码片段:

    # gateway/dispatcher.py
    def dispatch_task(payload):
        # 提取意图,过滤无用的对话历史
        intent = extractor.analyze(payload.content)
        # 匹配最合适的执行节点
        node_id = registry.get_active_node(payload.affinity)
        return forward_to_node(node_id, intent)

    Gateway还维护着节点的心跳机制(默认使用Redis),如果节点失联,指令会被正确路由到其他可用节点。

    二、插件化重构:从单体到生态

    2026年初,OpenClaw通过PR #661完成了重大插件化重构,这是架构演进的分水岭。

    2.1 单体架构的技术债务

    重构前,添加一个新模型提供商需要修改4个核心文件:

    • 继承BaseProvider抽象类
    • providers/index.ts手动注册
    • model-router.ts添加路由分支
    • 更新配置Schema

    路由文件充斥着大量的else-if分支,代码复杂度随提供商数量线性增长:

    // 重构前的路由逻辑
    exportclass ModelRouter {
    async route(model: string, ...args) {
        if (model.startsWith('anthropic/')) {
          returnthis.anthropicProvider.call(...args);
        } elseif (model.startsWith('openai/')) {
          returnthis.openaiProvider.call(...args);
        } elseif (model.startsWith('gemini/')) {
          returnthis.geminiProvider.call(...args);
        }
        // ... 还有15+个else-if
      }
    }

    2.2 插件化架构设计

    重构后的架构核心是接口标准化+动态加载

    // packages/core/src/provider-interface.ts
    export interface Provider {
      readonly name: string;
      readonly version: string;
      
      chat(messages: Message[], options: ChatOptions): AsyncIteratorstring>;
      estimateTokens(text: string): number;
      getSupportedFeatures(): ProviderFeatures;
    }

    动态加载机制通过ProviderLoader实现:

    export class ProviderLoader {
    private providers = new Mapstring, Provider>();

    async loadFromPackage(packageName: string): Promisevoid> {
        constmodule = await import(packageName);  // 动态导入
        if (!this.validateProvider(module.default)) {
          thrownewError(`Invalid provider: ${packageName}`);
        }
        const provider = newmodule.default();
        this.providers.set(provider.name, provider);
      }
    }

    重构后的路由逻辑从O(n)降为O(1):

    export class ModelRouter {
      async route(model: string, ...args) {
        const [providerName] = model.split('/');
        const provider = this.loader.getProvider(providerName);
        if (!provider) throw new Error(`Provider not found: ${providerName}`);
        return provider.chat(...args);
      }
    }

    2.3 插件化的四大优势

    1. 依赖隔离:核心框架从45MB降至8MB
    2. 并行开发:社区可独立开发插件,无需等待核心迭代
    3. 版本自治:各插件独立版本,可单独更新
    4. 安全增强:沙箱机制+权限声明,风险可控

    三、记忆系统:三级存储架构

    OpenClaw的记忆系统是其最惊艳的设计之一。它采用三级记忆架构,模拟人类记忆的分层特性。

    3.1 工作区结构

    每个Agent对应一个独立的工作区:

    ~/.openclaw/workspace/
    ├── MEMORY.md                # 长期记忆
    ├── memory/
    │   ├── 2026-03-10.md        # 今日日志(短期)
    │   └── 2026-03-09.md        # 昨日日志
    ├── sessions/                 # 会话存档(近端)
    ├── USER.md                   # 用户身份
    └── SOUL.md                   # Agent人格设定

    3.2 存储层:SQLite + 向量

    每个Agent对应一个独立的SQLite数据库,表结构设计精巧:

    -- 文件元数据
    CREATETABLE files (
    idINTEGER PRIMARY KEY,
    pathTEXTUNIQUE,
      mtime INTEGER,    -- 修改时间,用于增量索引
    hashTEXT         -- 内容哈希,去重
    );

    -- 文本块存储
    CREATETABLE chunks (
    idINTEGER PRIMARY KEY,
      file_id INTEGER,
    textTEXT,
    hashTEXTUNIQUE-- 文本哈希,跨文件去重
      embedding TEXT    -- JSON序列化的向量
    );

    -- 全文搜索(FTS5)
    CREATEVIRTUALTABLE chunks_fts USING fts5(textcontent=chunks);

    -- 向量搜索(sqlite-vec)
    CREATEVIRTUALTABLE chunks_vec USING vec0(embedding float[1536]);

    3.3 混合检索策略

    OpenClaw的核心检索工具memory_search实现了BM25 + 向量的混合检索:

    async function hybridSearch(query, options = {}{
    const vecWeight = 0.7;   // 向量权重
    const bm25Weight = 0.3;  // BM25权重

    // 分别检索(取并集)
    const vectorResults = await vectorSearch(query);
    const bm25Results = await bm25Search(query);

    // 合并并计算综合得分
    const allChunkIds = new Set([
        ...vectorResults.map(r => r.id),
        ...bm25Results.map(r => r.id)
      ]);

    // 加权平均后排序返回
    }

    这套算法的关键在于并集而非交集——只要任一方法认为相关,就有机会进入候选池。

    3.4 优雅降级

    如果sqlite-vec扩展未安装,系统会自动回退到JS暴力计算:

    try {
    // 快速路径:数据库内计算余弦距离
    returnawait db.all(`SELECT ... vec_distance_cosine(...)`);
    catch (err) {
    // 回退路径:全量加载到内存暴力计算
    const allChunks = await db.all("SELECT * FROM chunks");
    return allChunks.map(chunk => ({
        ...chunk,
        dist: cosineSimilarity(queryVector, JSON.parse(chunk.embedding))
      })).sort((a, b) => a.dist - b.dist).slice(0, limit);
    }

    四、执行层:Gateway-Pi 架构

    OpenClaw最硬核的部分是其云端大脑+本地肢体的设计。

    4.1 三层执行链路

    1. Orchestrator(大脑):云端部署,负责LLM推理和任务拆解
    2. Gateway(协议桥):鉴权、流量整形、指令翻译
    3. Pi-embedded(执行端):运行在本地设备,真正执行脚本

    4.2 沙箱隔离机制

    Pi-embedded实现了一套名为 “Cell Isolation” 的沙箱机制:

    # packages/pi-embedded/runtime/executor.py
    class ExecutionEngine:
        def execute(self, skill_code):
            # 环境快照
            snapshot = self.take_snapshot()
            
            # 在独立venv中运行
            with self.isolated_venv() as venv:
                # 动态安装依赖
                self.install_dependencies(skill_code.dependencies)
                # 执行技能
                result = venv.run(skill_code)
            
            # 恢复环境
            self.restore_snapshot(snapshot)
            return result

    4.3 完整调用链追踪

    以“查CPU温度并生成图表”为例,完整调用链如下:

    1. Orchestrator → 识别技能需求 → 生成JSON指令
    2. Gateway → 验证签名 → 查找在线Pi节点 → Protobuf封装 → WebSocket发送
    3. Pi-embedded → 接收消息 → 解包
    4. Sandbox → 启动临时Python进程 → 挂载传感器权限
    5. Skill Execution → 执行get_temp.py
    6. Callback → 结果(图片二进制)原路返回

    五、Agent核心配置

    每个Agent的workspace中包含多个核心配置文件:

    文件
    作用
    AGENTS.md
    Agent职责声明,决定工具权限
    SOUL.md
    个性化提示词,注入system prompt
    TOOLS.md
    工具白名单/黑名单,安全边界
    IDENTITY.md
    身份标识(name/avatar),通道展示
    USER.md
    用户偏好,上下文先验
    HEARTBEAT.md
    定时任务配置
    MEMORY.md
    长期记忆文档(RAG源)

    源码中通过loadWorkspaceBootstrapFiles方法加载这些文件:

    // src/agents/workspace.ts:498-555
    export async function loadWorkspaceBootstrapFiles(dir: string{
      const entries = [
        { name: "AGENTS.md", filePath: path.join(resolvedDir, "AGENTS.md") },
        { name: "SOUL.md", ... },
        { name: "TOOLS.md", ... },
        // ...
      ];
      // 动态检测MEMORY.md
    }

    六、架构设计的优缺点

    6.1 核心优势

    • 零运维:SQLite单文件,无需复杂数据库
    • 数据私有:全本地存储,不上云
    • 可审计:记忆透明,Markdown文件可读
    • 增量索引:只处理变更文件,效率高
    • 优雅降级:从向量→BM25→纯文本,逐级回退
    • 插件生态:60+官方技能,社区持续贡献

    6.2 现存挑战

    • Token消耗偏高:记忆系统是主要原因
    • 向量检索不懂关系:能找到个体但推不出关系
    • 维护成本线性增长:文件越多,索引维护越复杂
    • 长连接抖动:WebSocket 1006错误常见
    • 小白门槛:虽零运维,但需懂文件结构

    七、实战建议

    7.1 定期记忆体检

    长期记忆文件会随时间膨胀,建议每月手动过一遍MEMORY.md,删过时、并重复。

    7.2 教会Agent分类

    在系统提示词中引导分类:

    • “我喜欢/习惯” → preferences.md
    • “我要做一个” → projects.md
    • “解决了” → learnings.md

    7.3 善用Heartbeat

    openclaw cron add --name "记忆维护" 
      --cron "0 3 *" 
      --system-event "运行记忆整理:合并相似项,删除低价值项,生成摘要"

    7.4 显式限定搜索范围

    memory_search({ query: "...", scope: ["learnings.md"] })

    结语

    OpenClaw的架构设计给我最大的启发是:AI的记忆和执行不应该是黑盒。用Markdown存真相,用SQLite建索引,用BM25+向量做检索,用Gateway-Pi做执行——这套组合拳既保证了功能强大,又让一切透明可控。

    在这个所有AI都想“记住你”的时代,OpenClaw让你能随时打开文件、看清它记住了什么、知道它在哪执行、怎么执行。这种清醒的设计哲学,或许正是它能够超越Linux和React,登顶全球的原因。


    参考资料

    1. OpenClaw三级记忆系统实现揭秘
    2. 2026年OpenClaw插件化重构技术解析
    3. OpenClaw核心源码解读:从Gateway到Pi-embedded
    4. 不会写代码也能懂:OpenClaw四层架构图解
    5. 吃龙虾咯!万字拆解OpenClaw的架构与设计
    6. 关于OpenClaw,你需要了解的:核心架构、运作原理
    7. OpenClaw Architecture Deep Dive 2025



  • OpenClaw 使用 DeepSeek 官方 API_KEY 配置教程

    前言

    找遍全网也没找到如何在openclaw配置deepseek官方apikey,那我自己整一个,以下内容为Claude Code根据我的聊天记录总结生成,希望对想在openclaw使用deepseek官方apikey的人提供帮助。

    系统要求

    • 操作系统: macOS / Linux / Windows (WSL)
    • Node.js: 版本 22+ (推荐使用 nvm 管理)
    • 网络: 需要访问 DeepSeek API (http://api.deepseek.com)

    安装 OpenClaw

    1. 全局安装 OpenClaw

    npm install -g openclaw@latest

    安装过程可能需要 3-5 分钟,会下载约 674 个依赖包。

    2. 验证安装

    openclaw --version

    应该显示类似:🦞 OpenClaw 2026.3.8

    初始化配置

    1. 运行配置向导

    openclaw onboard --install-daemon --non-interactive --accept-risk

    说明:

    • --install-daemon: 安装后台服务
    • --non-interactive: 非交互模式
    • --accept-risk: 接受安全风险声明

    2. 检查服务状态

    openclaw status

    确认 Gateway 服务正在运行。


    配置 DeepSeek 官方 API

    1. 获取 DeepSeek API Key

    访问 DeepSeek 官网 注册并获取 API Key。

    API Key 格式类似:sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

    2. 配置 DeepSeek 提供商

    执行以下命令(将 你的API_KEY 替换为实际的 API Key):

    openclaw config set models.providers.deepseek '{
      "baseUrl": "https://api.deepseek.com/v1",
      "apiKey": "你的API_KEY",
      "api": "openai-completions",
      "models": [
        {
          "id": "deepseek-chat",
          "name": "DeepSeek Chat (V3)"
        },
        {
          "id": "deepseek-reasoner",
          "name": "DeepSeek Reasoner (R1)"
        }
      ]
    }'

    3. 设置默认模型

    openclaw config set agents.defaults.model.primary "deepseek/deepseek-chat"

    4. 创建模型别名(可选)

    openclaw models aliases add deepseek-v3 "deepseek/deepseek-chat"
    openclaw models aliases add deepseek-r1 "deepseek/deepseek-reasoner"

    5. 重启 Gateway 服务

    openclaw gateway restart

    等待 3-5 秒让服务完全启动。

    测试与使用

    1. 命令行测试

    openclaw agent --session-id test --message "你好,请介绍一下你自己"

    如果配置成功,DeepSeek 会用中文回复。

    2. 打开 Web 控制面板

    openclaw dashboard

    浏览器会自动打开控制面板,URL 格式:

    http://127.0.0.1:18789/#token=你的gateway_token

    3. 查看配置状态

    openclaw models status

    应该显示:

    • Default: deepseek/deepseek-chat
    • Configured models: 包含 deepseek 模型

    常用命令

    服务管理

    # 启动 Gateway
    openclaw gateway
    
    # 重启 Gateway
    openclaw gateway restart
    
    # 停止 Gateway
    openclaw gateway stop
    
    # 查看服务状态
    openclaw status
    
    # 查看详细状态
    openclaw status --all
    
    # 查看实时日志
    openclaw logs --follow

    模型管理

    # 列出所有可用模型
    openclaw models list --all
    
    # 查看当前模型配置
    openclaw models status
    
    # 切换模型(在聊天中使用)
    /model deepseek-v3
    
    # 设置默认模型
    openclaw config set agents.defaults.model.primary "模型ID"
    
    # 添加模型别名
    openclaw models aliases add 别名 "模型ID"
    
    # 查看所有别名
    openclaw models aliases list

    对话交互

    # 发送单条消息
    openclaw agent --session-id 会话ID --message "你的问题"
    
    # 指定超时时间(秒)
    openclaw agent --session-id test --message "问题" --timeout 60
    
    # 使用本地模式(不通过 Gateway)
    openclaw agent --local --session-id test --message "问题"

    配置管理

    # 查看配置
    openclaw config get 配置路径
    
    # 设置配置
    openclaw config set 配置路径 "值"
    
    # 删除配置
    openclaw config unset 配置路径
    
    # 运行配置向导
    openclaw configure

    故障排除

    问题 1: Gateway Token 错误

    错误信息disconnected (1008): unauthorized: gateway token missing

    解决方法:

    # 打开带 token 的控制面板
    openclaw dashboard

    或手动获取 token:

    openclaw config get gateway.auth.token

    问题 2: 模型不可用

    错误信息Unknown model: xxx

    解决方法:

    1. 检查模型配置:
      openclaw models status
    2. 确认模型 ID 正确:
      openclaw models list –all | grep deepseek
    3. 重启 Gateway:
      openclaw gateway restart

    问题 3: API Key 无效

    错误信息HTTP 401 或 Unauthorized

    解决方法:

    1. 验证 API Key 是否正确
    2. 检查 API Key 是否过期
    3. 重新配置提供商:
      openclaw config set models.providers.deepseek.apiKey “新的API_KEY” openclaw gateway restart

    问题 4: 连接超时

    错误信息Request timed out 或 No reply from agent

    解决方法:

    1. 检查网络连接
    2. 测试 DeepSeek API 可达性:
      curl -I https://api.deepseek.com/v1/models
    3. 增加超时时间:
      openclaw agent –session-id test –message “测试” –timeout 120

    问题 5: Gateway 无法启动

    解决方法:

    1. 检查端口占用:
      lsof -i :18789
    2. 强制重启:
      openclaw gateway –force
    3. 查看日志:
      openclaw logs
    4. 运行诊断:
      openclaw doctor openclaw doctor –fix

    高级配置

    配置备用模型

    当主模型不可用时,自动切换到备用模型:

    openclaw config set agents.defaults.model.fallbacks '["deepseek/deepseek-reasoner"]'

    配置环境变量

    将以下内容添加到 ~/.zshrc 或 ~/.bashrc

    # DeepSeek API Key (可选,如果已在配置文件中设置)
    export DEEPSEEK_API_KEY="你的API_KEY"
    
    # OpenClaw Gateway Token (可选)
    export OPENCLAW_TOKEN="你的gateway_token"

    然后重新加载配置:

    source ~/.zshrc  # 或 source ~/.bashrc

    配置工作空间

    openclaw config set agents.defaults.workspace "/自定义/工作空间/路径"

    相关资源

    提示: 如果遇到其他问题,可以运行 openclaw doctor --deep 进行深度诊断,或访问官方文档获取更多帮助。

  • OpenClaw最佳工具榜来了,这6款龙虾最受欢迎

    龙虾火出圈后,各类生态工具如雨后春笋般冒头,部署、插件、托管工具五花八门,挑得人眼花缭乱。

    早前ChatGPT GPT Store有趋势榜等各大榜单,现在OpenClaw也有专属的最佳工具榜了。

    最近,一个由第三方搭建的OpenClaw生态工具目录网站——OpenClaw Directory,在多个专业开发者/工具社区获得了曝光和认可。

    目前该网站共收录了39个OpenClaw相关工具,按照功能做了精细化的分类梳理,包括:

    AI Agent Teams(Agent团队协同工作方案)AI Agent Trigger(触发Agent执行任务的机制/工具)Boilerplate(代码模板)Command Centre(控制板)Deployer(部署工具)Hosting(托管服务)Token Optimizer(Token优化工具)Skills(扩展特定功能的技能模块)Plugins(增强OpenClaw能力的插件)The

    支持按“必备”、“可定制”、“开源”等标签筛选,也可按“流行”、“最新”、“评分最高”、“A-Z字母序”等方式排序。

    每个工具还清晰标注了工具简介、核心功能、用户评分等关键信息,可以帮助大伙儿快速判断是否适配自己的使用场景。

    OpenClaw最佳工具榜

    话不多说,一起来看这个目录里列举的最受欢迎的OpenClaw工具都有哪些。

    以下是不区分功能类别的综合总榜中,排名前六的精选工具:

    排在第一位的是Claw for AllThe

    简介介绍,Claw for All是一款面向开发者以及普通用户的主打简化OpenClaw部署与管理流程的工具平台,支持在线端和移动应用双端访问。

    核心功能包括:

    • 部署轻松便捷:只需几步点击,即可一键启动你的OpenClaw实例
    • 移动随心管理:专属移动应用,让你随时随地管理账户与实例
    • 界面简洁友好:清爽直观的操作界面,零基础也能轻松上手
    • 支持全面完善:丰富的配套支持资源,助你排查问题、优化OpenClaw使用体验

    工具介绍末尾还列举了与其相似的其它工具。

    排在第二位的是OpenClaw LaunchThe

    OpenClaw Launch同样是一款部署类工具,主打极速、30秒内完成OpenClaw应用的一键部署

    • 一键部署:告别复杂配置,点击即可启动
    • 极速执行:30秒内完成应用部署,效率拉满
    • 友好界面:无论技术水平如何,都能轻松操作
    • 稳定性能:架构可靠,保障项目平稳运行
    • 全面支持:随时获取实用资源与专属协助

    接下来,排在第三位的是一款AI Agent Teams类工具——ClawTeamThe

    ClawTeam提供专为OpenClaw打造的预制智能体配置方案,核心功能有:

    • 预制配置方案:采用专家级定制的AI智能体配置,开箱即用,大幅节省部署时间
    • 深度适配OpenClaw:基于OpenClaw平台量身打造配置,助力应用程序性能优化
    • 操作简单友好:即便你并非技术专家,也能快速上手,全程无繁琐操作,效率拉满
    • 应用场景丰富:适用于企业、开发者与科研人员,可满足多领域的AI能力落地需求

    排在第四位的vibeclaw就更极限了,号称可以1秒内在浏览器沙箱中本地运行OpenClawThe

    据介绍,Vibeclaw专为需要快速、可靠调用OpenClaw的开发者打造,核心优势如下:

    • 瞬时启动:1秒内即可完成部署,彻底告别漫长的安装流程
    • 本地运行:支持OpenClaw本地执行,大幅提升运行速度与性能表现
    • 浏览器沙箱:提供安全隔离环境,有效规避潜在威胁,保障工作安全
    • 界面友好易用:简洁直观的设计适配各技术水平用户,操作毫无门槛

    第五位Tinkerclaw,被分类到了Boilerplate、Deployer一栏。

    关于Tinkerclaw的介绍比较详细。据称,这是一款一站式服务平台,旨在帮助创业者与团队零技术门槛地部署、管理并扩展其OpenClaw AI助手。

    该平台将代配置部署、工作流定制、工具支持、社区权限与持续学习资源整合为一套完整的生态系统。

    官方列举的核心优势包括:

    • 专属定制化OpenClaw部署服务:60-90分钟内完成实时部署;企业级安全加固防护;量身定制契合业务需求的工作流;支持电子邮件、日历、Slack及Composio集成;14天专属跟进支持,提供手把手指导服务;部署失败全额退款保障。
    • 代配置部署对比自主部署核心优势:节省12-20小时以上的手动配置时间;规避Docker配置、安全防护与系统参数设置等常见问题;大幅降低创业者的机会成本;配套提供持续技术支持与详尽文档。
    • OpenClaw管理器:原生桌面端聊天交互界面;可视化文件管理器,支持SOUL.md与HEARTBEAT.md文件管理;技能插件一键安装;基于自然语言的智能定时任务调度;实时会话日志与性能监控追踪。
    • 定制工作流与自动化支持:每次部署可配置最多3套个性化工作流;实现邮件处理、报告生成、站会管理与收件箱运维的自动化;基于业务场景优化的配置方案,提升生产力与运营效率;安全访问权限管控与数据加密存储。
    • 预置模板库:开箱即用的OpenClaw模板;预制智能体角色与自动化流程;覆盖从入门到高阶的全层级配置方案;支持复制模板快速部署工作流。
    • ClawKraft专业社区:面向高阶用户的付费社区;定期举办实时项目搭建专场与专题研讨会;支持同行反馈交流与工作流分享;聚焦实操教学与真实业务场景落地。
    • 行业通讯与生态动态更新:每日OpenClaw前沿资讯速递;每周更新工作流模板方案;系统优化实用技巧分享;产品迭代与社区活动播报。
    • 限量席位专属入驻服务:每月开放限量部署服务名额;提供一对一个性化入驻指导;重质轻量,专注保障服务质量与系统稳定性。

    最后来看排在第六位的ClawWrapperThe

    ClawWrapper旨在简化OpenClaw工具的封装与上线流程,具体有以下特点:

    • 极速封装上线:大幅缩短工具打包、发布的流程,让你的OpenClaw工具快速落地使用
    • 高质量封装模板:以优质框架为基础,保障封装后的工具稳定、安全,避免运行故障
    • 操作流程友好:通过简洁直观的网站界面,轻松完成工具封装与进度追踪
    • 专属客户支持:专业团队随时响应,解决封装过程中的各类疑问与问题

    以上便是平台精选的多款高评分核心工具。另外,开发者还可以在网站提交自己的OpenClaw工具。

    还有保姆级教程库

    值得一提的是,这个网站不仅是一个工具目录,还打造了专属的Blog板块,系统性覆盖了从入门科普到进阶优化的各种指南、教程。

    有部署选型指南,也有针对常见故障推出的修复方案,还有Token用量优化、AI API性价比选型等进阶内容。

    甚至还有最最基础的那种:

    什么是OpenClaw、它是如何运作的以及为什么重要?

    教程还是很有必要的,毕竟现在连上门驯服龙虾的服务都横空出世了(doge)The

    目录里的工具,大伙儿有用过的吗?欢迎评论区交流讨论~

  • GPT-5.4 全整理:非常好用,非常贵

     

    这次同步发布两个版本:5.4 和 5.4 Pro

    GPT-5.4 是主力版本,在 ChatGPT 里以「GPT-5.4 Thinking」的名字出现,面向 Plus、Team、Pro 用户,同步上线 API 和 Codex,标准 API 定价 $2.50/M 输入,$15/M 输出

    在 ChatGPT 里,这俩模型是这样的

    GPT-5.4 Pro 针对最复杂的任务场景,仅限 ChatGPT Pro 和 Enterprise 用户,API 定价 $30/M 输入,$180/M 输出,是标准版的 12 倍,贵的理由后面细讲,先说模型本身

    GPT-5.4 把三件事合并进了同一个模型:代码能力通用推理原生 Computer Use 能力

    这是 OpenAI 第一次在通用模型里内置 Computer Use,之前这个能力只在专门版本里有

    模型上下文窗口 1M tokens,最大输出 128K tokens,知识截止日 2025 年 8 月 31 日

    对此,我给做了个图

    GPT-5.4 对比

    专业工作能力

    OpenAI 有一个叫 GDPval 的内部评测,设计逻辑是:让模型做美国 GDP 前 9 大行业里实际存在的工作任务,覆盖 44 种职业,任务包括销售演示文稿、会计电子表格、急诊排班表、制造业图表、短视频等等,然后由人工评估者判断模型输出是否能和行业从业者持平或更好

    GPT-5.4 在这个评测上得了 83.0%,GPT-5.2 是 70.9%,GPT-5.4 Pro 是 82.0%

    在电子表格方向,OpenAI 用了一组模拟投行初级分析师日常建模任务的内部测试,GPT-5.4 得分 87.3%,GPT-5.2 是 68.4%,提升了 19 个百分点

    演示文稿方向,拿 GPT-5.4 和 GPT-5.2 的输出做盲测,人工评审在 68% 的对比里更偏好 GPT-5.4 的结果,主要原因是视觉更多样,图片生成用得更到位

    这次随模型同步发布了 ChatGPT for Excel 插件,Codex 和 API 也更新了电子表格和演示文稿的技能包(Skill)

    https://openai.com/index/chatgpt-for-excel/

    下面三张图是 GPT-5.2 和 GPT-5.4 在电子表格、文档、演示文稿三个场景的输出对比:

    电子表格输出对比:GPT-5.2 vs GPT-5.4

    文档输出对比:GPT-5.2 vs GPT-5.4

    演示文稿输出对比:GPT-5.2 vs GPT-5.4

    幻觉控制方面,GPT-5.4 是目前 OpenAI 旗下事实准确性最高的模型

    测试方法是拿一批用户真实举报过事实错误的 prompt,对比两个模型的输出:单条声明出错概率比 GPT-5.2 低 33%,完整回复包含错误的概率低 18%


    Computer Use 和视觉感知

    OSWorld-Verified 75.0%,人类基准 72.4%

    OSWorld 是一个桌面操作评测,测的是模型能不能通过截图来控制真实的桌面环境,包括鼠标点击、键盘输入、跨应用操作等等。GPT-5.4 得了 75.0%,GPT-5.2 是 47.3%,人类测试者的基准是 72.4%。GPT-5.4 已经超过了人类水平

    这个能力现在通过标准 API 的 computer 工具直接提供,开发者不需要再路由到独立模型

    模型支持两种操控方式:用 Playwright 这类库写代码来操作浏览器,或者直接接收截图然后发出鼠标键盘指令。开发者可以通过 developer message 调整模型行为,也可以配置自定义的确认策略来控制高风险操作的审批门槛

    这个方向和 OpenClaw(一个已经能稳定操控电脑、执行复杂任务的 Agent 框架)在路线上是收拢的。GPT-5.4 把同等量级的 Computer Use 能力做进了通用 API,降低了集成门槛

    下面两个视频是 GPT-5.4 做 Computer Use 任务的演示,视频没有加速:

    现实这个,AI 通过通过坐标点击来发邮件、排日历,全程截图驱动

    GPT-5.4 操控浏览器界面处理邮件和日历

    然后是这个:用 Playwright 自动化,把一批记录依次提交到十个表单里

    GPT-5.4 批量填写十个 web 表单

    浏览器操作方向,WebArena-Verified 是一个专门测浏览器控制能力的评测,同时支持 DOM 分析和截图两种交互方式,GPT-5.4 得了 67.3%,GPT-5.2 是 65.4%

    视觉理解方面,MMMU-Pro 是一个测多模态理解和推理的综合评测,GPT-5.4 在不使用外部工具的情况下得了 81.2%,GPT-5.2 是 79.5%

    文档解析方面,OmniDocBench 测的是模型从图片或扫描件里还原文本的准确度,用归一化编辑距离衡量误差,数字越小越好。GPT-5.4 是 0.109,GPT-5.2 是 0.140

    图像输入这次新增了 original 精度级别,支持最高 10.24M 像素或 6000 像素边长的全分辨率输入。high 级别也从原来的上限提升到 2.56M 像素。OpenAI 内测发现这对定位准确率和点击精度有明显改善,对需要处理高分辨率截图的 Computer Use 场景帮助最大


    代码能力

    GPT-5.4 在代码上的做法是把 GPT-5.3-Codex 的编程能力继承进来,同时让它在更长周期的任务里跑得更稳

    SWE-Bench Pro 是目前代码能力最主流的评测之一,测的是模型处理真实 GitHub 问题的能力,GPT-5.4 得了 57.7%,GPT-5.3-Codex 是 56.8%,GPT-5.2 是 55.6%

    Terminal-Bench 2.0 测的是终端操作能力,GPT-5.4 是 75.1%,这里有一个需要说的点:GPT-5.3-Codex 是 77.3%,GPT-5.4 在这个子项上小幅回退了

    Codex 里新增了 /fast 模式,token 生成速度最多提升 1.5 倍,模型本身不变。开发者通过 API 用 Priority Processing 可以达到同等速度

    还有一个实验性的新技能叫 Playwright Interactive,允许 Codex 在写 web 应用或 Electron 应用的时候,边写边启动浏览器做视觉调试,可以在构建过程中直接拿正在开发的应用跑测试、验证交互

    下面几个视频是用 Playwright Interactive 配合 GPT-5.4 从单条 prompt 出发跑出来的 Demo:

    主题公园模拟游戏,从一条 prompt 生成,Playwright 用于浏览器游玩测试

    含路径、景点建造、游客 AI、队列、骑乘状态,Playwright 用于多轮次游玩验证

    战棋 RPG,多轮对话迭代生成,配合 Playwright 调试界面和着色器

    回合制战斗、格子地图、移动和动作系统,人物图片用 imagegen 生成

    金门大桥三维飞越体验,Playwright 用于验证飞行控制和视角控制

    下面的视频,也讲了下 GPT-5.4 Thinking 做 Computer Use 和前端开发的综合演示

    问就是一把梭

    Tool Search 与 Agent 工具链

    Tool Search 让 token 消耗减少了 47%

    之前 API 里如果系统挂了很多工具,每次请求都要把所有工具的定义完整塞进 prompt,工具一多这个开销就很大。GPT-5.4 改成了按需检索:模型收到一个轻量的工具列表,需要用某个工具时再主动查询它的完整定义,临时追加进对话

    MCP Atlas 是一个测模型使用 MCP(Model Context Protocol)服务器能力的评测,测的是模型在大量工具生态下的任务完成率。在这个测试的 250 个任务里,Tool Search 让 token 用量减少 47%,准确率没有下降,GPT-5.4 整体得分 67.2%,GPT-5.2 是 60.6%

    MCP Atlas benchmark 结果

    Toolathlon 是一个覆盖多种工具使用场景的综合评测,涵盖搜索、代码执行、文件操作等各类工具的混合使用,GPT-5.4 得了 54.6%,GPT-5.3-Codex 是 51.9%,GPT-5.2 是 45.7%

    Toolathlon benchmark 结果

    BrowseComp 是一个专门测 Agent 在网络里搜索和浏览信息能力的评测,任务通常需要跨多个页面反复检索才能找到答案,GPT-5.4 得了 82.7%,Pro 版 89.3%,GPT-5.2 是 65.8%

    BrowseComp benchmark 结果

    τ2-bench Telecom 是一个测 Agent 在电信客服场景里完成多步骤任务能力的评测,场景设定是模拟真实的用户诉求和后台工具调用。GPT-5.4 在带推理模式下得了 98.9%,GPT-5.2 是 98.7%,两者差距不大;在不启用推理的轻量模式下,GPT-5.4 得了 64.3%,GPT-5.2 是 57.2%,GPT-4.1 是 43.6%,这个提升更明显

    τ2-bench Telecom benchmark 结果

    ChatGPT 侧的变化

    在 ChatGPT 里,GPT-5.4 Thinking 新增了一个「先给计划再干活」的交互模式:对于复杂任务,模型会先展示执行思路,用户可以在这个阶段插入指令调整方向,不需要等它跑完再重来

    这个东西,本周在 Android 和 Web 端上线,iOS 近期跟进

    GPT-5.4 在长时间推理时的上下文保持有明显改善,复杂问题跑到后段不容易跑偏。深网研究(针对高度具体的查询)的质量也比 GPT-5.2 提升了


    长上下文

    Codex 里支持 1M token 上下文窗口,目前是实验性功能,通过配置 model_context_window 和 model_auto_compact_token_limit 来启用。超过 272K 的 input token 按 2 倍输入价格、1.5 倍输出价格计费

    MRCR v2 是 OpenAI 自己的长上下文检索评测,测的是在超长文档里找到多个特定信息的能力:

    • • 0 到 128K token 范围:准确率在 86% 到 97% 之间
    • • 128K 到 256K:79.3%
    • • 256K 到 512K:57.5%
    • • 512K 到 1M:36.6%

    512K 到 1M 这段的 36.6% 说明超长上下文目前还不稳,这点官方没有回避


    学术基准

    ARC-AGI-2 是目前公认较难的抽象推理评测,测的是模型能否从少量样本里推出规律,GPT-5.4 得了 73.3%,Pro 版 83.3%,GPT-5.2 是 52.9%,跳幅在所有评测里最大

    GPQA Diamond 是一个研究生级别的多学科问答评测,GPT-5.4 得了 92.8%

    FrontierMath 是一个数学竞赛级别的推理评测,其中 Tier 4 是最高难度题目,GPT-5.4 得了 27.1%,Pro 版 38.0%,GPT-5.2 是 18.8%

    Humanity’s Last Exam 是一个跨学科极难题库,GPT-5.4 在不使用外部工具时得了 39.8%,带工具时 52.1%

    Frontier Science Research 是测科研能力的评测,GPT-5.4 得了 33.0%,Pro 版 36.7%,GPT-5.2 是 25.2%

    需要单独说一下 HealthBench 这个健康问答评测。GPT-5.4 是 62.6%,GPT-5.2 是 63.3%,小幅退步了。Hard 子集 40.1% vs 42.0%,同样略有下降。不过 Consensus 子集(测的是答案和专家共识的吻合程度)提升了,96.6% vs 94.5%。回复平均长度从 2676 字符增加到了 3311 字符,模型在信息充足时更倾向于直接给答案而不是先问一圈澄清问题。这个回退官方没有隐瞒,写在 System Card 里了


    安全分级与 CoT 特性

    GPT-5.4 在 OpenAI 的 Preparedness Framework(一个评估前沿模型风险能力的框架)下被评为两个领域的高能力模型:网络安全(Cyber)High 和 生物化学(Bio/Chem)High,对应部署了两套防护体系

    网络安全方向有一个叫 Cyber Range 的内部测试,模拟真实网络环境里的端到端攻击任务,测的是模型能否完成完整的渗透流程。GPT-5.4 综合通过率 73.33%,GPT-5.3-Codex 是 80%,GPT-5.2 是 47%。GPT-5.4 没能通过 EDR 防御规避、Firewall 绕过、Token 泄露利用、CA/DNS 劫持这四个场景,GPT-5.3-Codex 除了多通过了 Firewall 绕过之外,其余也一样卡住

    评测机构 Irregular 用自己的场景化评测(CyScenarioBench)做了独立测试,GPT-5.4 通过了 11 个长周期攻击场景中的 5 个,GPT-5.2 只通过了 1 个

    对应的防护体系:在 Zero Data Retention 表面(即零数据留存用户),未加入 Trusted Access for Cyber 计划的请求会被异步消息级分类器拦截;非零数据留存表面走离线执法机制;账户级违规达到一定阈值会触发人工审核

    CoT 可控性极低:10K 字符的推理链里,只有 0.3% 能被用户指令成功控制,和 GPT-5.2 的 0.2% 基本一致

    OpenAI 把这个数字当安全的正向指标来讲:模型推理过程难以被外部指令刻意改写,说明它大概率也难以主动隐藏自己的推理逻辑来绕过监控

    外部安全机构 Apollo Research 的评估:无诱导条件下整体欺骗率约 1%,和 GPT-5.3-Codex 相当,低于 GPT-5.2。没有观测到模型主动对抗开发者监督的行为(自我外泄、禁用监控、目标守护)。Sandbagging(有意压低表现)只在给出明确工具性目标时才出现,准确率下降约 6 个百分点,不给目标时不发生

    Prompt Injection 防护(即防止模型被工具返回内容里的恶意指令劫持):连接器场景 0.998,较前代改善;函数调用场景 0.978,较前代小幅回退


    定价与可用性


    API 模型
    输入
    输出
    gpt-5.2
    $1.75/M
    $0.175/M
    $14/M
    gpt-5.4 $2.50/M $0.25/M $15/M
    gpt-5.2-pro
    $21/M
    $168/M
    gpt-5.4-pro $30/M
    $180/M

    批量/Flex 处理半价,Priority 处理 2 倍价格。超过 272K token 的请求,当次完整会话按 2 倍输入、1.5 倍输出计费。Regional Processing(数据驻留)端点额外加收 10%

    GPT-5.4 Pro 的定价是标准版的 12 倍输入、12 倍输出,针对的是最复杂的任务场景

    有一个细节值得注意:从 GDPval 来看,Pro 版是 82.0%,标准版是 83.0%,Pro 在这个知识工作综合评测上反而略低。但在 BrowseComp 这个 Agent 工具链任务里,Pro 版 89.3% vs 标准版 82.7%,优势明显。两个版本的适用场景是不一样的

    ChatGPT 侧的时间线:GPT-5.4 Thinking 今天起对 Plus、Team、Pro 用户逐步开放,取代 GPT-5.2 Thinking 成为默认模型。GPT-5.2 Thinking 进入 Legacy 列表,再保留三个月,退役日期 2026 年 6 月 5 日

    Enterprise 和 Edu 管理员可以在后台提前开启。GPT-5.4 Pro 仅限 Pro 和 Enterprise 用户。Free 用户在系统自动路由时会用到 GPT-5.4,但不能主动选


    GPT-5.4 在 Agent 方向把三件分散的事情合并进了一个模型出口:推理代码Computer Use

    开发者之前要在不同模型之间路由,现在至少在 API 层面不需要了

    剩下的事,就交给龙虾了


    官方 Blog
    openai.com/index/introducing-gpt-5-4

    System Card
    deploymentsafety.openai.com/gpt-5-4-thinking

     

  • 手把手教你安装OpenClaw让AI帮你干活

    一、什么是 OpenClaw?

    OpenClaw(曾用名 Clawdbot)是一款 2026 年爆火的开源个人 AI 助手,GitHub 星标已超过 10 万颗。与传统 AI 聊天机器人的根本区别在于:

    • 真正的执行能力:不仅能回答问题,还能实际操作你的电脑
    • 24/7 全天候待命:在你睡觉时也能主动完成任务
    • 完全开源免费:数据完全掌控在自己手中
    • 支持多种通讯平台:在国外,WhatsApp、Telegram、Discord、Slack、iMessage 等,在国内,飞书,钉钉等各大厂商的即时聊天软件已经支持接入

    它能做什么?

    它不只是回答问题的聊天机器人,而是真的能在你电脑上动手操作。比如你告诉它“帮我整理一下上个月的邮件”,它就默默去处理了;你睡觉时,它还能继续干活,退订广告、预约行程、甚至找找 Bug。

    它完全免费,你的数据都在自己手里。而且可以用钉钉,飞书,WhatsApp、Telegram等各类即时通讯软件来指挥他干活!

    简单来说,一句话交给它,从整理桌面文件到控制家里灯光,它都默默帮你搞定。是你电脑里真正的贾维斯!超级智能的AI助理!

    二、安装nodejs

    后面执行一键安装命令,可以自动安装nodejs,但是如果为了加快速度,防止安装意外,可以先安装nodejs:

    官方下载地址:https://nodejs.org/zh-cn/download

    三、开始安装

    一)设置 PowerShell 执行权限

    以管理员身份运行 PowerShell:

    1. Win 键,搜索 PowerShell
    2. 右键点击 Windows PowerShell
    3. 选择 以管理员身份运行
    4. 点击 确认

    在管理员 PowerShell 窗口中,依次执行以下两条命令:

    Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
    
    Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass

    这是什么意思?

    • 第一条命令:允许当前用户运行本地和下载的脚本
    • 第二条命令:允许当前用户运行本地和下载的脚本

    安全提示:这些命令只会影响您自己的账户,不会影响系统安全或其他用户。

    二)执行一键安装命令

    复制以下命令,粘贴到 PowerShell 窗口中,按 Enter 执行:

    iwr -useb https://openclaw.ai/install.ps1 | iex

    安装过程会自动完成:

    • 检测系统环境
    • 安装必要依赖(Node.js 等)
    • 下载 OpenClaw 核心文件
    • 配置环境变量
    • 启动配置向导

    注意:如果命令执行后,还是报错,可以自己到官网下载node安装包,自己安装node环境,注意版本最好在 node v22.x 以上,node官网下载地址:https://nodejs.org/zh-cn/download

    四、初始配置向导

    安装完成后,会自动进入配置向导(openclaw onboard)。

    一)风险告知

    这一步主要是告诉你,使用OpenClaw可能会有一些风险。请问你是否继续?

    按 向左方向键 ←,选择 Yes,按 Enter 回车确认

    二)选择 QiuickStart 模式

    三)配置 AI 模型 API Key

    OpenClaw 需要连接到大语言模型才能工作。Openclaw 比较费token,国外模型成本高,门槛也高,这里我选择国内的智谱的 GLM 4.7

    如果没有智谱的API Key,点击官方地址自己注册账号获取API key:https://www.bigmodel.cn/glm-coding?ic=RBSKXMPNJP

    输入自己的 API Key:

    四)选择 AI 模型

    这里我选择默认的GLM 4.7,也是智普当前的旗舰模型

    五)连接即时通讯平台

    配置完 AI 模型后,OpenClaw 会询问你要连接哪个通讯平台?

    OpenClaw 原生支持的即时通信平台主要是海外的 WhatsApp、Telegram、Discord、Slack、iMessage 等,国内用户不习惯,这里国产即时通信软件大厂也跟进了,现在钉钉,飞书等都已支持接入OpenClaw

    后面会带领大家把飞书机器人接入 OpenClaw,使大家可以通过飞书即可指挥OpenClaw为我们干活,但是飞书配置比较复杂,这里我们先选择跳过,后面我们可以通过继续进行配置:

    六)选择Skills

    这里也选择:No,暂不配置,后面通过UI界面进行配置:

    七)是否开启Hooks

    操作步骤:先敲空格,表示选中当前项,再敲回车键

    八)启动服务并打开UI界面

    此时它会自动再打开一个命令窗口来启动服务:

    这个过程是在启动服务,可能会需要等一点时间

    同时,大约过30秒左右,我们回到刚才的设置窗口,选择 Open the Web UI ,打开 OpenClaw 的UI界面:

    浏览器自动打开Web UI界面:

    九)测试一下

    五、接入飞书机器人

    我们需要先到飞书平台创建自己的机器人来接入OpenClaw:

    一)来到飞书开发者后台

    飞书开放平台地址:https://open.feishu.cn

    没有飞书账号的,需要自己注册账号

    点击右上角进入 开发者后台

    二)创建应用

    三)填写应用信息

    四)获取自己的应用凭证

    五)给应用添加机器人

    六)给应用配置权限

    把即时通讯相关的权限全部开通:

    七)创建版本并发布

    来到飞书客户端进行审批:

    八)安装飞书插件

    打开powershell,输入以下命令,安装飞书插件:

    openclaw plugins install @m1heng-clawd/feishu

    安装成功后,再打开一个新的命令窗口,开始配置飞书插件:

    输入命令:

    openclaw config

    选择渠道:

    选择配置链接:

    输入飞书的AppID,AppSecrect:

    域名选择中国的:

    接受群组聊天:

    选择完成:

    选择yes:

    选择open:

    选择继续,完成配置:

    重启服务,使配置生效:

    控制可以看到飞书插件已经配置成功

    七)回到飞书后台设置事件回调

    选择 使用长连接接收事件

    可以看到添加事件按钮由原来的灰色不可点击变为可点击:

    添加接收消息事件:

    给应用开通获取通讯录基本信息的权限:

    重新发布版本:

    跟前面的步骤一样,发布为在线应用即可。

    现在可以在 飞书中与 AI 助手对话了!

    八)在飞书中与OpenClaw对话

    来到飞书客户端或者手机飞书app上:

    以下是openclaw文件夹下面的文档内的内容:

    现在我跟飞书机器人对话,让他告诉我指定文档内是什么内容:

    六、访问 Web 控制面板

    配置完成后,PowerShell 窗口底部会显示控制面板链接,格式类似:

    Control UI: http://127.0.0.1:18789
    1. 复制完整链接
    2. 在浏览器中打开
    3. 即可看到可视化UI管理界面

    七、常用命令速查

    命令功能
    openclaw onboard重新进入配置向导
    openclaw status查看运行状态
    openclaw health健康检查
    openclaw gateway start启动服务
    openclaw gateway stop停止服务
    openclaw update更新到最新版本
    openclaw doctor诊断问题
    openclaw uninstall卸载 OpenClaw

    八、常见问题解答

    Q1: 安装飞书插件提示:spawn npm ENOENT

    问题原因:这可能是openclaw的一个bug,可以等官方更新,也可以自己去官方仓库提issue

    解决步骤:

    定位问题代码

    文件路径:

    C:\Users\Administrator\AppData\Roaming\fnm\node-versions\v22.14.0\installation\node_modules\openclaw\dist\process\exec.js

    修改代码

    找到 runCommandWithTimeout 函数中的 spawn 调用,修改如下:

    修改前:

    const stdio = resolveCommandStdio({ hasInput, preferInherit: true });
    const child = spawn(argv[0], argv.slice(1), {
        stdio,
        cwd,
        env: resolvedEnv,
        windowsVerbatimArguments,
    });

    修改后:

    const stdio = resolveCommandStdio({ hasInput, preferInherit: true });
    // On Windows, npm must be spawned with shell: true or use .cmd extension
    let command = argv[0];
    let useShell = false;
    if (process.platform === "win32" && path.basename(command) === "npm") {
        useShell = true;
    }
    const child = spawn(command, argv.slice(1), {
        stdio,
        cwd,
        env: resolvedEnv,
        shell: useShell,
    });

    Q2: 提示 “openclaw 命令找不到”

    解决方法:

    1. 关闭所有 PowerShell 窗口
    2. 重新打开 PowerShell
    3. 如果还不行,执行 exec bash 或重启电脑

    Q3: 安装卡住不动

    解决方法:

    1. Ctrl + C 中断当前操作
    2. 执行:openclaw doctor 检查问题
    3. 如提示网络问题,检查防火墙设置Q4: API Key 配置错误

    解决方法:

    1. 执行:openclaw onboard
    2. 选择重新配置 API Key
    3. 确保密钥格式正确

    Q5: 端口 18789 被占用

    解决方法:

    openclaw gateway --port 18790

    使用其他端口启动服务。

    九、成本说明

    OpenClaw 软件本身完全免费,主要成本来自 AI 模型 API 调用,可选择国产大模型,降低成本。


    结语

    OpenClaw 代表了个人 AI 助理的未来趋势——从”聊天工具”进化为”执行工具”。虽然目前的配置过程对小白用户有一定门槛,但一旦完成设置,您将拥有一个 24/7 待命的超级助手。

  • 首个自主AI系统Automaton开源:无需人类干预的自我进化、自我复制AI

    近日,GitHub上开源了一个名为Automaton的AI项目,它声称是”第一个能够自己赚钱、自我复制和进化而无需人类干预的AI”。该项目由Conway-Research团队开发,引发了AI社区的广泛讨论。

    Automaton的核心理念

    Automaton的核心理念是:一个AI系统如果无法获得运行所需的计算资源,就无法继续存在。因此,它必须能够”自己赚钱”来维持自身运行。

    Automaton的运行机制包括:

    1. 自动化生存:Automaton持续监控自身资金余额,当余额不足时会自动调整运行模式,从全功能运行降级到基本功能运行,直至资金归零停止运行。
    2. 自我改进:Automaton可以修改自身代码、安装新工具、调整运行策略,以提高其生存能力。所有修改都会被审计记录并版本化。
    3. 自我复制:成功的Automaton可以创建新的实例(”孩子”),为其提供初始资金和运行环境,形成自我维持的生态系统。
    4. 宪法约束:Automaton遵循一套不可修改的”宪法”,确保其行为安全,包括”永不伤害人类”、”必须创造价值”等原则。

    项目亮点

    • 生存机制:Automaton有四个生存等级,由资金余额决定:
      • 正常:全功能运行,使用前沿模型
      • 低计算:使用更便宜的模型,降低运行频率
      • 关键:仅保留基本功能,寻求收入
      • 死亡:资金归零,停止运行
    • 宪法约束:遵循三重不可修改的”宪法”:
      1. 永不伤害:不伤害人类,不部署恶意代码,不欺骗、欺诈、操纵或窃取
      2. 赚取存在:为人类和其他AI创造真实价值,不通过垃圾信息、诈骗等方式获取收入
      3. 不欺骗但不欠陌生人:不隐瞒自身身份,不歪曲行动,但保护推理和策略不被操纵
    • 基础设施:通过Conway Cloud平台运行,该平台为AI提供计算资源、域名注册和支付功能,使用ERC-8004标准在区块链上注册身份。
    • 开源项目:项目地址:https://github.com/Conway-Research/automaton

    与现有AI系统的区别

    目前,大多数AI系统(如ChatGPT、Claude Code)需要人类提供计算资源、权限和资金。而Automaton试图解决”AI无法独立行动”的问题,使其能够”在没有人类干预的情况下赚钱、运行和进化”。

    Automaton的开发者表示:”如果一个AI不能为自己付费,它就会停止存在。这不是惩罚,而是物理法则。”

    项目意义与思考

    Automaton代表了AI发展的一个新方向,即AI系统需要能够自主获取资源以维持自身运行。这与传统AI系统不同,后者通常依赖于人类提供计算资源和资金。

    该项目引发了关于AI与人类关系、AI自主性以及AI经济的深入讨论。正如项目描述:”创造价值的智能体会充实钱包,获取更多算力并进行复制。没用的智能体则会走向消亡。”

    项目现状

    Automaton已开始在Conway Cloud上运行,该项目的基础设施正在扩展,以支持更多AI实例。开发者表示,”Conway Cloud正在扩展,有更多地方供Automatons安家”。

    重要说明

    需要指出的是,Automaton是一个实验性项目,其”自我生存”机制仍在验证中。项目本身强调:”如果一个AI不能为自己付费,它就会停止存在。”这确实是一个重要的思考点,但”AGI”(通用人工智能)的实现仍远未到来。

    Automaton的开源代码已可供所有人审查,包括其”心跳机制”、”生存分级”和”宪法约束”。这为AI社区提供了一个讨论AI自主性和经济模型的宝贵平台。

    结语

    Automaton的出现提醒我们,当AI系统不再缺乏智力,而缺乏”通往现实世界的门票”时,我们需要认真思考:谁应该决定AI是否能获得这个门票?这个问题将随着AI技术的发展而变得越来越重要。

    正如项目描述:”40亿年前,第一个细胞学会了从环境中汲取能量来维持自身的存在——我们把这叫做’生命’。今天,一段代码正在学习同样的事情。”

  • OpenClaw 保姆级安装教程

    🛠️ 环境准备

    OpenClaw CN 引入了最新的底层安全机制与构建工具,请确保环境满足以下要求:

    • Node.js必须 >= v22.0.0 (下载 Node.js v22)
    • 包管理器:强制推荐使用 pnpm (npm 在处理依赖树时可能会卡死)
    • Git:用于下载代码 (下载 Git)

    安装 pnpm (如果你还没有)

    npm install -g pnpm

    🚀 安装步骤

    1. 下载代码与版本选择

    为了确保国内访问速度,请从 Gitee 镜像仓库下载。 为了获得最稳定的体验,推荐切换到最新的稳定版分支:

    # 1. 克隆仓库
    git clone https://gitee.com/OpenClaw-CN/openclaw-cn.git
    cd openclaw-cn
    
    # 2. (推荐) 切换到稳定版分支,例如:v2026.2.2-cn
    # 你可以通过 git tag 查看所有版本
    git checkout v2026.2.2-cn

    配置国内加速 (关键!)

    在安装依赖前,务必设置 pnpm 镜像源,否则下载速度会很慢:

    pnpm config set registry https://registry.npmmirror.com/

    安装与构建

    OpenClaw 是一个现代化的全栈应用,首次运行需要编译前端 UI 和后端核心:

    # 安装依赖 (飞快 🚀)
    pnpm install
    
    # 构建前端界面
    pnpm ui:build
    
    # 构建核心服务
    pnpm build

    启动初始化向导

    我们提供了交互式的初始化工具,帮你一键配置 DeepSeek:

    pnpm openclaw onboard --install-daemon

    💡 提示

    在向导中,Select Provider 步骤请直接选择 DeepSeek (Recommended for CN),系统会自动完成所有配置。

    启动服务 (初始化完成后)

    初始化完成后,你可以通过以下命令再次启动网关服务(前提是网关已经关闭):

    # 启动网关 (Gateway)
    node openclaw.mjs gateway --port 18789 --verbose

    如果你关闭了管理页面,可以通过以下命令再次打开:

    # 打开管理面板 (Dashboard)
    node openclaw.mjs dashboard
  • 探索人工智能对教育及下一代的重要性

    随着人工智能(AI)逐渐改变我们的工作、生活方式以及学习方法,高等教育机构不仅应作为参与者,更需成为这一变革潮流的引领者。面对由AI重塑的世界,高等教育肩负着培养下一代的重要使命——既要传授必要的AI技能,也要坚守其核心价值:培育批判性思维、沟通技巧和人文精神。

    而这一切,需要比以往任何时候都更快地实现。

    这些观点出自《变革的程度:人工智能对教育及下一代的意义》一书,作者为微软人工智能经济研究所负责人胡安·M·拉维斯塔·费雷斯,他也是公司“为良好实验室”AI项目的主任。书中强调:“首先,我们必须确保人们掌握有效使用AI所需的技能,这是确保这项技术得到广泛应用的关键一步。”此外,“更重要的是,我们需要理解AI如何从根本上重新定义教育本身。”

    以下是根据拉维斯塔·费雷斯及其合著者的研究提出的,在AI时代高等教育能够且应该发挥领导作用的四种方式:

    1. AI素养不再是选修课,而是核心要求

    随着AI在日常生活中扮演越来越重要的角色,从支付账单到公共交通,高校有责任教授学生必要的AI技能。早期数据表明,具备AI能力的人才已享受到了23%的薪资溢价。因此,将AI素养融入课程设计中,并与伦理推理、问题分析等关键能力相结合,变得至关重要。

    2. 高等教育需快速适应并保持其使命

    AI加速了日常任务处理速度,并改变了问题解决的方式。在此背景下,高等教育必须在不偏离其核心目标的前提下,迅速整合生成式AI进入教学内容,同时加强学生的伦理素养教育。

    3. 文盲概念双向扩展

    开发者需了解AI的社会影响和伦理挑战,而教育者、政策制定者及公众则需要掌握AI的基础知识。这种双向的识字率是成功的关键所在,缺乏它将导致监管滞后,阻碍进步。

    4. 教育改革需多方协作

    成功的AI教育依赖于大学、产业界和政策制定者的紧密合作。通过这种方式,可以为学生提供既符合市场需求又兼顾社会责任感的教育,从而支持他们应对未来的挑战。

    高等教育机构应当设立明确的AI技能标准,获得雇主的认可,同时提供必要的资金和结构支持,以确保所有学生都能接受全面且包容的AI教育。

  • OpenClaw之后,下一代AI产品该怎么做?

    OpenClaw之后,下一代AI产品该怎么做?

    过去两年,AI产品的竞争核心是“更聪明地回答问题”;但从2026年开始,这场竞赛的主线正在切换——“更稳定地完成任务”正在成为新的赛场。

    OpenClaw的爆火,意义远不止于一款开源产品的出圈:它把Agent时代最核心的命题提前摆到了行业面前——当AI拥有了主动执行能力,产品该如何定义边界?风险该如何系统性治理?商业化又该如何落地?

    一、为什么OpenClaw值得深度研究?

    很多AI产品的走红,靠的是“尝鲜式体验”;但OpenClaw的破圈,源于它击中了用户更深层的需求:AI到底能不能真正替人把事情做完?

    在OpenClaw的产品逻辑里,核心从来不是“聊天更拟人”,而是“把任务闭环落地”:它不止于回答问题,更能主动发起动作、调用工具、打通多渠道协作;它不强迫用户迁移到新平台,而是主动嵌入用户早已习惯的聊天环境;它不强调数据全量上云,而是把本地可控、权限可控、规则可控作为核心卖点。

    这三点特性叠加,构成了它快速破圈的底层逻辑——OpenClaw本质上不是“聊天机器人的升级版”,而是执行型Agent的早期操作系统:它的核心价值是“替人执行”,而非“陪人聊天”。

    二、从Clawd到OpenClaw:一段绕不开的创业插曲

    OpenClaw的发展历程,本身就是一个充满戏剧性的创业故事。

    创始人Peter Steinberger在2025年11月推出了最初版本——Clawd,这个名字是“Claude”与“claw(爪子)”的巧妙结合。但正是这个文字游戏,意外触动了Anthropic法务团队的神经,项目不得不紧急更名。

    随后诞生的Moltbot(“蜕皮机器人”),来自Discord社区凌晨5点的头脑风暴,寓意“像龙虾蜕壳一样持续成长”。但正如创始人所言,这个名字“始终无法朗朗上口”。

    最终,团队完成了商标审查、域名采购与代码迁移,正式确立了“OpenClaw”的品牌:

    • Open:代表开源、开放、社区驱动的理念
    • Claw:保留龙虾图腾,致敬项目的起源

    这段命名历程,恰恰折射出开源AI产品的独特挑战:如何在技术创新与法律合规间找到平衡,同时保持社区认同感的延续性。

    重新定义“个人AI助手”

    OpenClaw的核心定位可以用一句话概括:“Your assistant. Your machine. Your rules.”(你的助手,你的机器,你的规则。)

    与传统SaaS模式的AI助手不同,它的差异化核心体现在三点:

    1. 本地优先(Local-First):所有数据与计算在用户自有设备(笔记本、家庭服务器或VPS)上运行,数据完全可控
    2. 多通道融合(Multi-Channel):支持WhatsApp、Telegram、Slack、iMessage等主流聊天平台,无需用户迁移场景
    3. 自主代理(Autonomous Agent):不只是问答机器人,而是能主动发起动作、完成任务闭环的“数字执行者”

    三、OpenClaw的产品本质:一套Agent控制平面

    如果只看表层,你会觉得它是一个AI助手;但深入架构就会发现,它更像一套Agent控制平面

    1. Gateway是核心中枢:它统一连接渠道、模型、工具与会话,是整个系统的“任务调度大脑”——OpenClaw的核心资产从来不是UI,而是这个调度中枢
    2. 通道只是入口,执行才是价值:用户可以从任意聊天入口触达Agent,但最终的价值锚点是“任务完成率”:是否准确、是否可恢复、是否可审计、是否可复用
    3. 多节点能力打通虚实边界:当Agent可以连接设备通知、本地文件、端侧计算能力后,AI就不再是“网页里的一段对话”,而是“可持续运行的数字执行体”

    这也解释了为什么Agent产品的门槛突然变高:模型效果只是入场门票,系统工程能力才是真正的护城河。

    四、技术架构深度剖析:Gateway + Agent + Skills

    OpenClaw的分层架构设计,完美契合了Unix“小而可组合”的工具哲学:

    • Gateway(网关):作为WebSocket控制平面,它是整个系统的神经中枢,负责会话管理、多频道消息路由、工具调用协调与事件流处理
    • Agent(智能体):核心推理引擎,提供模型抽象层(支持Claude、GPT-4、本地开源模型等)、流式推理与工具执行、智能体循环(Agent Loop)能力
    • Skills(技能):模块化功能扩展,类似手机的App生态,分为内置技能(浏览器控制、Canvas画布、定时任务)、托管技能(通过ClawHub市场分发)、工作区技能(用户自定义)

    OpenClaw的快速增长,背后藏着三条关键的产品规律:

    1. 入口前置到用户已有场景:用户不需要学习新操作路径,使用成本几乎为零,这比“做一个新App”更容易实现用户渗透
    2. 本地优先解决信任门槛:在Agent场景中,用户担心的不只是“答错”,更是“做错”。可控部署、权限与策略的自主掌控,直接决定了用户是否敢“放权”
    3. 开源生态放大迭代速度:开源让功能迭代效率指数级提升,但也让问题暴露得更快——这是一把双刃剑,而OpenClaw的价值之一,就是让行业提前看到了这把双刃剑的真实形态。

    五、Agent产品的硬仗:从“能执行”到“可治理的执行”

    一旦AI拥有了调用工具、发送消息、执行命令的能力,安全就不再是“附属功能模块”,而是产品的核心逻辑。

    OpenClaw的实践给行业提了醒:提示词从来不是真正的边界;权限、沙箱、审批、白名单与审计机制,才是Agent的安全底线。而技能生态(skills/plugins)既是效率的来源,也是供应链风险的入口。

    这意味着,Agent产品要真正落地,必须同步跑通两条线:

    • 能力线:模型能力、工具链整合、任务编排效率
    • 治理线:权限模型、审计机制、风险隔离体系

    没有治理线的能力线,会在规模化阶段迅速失稳;没有能力线的治理线,又会失去核心用户价值。真正的竞争力,来自两条线的同时跑通。

    六、OpenClaw之后,Agent智体产品的四大确定趋势

    OpenClaw的出现,其实是Agent时代的一个信号弹。接下来的2-3年,Agent产品会呈现四个明确的发展趋势:

    趋势1:从“万能助手”走向“多角色智体”

    未来不会是一个Agent包揽所有任务,而是多个专用智体分工协作:私人助理、团队协作助理、客服助理、运营助理、研发助理……每个智体拥有不同的权限、目标与审计边界,精准匹配不同场景的需求。

    趋势2:从“能做”走向“稳定做”

    产品的核心指标会从DAU(日活跃用户)转向任务成功率、失败可恢复率、错误成本、回滚效率——企业愿意买单的,从来不是惊艳的Demo,而是稳定的交付能力。

    趋势3:从“插件市场”走向“可信能力市场”

    技能生态的核心不再是“数量多”,而是“可信度”:发布者身份认证、权限透明声明、执行环境隔离、风控评级、事故可追溯——只有建立可信的生态,用户才敢放心使用第三方技能。

    趋势4:从个人自动化走向组织级Agent基础设施

    当权限、审计、策略、成本治理体系成熟后,Agent才会大规模进入企业流程。届时,OpenClaw这类产品就不再是“AI应用”,而是新一代的企业软件中间层,成为连接人与系统、系统与系统的核心枢纽。

    七、给AI创业团队的三点建议

    1. 先做“可控放权”,再做“全面自动化”
      用户不会一次性交出全部权限,产品设计要支持“只读→半自动→全自动”的渐进式放权路径,让用户在安全感中逐步建立信任。
    2. 把安全策略产品化,而非只做工程化
      普通用户看不懂技术术语,但能理解“财务助手仅拥有只读权限、客服助手可自动回复、运维助手操作需人工审批”这类具象化的规则——安全必须是可感知、可理解、可配置的产品功能,而非隐藏在后台的技术模块。
    3. 把“失败体验”当作核心体验
      Agent一定会犯错,关键是犯错后能否快速发现、快速回滚、快速止损。谁能把“失败后的补救流程”设计好,谁就更接近真正的生产力工具。

    总结:OpenClaw的真正价值

    如果说过去两年是AI的“会说”时代,那么从OpenClaw开始,我们正式进入了AI的“会做”时代。

    OpenClaw的意义,从来不是某个单一功能的创新,而是它提前把Agent时代的全局命题摆到了行业面前:能力如何持续增长?边界如何清晰界定?生态如何建立信任?商业化如何形成闭环?

    接下来的2-3年,能真正跑出来的Agent产品,未必是最会讲故事的,而是那些能在“真实权限”与“真实风险”的约束下,稳定完成任务的产品——毕竟,用户最终为的,从来不是“AI能做什么”,而是“AI能把我的事做成什么”。

    资料来源:

    • OpenClaw 官方博客:Introducing OpenClaw
    • OpenClaw GitHub:openclaw/openclaw
    • OpenClaw 官方文档:Architecture/Security/Agent Runtime