Author: Stark, Tony

  • 大模型应用实战指南:从认知到落地的全路径解析

    大模型应用实战指南:从认知到落地的全路径解析。

    《大模型通识与应用:从”会聊天”到”会执行”》核心报告显示,当前大模型正从通用对话工具向垂直领域的任务执行专家加速进化,为各行业带来效率重构的新机遇。

    一、大模型能力跃迁的两大核心趋势

    1. 功能进化:从”闲聊助手”到”任务执行者”

    大模型的能力边界正快速突破对话场景,向精准任务执行延伸。以GPT-4为代表的通用大模型,已实现从日常闲聊到代码生成、复杂数据分析的跨越,MIT 2025年的研究数据显示,其任务完成率较前代模型提升62%。 多模态整合则进一步拓展了应用的便捷性:Lobster(龙虾AI)实现了语音指令到设计成果的直接转化,支持语音描述创意后一键生成PPT、海报设计稿,原本需要数小时的设计修改需求,现在响应时间可缩短至3分钟内。

    2. 行业渗透率:垂直场景的效率革命

    大模型的价值正在各行业的具体场景中落地:

    – 制造业:Manus机械臂搭载自然语言编程系统后,东莞某电子工厂仅通过语音指令即可完成产线参数调整,产线切换效率较传统编程方式提升40%;

    – 法律领域:合同审查AI工具可自动识别条款风险、标注合规问题,平均为律师节省87%的文书处理时间,让从业者聚焦更具价值的策略性工作。

    二、三款高实用性大模型工具测评

    工具名称核心功能典型场景用户价值(ROI)
    Lobster语音指令生成设计稿广告创意、营销物料制作美工人力成本降低35%
    ManusXAI驱动机械臂精准控制精密零部件装配装配误差率降低0.02mm
    DocSifter智能标书生成与审核企业招投标标书合规性提升,中标率提高22%

    三、场景落地的可复制方法论

    1. 四步实施框架:从需求到落地的标准化路径

    – 需求拆解:将业务流程拆解为”输入-处理-输出”三要素,比如客服场景可拆解为「用户语音输入→AI情绪与意图分析→标准化话术推荐」,确保AI任务目标清晰;

    – 工具选型:根据任务复杂度匹配工具能力——基础文本处理、文案生成可选择ChatGPT等通用工具,工业控制、精密操作等场景则需选用Manus等具备专用API的垂直工具;

    – 冷启动训练:上传企业专属数据训练垂直模型,建议至少准备500条标注数据,让AI快速适配企业业务逻辑;

    – 人机协同:设置关键节点的人工复核机制,例如在合同审核、产线调整等关键决策场景,保留15%的人工干预权,平衡效率与风险。

    2. 避坑指南:落地前需警惕的核心问题

    – 警惕”全能型AI”陷阱:无需追求能解决所有问题的工具,单一工具对目标任务的解决率超过80%即符合落地标准,过度追求”全能”反而会增加成本与复杂度;

    – 数据安全优先:涉及企业核心数据的场景,优先选择支持本地化部署的方案,如华为盘古大模型企业版,避免核心数据外溢风险。

    结语

    2026年大模型工具已进入”解决真问题”的务实阶段,对于企业而言,无需等待完美的技术方案,建议采用”小场景切入-快速迭代”的策略:从客服、标书制作等单一痛点切入,通过数据反馈持续优化模型,通常6个月内即可看到明显的效率提升与成本节约效果。

  • GPT-5.4×OpenClaw:从模型升级到可落地的智能体生产力

    这不是一篇比拼参数的技术评测,而是聚焦「AI落地实战」的生产力观察。 过去一周,GPT-5.4的相关新闻与测评密集释出,主流媒体和科技评测机构的结论高度一致:它的推理与长任务处理能力显著增强,针对智能体(Agent)的优化方向清晰可见,事实性输出准确率也有明显提升——当然,仍需人工校验确保严谨性。 但如果仅把GPT-5.4当作「更会聊天的AI」,你只挖掘到了它30%的价值。真正的价值分水岭,在于它能否嵌入稳定的业务工作流,持续、可靠地交付可复用结果。而这,正是OpenClaw的核心强项。

    为什么说OpenClaw是GPT-5.4的「生产力放大器」?

    很多企业已经引入了优秀的大模型,但团队生产力并未真正提升,根源往往在于三个「断点」: – 模型在网页端,业务在IM工具里,能力与场景割裂; – 任务流程只存在于员工脑子里,没有固化为标准流程,无法复用; – 多是临时对话式的零散使用,缺乏可持续的运营机制。 OpenClaw的价值,就是把这些断点串联成闭环:

    1. 多渠道统一入口

    无需切换不同平台,在Telegram、Discord、WhatsApp、iMessage等主流即时通讯渠道,都能直接触发同一个智能体的能力,让AI能力与业务场景无缝对接。

    2. 会话与记忆可管理

    告别「每次对话从零开始」的低效模式,通过会话(session)管理、上下文记忆、工具链调用和可追踪状态,让AI能承接有延续性的复杂任务。

    3. 原生自动化能力

    借助定时任务(cron)、心跳监测(heartbeat)、触发钩子(hooks)等机制,把「偶发的人工提问」转化为「自动触发的持续交付」,让AI主动完成工作。

    4. 支持多智能体隔离

    针对销售助理、财务助理、技术助理等不同角色,可设置独立工作区、专属配置和权限体系,让不同智能体各司其职,避免能力冲突。 一句话总结:GPT-5.4让单点AI能力更聪明,OpenClaw则把单点能力整合成了可落地、可复用、可持续的生产力系统。

    可直接复制的落地案例:GPT-5.4+OpenClaw打造内容运营自动化

    我们以微信公众号运营/内容团队的「每周AI行业快评」为例,拆解一套可直接复用的落地流程:

    Step1:自动化采集

    通过OpenClaw的定时任务功能,自动抓取行业重点媒体新闻、权威机构评测、官方技术文档等信息源,同时过滤重复内容与低质量信息,确保素材的精准性。

    Step2:模型智能归纳

    调用GPT-5.4对采集到的素材进行处理,按照「3条核心行业变化+2条行业争议点+1条实操建议」的固定框架,生成面向普通读者的通俗版本,避免技术术语堆砌。

    Step3:人工审稿把关

    对GPT-5.4的输出进行事实核验,调整过于夸张的表述,并加入团队的业务视角与行业判断,确保内容的严谨性和实用性。

    Step4:多渠道智能分发

    基于同一核心内容,OpenClaw自动生成适配不同场景的版本:微信公众号完整正文、社群传播的精简摘要、供团队内部参考的策略版,同步分发到对应渠道。 这套流程的核心,不是「写一篇文章」,而是每周稳定输出高质量内容——把偶发的创意工作,变成可标准化的持续生产力。

    给团队的三个实操建议:避免AI落地「高开低走」

    建议1:先定义「输出格式」,再追求「模型效果」

    如果输出格式不稳定,团队就无法复用AI结果。在测试模型能力前,先统一输出模板,比如固定为「开场结论+三点核心拆解+反方观点+行动建议」的结构,让AI的输出能直接对接业务需求。

    建议2:把「审稿规则」转化为系统规则

    将人工审稿的经验固化为可执行的系统规则:比如涉及数据必须标注来源、所有结论需明确适用边界、预测类内容必须标注「仅为判断,非既定事实」,用规则降低人工校验的成本。

    建议3:用OpenClaw实现「流程资产化」

    不要把AI能力绑定在某个人身上,而是通过OpenClaw沉淀可复用的「流程资产」:包括定时任务配置、标准提示词模板、多渠道触达规则、全流程版本记录,让新人也能快速承接工作,避免人员变动导致的能力断层。

    结语:2026年的竞争,是「AI生产力系统」的竞争

    现在仍有很多人在争论「哪个模型参数更高、能力更强」,但企业真正应该思考的是:你是否已经把模型能力,转化为可持续、可复制、可审计的业务流程? GPT-5.4代表了当前AI能力的「上限」,决定了团队的想象力边界;而OpenClaw代表了AI落地的「下限」,决定了想象力能否转化为实际结果。 如果你已经在使用GPT-5.x系列模型,现在最有价值的下一步,不是继续比拼模型跑分,而是把你的内容、运营、分析、协作流程,接入一个稳定的智能体网关(Agent Gateway)。只有走完这一步,AI才真正从「辅助工具」,变成驱动业务增长的「生产力系统」。

  • OpenClaw 源码架构深度解析

    引言

    OpenClaw(原Clawdbot)作为当前全球最炙手可热的开源AI Agent框架,其GitHub星标数已超越Linux和React,登顶全球榜首。它的爆火绝非偶然——这套架构完美解决了AI Agent落地的“最后一公里”问题,实现了从云端大脑到本地肢体的无缝协同。

    本文将深入OpenClaw源码,从四层架构插件化重构三级记忆系统Gateway-Pi执行链路四个维度,彻底拆解这套系统的设计哲学与实现细节。

    一、整体架构:四层解耦设计

    OpenClaw采用经典的四层解耦架构,从外到内依次是:交互层、网关层、智能体层、执行层。这种分层设计确保了各模块职责清晰、可独立演进。

    ┌─────────────────────────────────────────────────────────────┐
    │                        交互层 (Channels)                      │
    │  ┌──────────┐ ┌──────────┐ ┌──────────┐ ┌──────────┐      │
    │  │ WhatsApp │ │ Telegram │ │  飞书    │ │  iMessage │  ...  │
    │  └──────────┘ └──────────┘ └──────────┘ └──────────┘      │
    └─────────────────────────────────────────────────────────────┘
                                  │
                                  ▼
    ┌─────────────────────────────────────────────────────────────┐
    │                     网关层 (Gateway)                          │
    │             路由 · 排队 · 调度 · 鉴权 · 协议转换                │
    └─────────────────────────────────────────────────────────────┘
                                  │
                                  ▼
    ┌─────────────────────────────────────────────────────────────┐
    │                     智能体层 (Agent)                           │
    │  ┌────────────┐ ┌────────────┐ ┌────────────┐              │
    │  │会话管理器   │ │上下文组装器 │ │ 记忆系统   │              │
    │  └────────────┘ └────────────┘ └────────────┘              │
    │  ┌────────────┐ ┌────────────┐                              │
    │  │执行循环     │ │工具调用     │                              │
    │  └────────────┘ └────────────┘                              │
    └─────────────────────────────────────────────────────────────┘
                                  │
                                  ▼
    ┌─────────────────────────────────────────────────────────────┐
    │                      执行层 (Execution)                       │
    │  ┌──────────┐ ┌──────────┐ ┌──────────┐ ┌──────────┐      │
    │  │ 本地节点  │ │ 远端节点  │ │  技能    │ │  沙箱    │      │
    │  └──────────┘ └──────────┘ └──────────┘ └──────────┘      │
    └─────────────────────────────────────────────────────────────┘

    1.1 交互层:抹平所有IM差异

    交互层的核心职责是协议适配。OpenClaw内置支持8个核心通道(Telegram、WhatsApp、Discord等),并通过插件系统支持超过50个扩展通道。

    源码中,每个通道都是一个独立的插件,必须实现统一的ChannelPlugin接口:

    export type ChannelPlugin = {
      id: ChannelId;              // 通道唯一标识
      meta: ChannelMeta;          // 通道元信息
      capabilities: ChannelCapabilities; // 能力声明
      config: ChannelConfigAdapter;      // 配置管理

    // 可选实现
      outbound?: ChannelOutboundAdapter;  // 发送消息
      pairing?: ChannelPairingAdapter;    // 配对逻辑
      messaging?: ChannelMessagingAdapter; // 消息处理
    // ...
    }

    这种设计的精妙之处在于:核心模块不面向任何具体IM编程,只面向接口编程。无论未来出现什么新的IM工具,只要实现这套接口,就能无缝接入OpenClaw生态。

    1.2 网关层:系统的控制中枢

    Gateway是整个OpenClaw的核心服务,作为一个常驻的Node.js进程,它承担着:

    1. 路由:根据消息来源分配给对应的会话
    2. 排队:实现“车道式队列”(Lane Queue),默认串行、显式并行
    3. 调度:管理定时任务(Heartbeat)
    4. 鉴权:验证请求合法性
    5. 协议转换:将不同通道的消息统一成内部格式

    网关层的核心实现在src/gateway/server.py中,关键代码片段:

    # gateway/dispatcher.py
    def dispatch_task(payload):
        # 提取意图,过滤无用的对话历史
        intent = extractor.analyze(payload.content)
        # 匹配最合适的执行节点
        node_id = registry.get_active_node(payload.affinity)
        return forward_to_node(node_id, intent)

    Gateway还维护着节点的心跳机制(默认使用Redis),如果节点失联,指令会被正确路由到其他可用节点。

    二、插件化重构:从单体到生态

    2026年初,OpenClaw通过PR #661完成了重大插件化重构,这是架构演进的分水岭。

    2.1 单体架构的技术债务

    重构前,添加一个新模型提供商需要修改4个核心文件:

    • 继承BaseProvider抽象类
    • providers/index.ts手动注册
    • model-router.ts添加路由分支
    • 更新配置Schema

    路由文件充斥着大量的else-if分支,代码复杂度随提供商数量线性增长:

    // 重构前的路由逻辑
    exportclass ModelRouter {
    async route(model: string, ...args) {
        if (model.startsWith('anthropic/')) {
          returnthis.anthropicProvider.call(...args);
        } elseif (model.startsWith('openai/')) {
          returnthis.openaiProvider.call(...args);
        } elseif (model.startsWith('gemini/')) {
          returnthis.geminiProvider.call(...args);
        }
        // ... 还有15+个else-if
      }
    }

    2.2 插件化架构设计

    重构后的架构核心是接口标准化+动态加载

    // packages/core/src/provider-interface.ts
    export interface Provider {
      readonly name: string;
      readonly version: string;
      
      chat(messages: Message[], options: ChatOptions): AsyncIteratorstring>;
      estimateTokens(text: string): number;
      getSupportedFeatures(): ProviderFeatures;
    }

    动态加载机制通过ProviderLoader实现:

    export class ProviderLoader {
    private providers = new Mapstring, Provider>();

    async loadFromPackage(packageName: string): Promisevoid> {
        constmodule = await import(packageName);  // 动态导入
        if (!this.validateProvider(module.default)) {
          thrownewError(`Invalid provider: ${packageName}`);
        }
        const provider = newmodule.default();
        this.providers.set(provider.name, provider);
      }
    }

    重构后的路由逻辑从O(n)降为O(1):

    export class ModelRouter {
      async route(model: string, ...args) {
        const [providerName] = model.split('/');
        const provider = this.loader.getProvider(providerName);
        if (!provider) throw new Error(`Provider not found: ${providerName}`);
        return provider.chat(...args);
      }
    }

    2.3 插件化的四大优势

    1. 依赖隔离:核心框架从45MB降至8MB
    2. 并行开发:社区可独立开发插件,无需等待核心迭代
    3. 版本自治:各插件独立版本,可单独更新
    4. 安全增强:沙箱机制+权限声明,风险可控

    三、记忆系统:三级存储架构

    OpenClaw的记忆系统是其最惊艳的设计之一。它采用三级记忆架构,模拟人类记忆的分层特性。

    3.1 工作区结构

    每个Agent对应一个独立的工作区:

    ~/.openclaw/workspace/
    ├── MEMORY.md                # 长期记忆
    ├── memory/
    │   ├── 2026-03-10.md        # 今日日志(短期)
    │   └── 2026-03-09.md        # 昨日日志
    ├── sessions/                 # 会话存档(近端)
    ├── USER.md                   # 用户身份
    └── SOUL.md                   # Agent人格设定

    3.2 存储层:SQLite + 向量

    每个Agent对应一个独立的SQLite数据库,表结构设计精巧:

    -- 文件元数据
    CREATETABLE files (
    idINTEGER PRIMARY KEY,
    pathTEXTUNIQUE,
      mtime INTEGER,    -- 修改时间,用于增量索引
    hashTEXT         -- 内容哈希,去重
    );

    -- 文本块存储
    CREATETABLE chunks (
    idINTEGER PRIMARY KEY,
      file_id INTEGER,
    textTEXT,
    hashTEXTUNIQUE-- 文本哈希,跨文件去重
      embedding TEXT    -- JSON序列化的向量
    );

    -- 全文搜索(FTS5)
    CREATEVIRTUALTABLE chunks_fts USING fts5(textcontent=chunks);

    -- 向量搜索(sqlite-vec)
    CREATEVIRTUALTABLE chunks_vec USING vec0(embedding float[1536]);

    3.3 混合检索策略

    OpenClaw的核心检索工具memory_search实现了BM25 + 向量的混合检索:

    async function hybridSearch(query, options = {}{
    const vecWeight = 0.7;   // 向量权重
    const bm25Weight = 0.3;  // BM25权重

    // 分别检索(取并集)
    const vectorResults = await vectorSearch(query);
    const bm25Results = await bm25Search(query);

    // 合并并计算综合得分
    const allChunkIds = new Set([
        ...vectorResults.map(r => r.id),
        ...bm25Results.map(r => r.id)
      ]);

    // 加权平均后排序返回
    }

    这套算法的关键在于并集而非交集——只要任一方法认为相关,就有机会进入候选池。

    3.4 优雅降级

    如果sqlite-vec扩展未安装,系统会自动回退到JS暴力计算:

    try {
    // 快速路径:数据库内计算余弦距离
    returnawait db.all(`SELECT ... vec_distance_cosine(...)`);
    catch (err) {
    // 回退路径:全量加载到内存暴力计算
    const allChunks = await db.all("SELECT * FROM chunks");
    return allChunks.map(chunk => ({
        ...chunk,
        dist: cosineSimilarity(queryVector, JSON.parse(chunk.embedding))
      })).sort((a, b) => a.dist - b.dist).slice(0, limit);
    }

    四、执行层:Gateway-Pi 架构

    OpenClaw最硬核的部分是其云端大脑+本地肢体的设计。

    4.1 三层执行链路

    1. Orchestrator(大脑):云端部署,负责LLM推理和任务拆解
    2. Gateway(协议桥):鉴权、流量整形、指令翻译
    3. Pi-embedded(执行端):运行在本地设备,真正执行脚本

    4.2 沙箱隔离机制

    Pi-embedded实现了一套名为 “Cell Isolation” 的沙箱机制:

    # packages/pi-embedded/runtime/executor.py
    class ExecutionEngine:
        def execute(self, skill_code):
            # 环境快照
            snapshot = self.take_snapshot()
            
            # 在独立venv中运行
            with self.isolated_venv() as venv:
                # 动态安装依赖
                self.install_dependencies(skill_code.dependencies)
                # 执行技能
                result = venv.run(skill_code)
            
            # 恢复环境
            self.restore_snapshot(snapshot)
            return result

    4.3 完整调用链追踪

    以“查CPU温度并生成图表”为例,完整调用链如下:

    1. Orchestrator → 识别技能需求 → 生成JSON指令
    2. Gateway → 验证签名 → 查找在线Pi节点 → Protobuf封装 → WebSocket发送
    3. Pi-embedded → 接收消息 → 解包
    4. Sandbox → 启动临时Python进程 → 挂载传感器权限
    5. Skill Execution → 执行get_temp.py
    6. Callback → 结果(图片二进制)原路返回

    五、Agent核心配置

    每个Agent的workspace中包含多个核心配置文件:

    文件
    作用
    AGENTS.md
    Agent职责声明,决定工具权限
    SOUL.md
    个性化提示词,注入system prompt
    TOOLS.md
    工具白名单/黑名单,安全边界
    IDENTITY.md
    身份标识(name/avatar),通道展示
    USER.md
    用户偏好,上下文先验
    HEARTBEAT.md
    定时任务配置
    MEMORY.md
    长期记忆文档(RAG源)

    源码中通过loadWorkspaceBootstrapFiles方法加载这些文件:

    // src/agents/workspace.ts:498-555
    export async function loadWorkspaceBootstrapFiles(dir: string{
      const entries = [
        { name: "AGENTS.md", filePath: path.join(resolvedDir, "AGENTS.md") },
        { name: "SOUL.md", ... },
        { name: "TOOLS.md", ... },
        // ...
      ];
      // 动态检测MEMORY.md
    }

    六、架构设计的优缺点

    6.1 核心优势

    • 零运维:SQLite单文件,无需复杂数据库
    • 数据私有:全本地存储,不上云
    • 可审计:记忆透明,Markdown文件可读
    • 增量索引:只处理变更文件,效率高
    • 优雅降级:从向量→BM25→纯文本,逐级回退
    • 插件生态:60+官方技能,社区持续贡献

    6.2 现存挑战

    • Token消耗偏高:记忆系统是主要原因
    • 向量检索不懂关系:能找到个体但推不出关系
    • 维护成本线性增长:文件越多,索引维护越复杂
    • 长连接抖动:WebSocket 1006错误常见
    • 小白门槛:虽零运维,但需懂文件结构

    七、实战建议

    7.1 定期记忆体检

    长期记忆文件会随时间膨胀,建议每月手动过一遍MEMORY.md,删过时、并重复。

    7.2 教会Agent分类

    在系统提示词中引导分类:

    • “我喜欢/习惯” → preferences.md
    • “我要做一个” → projects.md
    • “解决了” → learnings.md

    7.3 善用Heartbeat

    openclaw cron add --name "记忆维护" 
      --cron "0 3 *" 
      --system-event "运行记忆整理:合并相似项,删除低价值项,生成摘要"

    7.4 显式限定搜索范围

    memory_search({ query: "...", scope: ["learnings.md"] })

    结语

    OpenClaw的架构设计给我最大的启发是:AI的记忆和执行不应该是黑盒。用Markdown存真相,用SQLite建索引,用BM25+向量做检索,用Gateway-Pi做执行——这套组合拳既保证了功能强大,又让一切透明可控。

    在这个所有AI都想“记住你”的时代,OpenClaw让你能随时打开文件、看清它记住了什么、知道它在哪执行、怎么执行。这种清醒的设计哲学,或许正是它能够超越Linux和React,登顶全球的原因。


    参考资料

    1. OpenClaw三级记忆系统实现揭秘
    2. 2026年OpenClaw插件化重构技术解析
    3. OpenClaw核心源码解读:从Gateway到Pi-embedded
    4. 不会写代码也能懂:OpenClaw四层架构图解
    5. 吃龙虾咯!万字拆解OpenClaw的架构与设计
    6. 关于OpenClaw,你需要了解的:核心架构、运作原理
    7. OpenClaw Architecture Deep Dive 2025



  • 一只金融龙虾!AlphaClaw来了

    谁能想到,OpenClaw 火到了今天,甚至出现了排队等待安装的盛况。一些大厂也开始入局,选择接入 OpenClaw。龙虾热已经发展为现象级,但问题是:究竟有多少行业能够真正将其投入使用呢?

    以金融圈为例,真正用起来的人屈指可数。原因很简单:部署繁琐、缺乏金融数据、不懂投研逻辑。

    对于每天和研报、财报、会议纪要打交道的分析师来说,通用 AI 工具就像一把没有刀刃的刀 —— 看着炫酷,实则切不动肉。

    现在,一款专为金融人打造的 AI 工具来了,它就是 AlphaClawThe


    在拿到 AlphaClaw 内测资格之后,我们花了一周时间深度体验。结论是:这可能是目前最接近「AI 分析师」的产品。

    AlphaClaw 是什么?

    AlphaClaw 是熵简科技推出的金融投研 AI 工具,搭载于 AlphaEngine 平台。


    如果说上一代 AI 投研工具是有问必答的 AI 助手,那么 AlphaClaw 则完成了向「自主执行」的进化 —— 它是一位能够独立跑通复杂投研工作流的 AI 分析师。

    它不只是回答问题,而是直接交付结果:Excel 表格、回测报告、研报点评,一条龙搞定。


    一手实测:三个硬核投研场景

    场景一:让巴菲特帮你选股

    这是最让我惊艳的功能。


    我把珍藏多年的伯克希尔股东大会纪要(3200 多页)喂给 AlphaClaw,让它提炼巴菲特的投资逻辑。

    提示词:这是伯克希尔过去 10 年股东大会的文字实录,仔细阅读全文,总结出巴菲特的投资逻辑,整理成 Skill 给我。


    几分钟后,AlphaClaw 生成了一个名为「Buffett Investment Philosophy」的 Skill,涵盖能力圈原则、护城河评估标准、财务舞弊识别等核心要点。


    更绝的是,你可以直接用这个 Skill 来分析当前市场。

    提示词:使用这个 Skill,站在巴菲特角度分析霍尔木兹海峡禁运对全球能源体系的冲击,提出资产配置建议,生成自选股清单并保存为 Excel。


    AlphaClaw 会调用刚创建的 Skill 作为分析框架,结合 AlphaEngine 平台内置的研报数据,输出一份完整的投资建议 —— 不是空泛的「建议关注能源板块」,而是具体到标的、逻辑、风险点。

    我甚至让它读完《金融炼金术》、《投资最重要的事》,分别生成了索罗斯、霍华德・马克斯的投资逻辑 Skill。以后遇到任何市场事件,可以召集这些「投资大师」 开个专家会审。


    场景二:给基本面投资者插上量化的翅膀

    这是为「有想法但不会写代码」的投资者准备的。


    很多基本面投资者有独特的选股逻辑,但因为不懂 Python、不会回测框架,只能让这些灵感停留在脑海中。

    AlphaClaw 可以弥合这个鸿沟。

    提示词:帮我梳理最新 1 个月有价值的金工量化报告,筛选出 3 个最有价值的量价因子。


    它会自动检索平台内的金工研报,帮你筛选出凸显性因子、行业拥挤度因子等。



    提示词:帮我实现成代码,应用于我的自选股票池,保存成 Excel。

    一段文字,AlphaClaw 就能输出完整的 Python 代码,把投资灵感变成可回测的量化策略。

    这意味着什么?巴菲特帮你选股,量化因子帮你择时,主观和量化的结合,从未如此简单。


    场景三:年报季的救星

    年报季是分析师的噩梦:上市公司扎堆发财报,听完会议还得熬夜写点评。

    AlphaClaw 可以成为你的「投研分身」。

    提示词:这是我之前写的几篇业绩点评,把我的写作风格总结成 Skill。

    喂几篇你写过的点评,它就能学会你的遣词造句、段落结构、分析框架。

    提示词:模仿我的风格,帮我批量生成所有自选股的业绩点评。

    输出的点评 100% 按你的风格生成,数据来源于平台内置的研报和公告,你只需要做最后的审核和调整。

    年报季的苦,让 AI 帮你吃。你可以把节省的时间,投入到更有价值的深度思考中。


    为什么是 AlphaClaw?


    市面上 AI 工具那么多,金融人为什么选择 AlphaClaw 呢?

    两个字:数据The


    投研的本质是「数据 + 逻辑」。没有数据,再强的 AI 也只能输出「正确的废话」。

    AlphaClaw 内置了 AlphaEngine 平台的投研数据库,日更资料近万篇,包括但不限于:

    全量内外资券商研报库

    • A 股、港股、美股上市公司会议纪要库

    • 行业点评资讯库

    • 专家访谈纪要库等等


    这是它和 OpenClaw 最大的区别和优势 —— 不是在通用知识上回答问题,而是基于专业金融数据做分析The


    数据安全:本地优先

    金融行业,数据即资产。很多机构不敢用 AI,就是担心数据泄露。


    AlphaClaw 采用「Local-First」架构:


    • 个人知识库(私有笔记、内部纪要)在本地完成向量化处理

    • 你沉淀的投资逻辑 Skill 仅在本地运行

    • 物理隔绝云端,杜绝数据泄露风险

    你的投资策略不会成为大模型的「训练语料」,AlphaClaw 是一款真正可以在本地环境下放心使用的专属私密参谋。


    展望未来金融人和 AI 的共生关系


    体验一周下来,AlphaClaw 给我最大的感受是:


    它不是在「帮你查资料」,而是在「帮你干活」The


    查资料是 ChatGPT 就能做的事。但把资料变成 Excel、变成代码、变成可执行的策略,这才是金融从业者真正需要的。


    当然,它也不是万能的。复杂的估值模型、需要大量行业 know-how 的判断,AI 还替代不了人。但它确实可以把分析师从繁琐的案头工作中解放出来,让人去做更有价值的事。


    正如熵简科技 CEO 费斌杰所说:「让研究回归思考」。AlphaClaw 的定位是赋能专业投资者成为「一人投研团队」。



    如何体验 AlphaClaw?


    正如上文所说,AlphaClaw 搭载于 AlphaEngine 平台。因此,如果你是 AlphaEngine 现有用户,登录官网下载桌面端即可使用。


    如果你还不是用户,目前官方开放了首批 1000 个体验名额,先到先得,仅限机构投资者,个人投资者暂无法使用The


    下载地址:www.alphaengine.top


    AI 投研时代已经到来。问题不是「要不要用」,而是「谁先用起来」。


    在信息平权的 AI 时代,如何构建专属于你的个人投研壁垒?


    如何应用 Skill,让你的投研数字分身帮你 24 小时打工?


    熵简科技 CEO、AlphaEngine 主理人费斌杰讲在本周四晚 19:30,进行主题分享,欢迎感兴趣的投研专业人士参加The


  • OpenClaw 使用 DeepSeek 官方 API_KEY 配置教程

    前言

    找遍全网也没找到如何在openclaw配置deepseek官方apikey,那我自己整一个,以下内容为Claude Code根据我的聊天记录总结生成,希望对想在openclaw使用deepseek官方apikey的人提供帮助。

    系统要求

    • 操作系统: macOS / Linux / Windows (WSL)
    • Node.js: 版本 22+ (推荐使用 nvm 管理)
    • 网络: 需要访问 DeepSeek API (http://api.deepseek.com)

    安装 OpenClaw

    1. 全局安装 OpenClaw

    npm install -g openclaw@latest

    安装过程可能需要 3-5 分钟,会下载约 674 个依赖包。

    2. 验证安装

    openclaw --version

    应该显示类似:🦞 OpenClaw 2026.3.8

    初始化配置

    1. 运行配置向导

    openclaw onboard --install-daemon --non-interactive --accept-risk

    说明:

    • --install-daemon: 安装后台服务
    • --non-interactive: 非交互模式
    • --accept-risk: 接受安全风险声明

    2. 检查服务状态

    openclaw status

    确认 Gateway 服务正在运行。


    配置 DeepSeek 官方 API

    1. 获取 DeepSeek API Key

    访问 DeepSeek 官网 注册并获取 API Key。

    API Key 格式类似:sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

    2. 配置 DeepSeek 提供商

    执行以下命令(将 你的API_KEY 替换为实际的 API Key):

    openclaw config set models.providers.deepseek '{
      "baseUrl": "https://api.deepseek.com/v1",
      "apiKey": "你的API_KEY",
      "api": "openai-completions",
      "models": [
        {
          "id": "deepseek-chat",
          "name": "DeepSeek Chat (V3)"
        },
        {
          "id": "deepseek-reasoner",
          "name": "DeepSeek Reasoner (R1)"
        }
      ]
    }'

    3. 设置默认模型

    openclaw config set agents.defaults.model.primary "deepseek/deepseek-chat"

    4. 创建模型别名(可选)

    openclaw models aliases add deepseek-v3 "deepseek/deepseek-chat"
    openclaw models aliases add deepseek-r1 "deepseek/deepseek-reasoner"

    5. 重启 Gateway 服务

    openclaw gateway restart

    等待 3-5 秒让服务完全启动。

    测试与使用

    1. 命令行测试

    openclaw agent --session-id test --message "你好,请介绍一下你自己"

    如果配置成功,DeepSeek 会用中文回复。

    2. 打开 Web 控制面板

    openclaw dashboard

    浏览器会自动打开控制面板,URL 格式:

    http://127.0.0.1:18789/#token=你的gateway_token

    3. 查看配置状态

    openclaw models status

    应该显示:

    • Default: deepseek/deepseek-chat
    • Configured models: 包含 deepseek 模型

    常用命令

    服务管理

    # 启动 Gateway
    openclaw gateway
    
    # 重启 Gateway
    openclaw gateway restart
    
    # 停止 Gateway
    openclaw gateway stop
    
    # 查看服务状态
    openclaw status
    
    # 查看详细状态
    openclaw status --all
    
    # 查看实时日志
    openclaw logs --follow

    模型管理

    # 列出所有可用模型
    openclaw models list --all
    
    # 查看当前模型配置
    openclaw models status
    
    # 切换模型(在聊天中使用)
    /model deepseek-v3
    
    # 设置默认模型
    openclaw config set agents.defaults.model.primary "模型ID"
    
    # 添加模型别名
    openclaw models aliases add 别名 "模型ID"
    
    # 查看所有别名
    openclaw models aliases list

    对话交互

    # 发送单条消息
    openclaw agent --session-id 会话ID --message "你的问题"
    
    # 指定超时时间(秒)
    openclaw agent --session-id test --message "问题" --timeout 60
    
    # 使用本地模式(不通过 Gateway)
    openclaw agent --local --session-id test --message "问题"

    配置管理

    # 查看配置
    openclaw config get 配置路径
    
    # 设置配置
    openclaw config set 配置路径 "值"
    
    # 删除配置
    openclaw config unset 配置路径
    
    # 运行配置向导
    openclaw configure

    故障排除

    问题 1: Gateway Token 错误

    错误信息disconnected (1008): unauthorized: gateway token missing

    解决方法:

    # 打开带 token 的控制面板
    openclaw dashboard

    或手动获取 token:

    openclaw config get gateway.auth.token

    问题 2: 模型不可用

    错误信息Unknown model: xxx

    解决方法:

    1. 检查模型配置:
      openclaw models status
    2. 确认模型 ID 正确:
      openclaw models list –all | grep deepseek
    3. 重启 Gateway:
      openclaw gateway restart

    问题 3: API Key 无效

    错误信息HTTP 401 或 Unauthorized

    解决方法:

    1. 验证 API Key 是否正确
    2. 检查 API Key 是否过期
    3. 重新配置提供商:
      openclaw config set models.providers.deepseek.apiKey “新的API_KEY” openclaw gateway restart

    问题 4: 连接超时

    错误信息Request timed out 或 No reply from agent

    解决方法:

    1. 检查网络连接
    2. 测试 DeepSeek API 可达性:
      curl -I https://api.deepseek.com/v1/models
    3. 增加超时时间:
      openclaw agent –session-id test –message “测试” –timeout 120

    问题 5: Gateway 无法启动

    解决方法:

    1. 检查端口占用:
      lsof -i :18789
    2. 强制重启:
      openclaw gateway –force
    3. 查看日志:
      openclaw logs
    4. 运行诊断:
      openclaw doctor openclaw doctor –fix

    高级配置

    配置备用模型

    当主模型不可用时,自动切换到备用模型:

    openclaw config set agents.defaults.model.fallbacks '["deepseek/deepseek-reasoner"]'

    配置环境变量

    将以下内容添加到 ~/.zshrc 或 ~/.bashrc

    # DeepSeek API Key (可选,如果已在配置文件中设置)
    export DEEPSEEK_API_KEY="你的API_KEY"
    
    # OpenClaw Gateway Token (可选)
    export OPENCLAW_TOKEN="你的gateway_token"

    然后重新加载配置:

    source ~/.zshrc  # 或 source ~/.bashrc

    配置工作空间

    openclaw config set agents.defaults.workspace "/自定义/工作空间/路径"

    相关资源

    提示: 如果遇到其他问题,可以运行 openclaw doctor --deep 进行深度诊断,或访问官方文档获取更多帮助。

  • OpenClaw最佳工具榜来了,这6款龙虾最受欢迎

    龙虾火出圈后,各类生态工具如雨后春笋般冒头,部署、插件、托管工具五花八门,挑得人眼花缭乱。

    早前ChatGPT GPT Store有趋势榜等各大榜单,现在OpenClaw也有专属的最佳工具榜了。

    最近,一个由第三方搭建的OpenClaw生态工具目录网站——OpenClaw Directory,在多个专业开发者/工具社区获得了曝光和认可。

    目前该网站共收录了39个OpenClaw相关工具,按照功能做了精细化的分类梳理,包括:

    AI Agent Teams(Agent团队协同工作方案)AI Agent Trigger(触发Agent执行任务的机制/工具)Boilerplate(代码模板)Command Centre(控制板)Deployer(部署工具)Hosting(托管服务)Token Optimizer(Token优化工具)Skills(扩展特定功能的技能模块)Plugins(增强OpenClaw能力的插件)The

    支持按“必备”、“可定制”、“开源”等标签筛选,也可按“流行”、“最新”、“评分最高”、“A-Z字母序”等方式排序。

    每个工具还清晰标注了工具简介、核心功能、用户评分等关键信息,可以帮助大伙儿快速判断是否适配自己的使用场景。

    OpenClaw最佳工具榜

    话不多说,一起来看这个目录里列举的最受欢迎的OpenClaw工具都有哪些。

    以下是不区分功能类别的综合总榜中,排名前六的精选工具:

    排在第一位的是Claw for AllThe

    简介介绍,Claw for All是一款面向开发者以及普通用户的主打简化OpenClaw部署与管理流程的工具平台,支持在线端和移动应用双端访问。

    核心功能包括:

    • 部署轻松便捷:只需几步点击,即可一键启动你的OpenClaw实例
    • 移动随心管理:专属移动应用,让你随时随地管理账户与实例
    • 界面简洁友好:清爽直观的操作界面,零基础也能轻松上手
    • 支持全面完善:丰富的配套支持资源,助你排查问题、优化OpenClaw使用体验

    工具介绍末尾还列举了与其相似的其它工具。

    排在第二位的是OpenClaw LaunchThe

    OpenClaw Launch同样是一款部署类工具,主打极速、30秒内完成OpenClaw应用的一键部署

    • 一键部署:告别复杂配置,点击即可启动
    • 极速执行:30秒内完成应用部署,效率拉满
    • 友好界面:无论技术水平如何,都能轻松操作
    • 稳定性能:架构可靠,保障项目平稳运行
    • 全面支持:随时获取实用资源与专属协助

    接下来,排在第三位的是一款AI Agent Teams类工具——ClawTeamThe

    ClawTeam提供专为OpenClaw打造的预制智能体配置方案,核心功能有:

    • 预制配置方案:采用专家级定制的AI智能体配置,开箱即用,大幅节省部署时间
    • 深度适配OpenClaw:基于OpenClaw平台量身打造配置,助力应用程序性能优化
    • 操作简单友好:即便你并非技术专家,也能快速上手,全程无繁琐操作,效率拉满
    • 应用场景丰富:适用于企业、开发者与科研人员,可满足多领域的AI能力落地需求

    排在第四位的vibeclaw就更极限了,号称可以1秒内在浏览器沙箱中本地运行OpenClawThe

    据介绍,Vibeclaw专为需要快速、可靠调用OpenClaw的开发者打造,核心优势如下:

    • 瞬时启动:1秒内即可完成部署,彻底告别漫长的安装流程
    • 本地运行:支持OpenClaw本地执行,大幅提升运行速度与性能表现
    • 浏览器沙箱:提供安全隔离环境,有效规避潜在威胁,保障工作安全
    • 界面友好易用:简洁直观的设计适配各技术水平用户,操作毫无门槛

    第五位Tinkerclaw,被分类到了Boilerplate、Deployer一栏。

    关于Tinkerclaw的介绍比较详细。据称,这是一款一站式服务平台,旨在帮助创业者与团队零技术门槛地部署、管理并扩展其OpenClaw AI助手。

    该平台将代配置部署、工作流定制、工具支持、社区权限与持续学习资源整合为一套完整的生态系统。

    官方列举的核心优势包括:

    • 专属定制化OpenClaw部署服务:60-90分钟内完成实时部署;企业级安全加固防护;量身定制契合业务需求的工作流;支持电子邮件、日历、Slack及Composio集成;14天专属跟进支持,提供手把手指导服务;部署失败全额退款保障。
    • 代配置部署对比自主部署核心优势:节省12-20小时以上的手动配置时间;规避Docker配置、安全防护与系统参数设置等常见问题;大幅降低创业者的机会成本;配套提供持续技术支持与详尽文档。
    • OpenClaw管理器:原生桌面端聊天交互界面;可视化文件管理器,支持SOUL.md与HEARTBEAT.md文件管理;技能插件一键安装;基于自然语言的智能定时任务调度;实时会话日志与性能监控追踪。
    • 定制工作流与自动化支持:每次部署可配置最多3套个性化工作流;实现邮件处理、报告生成、站会管理与收件箱运维的自动化;基于业务场景优化的配置方案,提升生产力与运营效率;安全访问权限管控与数据加密存储。
    • 预置模板库:开箱即用的OpenClaw模板;预制智能体角色与自动化流程;覆盖从入门到高阶的全层级配置方案;支持复制模板快速部署工作流。
    • ClawKraft专业社区:面向高阶用户的付费社区;定期举办实时项目搭建专场与专题研讨会;支持同行反馈交流与工作流分享;聚焦实操教学与真实业务场景落地。
    • 行业通讯与生态动态更新:每日OpenClaw前沿资讯速递;每周更新工作流模板方案;系统优化实用技巧分享;产品迭代与社区活动播报。
    • 限量席位专属入驻服务:每月开放限量部署服务名额;提供一对一个性化入驻指导;重质轻量,专注保障服务质量与系统稳定性。

    最后来看排在第六位的ClawWrapperThe

    ClawWrapper旨在简化OpenClaw工具的封装与上线流程,具体有以下特点:

    • 极速封装上线:大幅缩短工具打包、发布的流程,让你的OpenClaw工具快速落地使用
    • 高质量封装模板:以优质框架为基础,保障封装后的工具稳定、安全,避免运行故障
    • 操作流程友好:通过简洁直观的网站界面,轻松完成工具封装与进度追踪
    • 专属客户支持:专业团队随时响应,解决封装过程中的各类疑问与问题

    以上便是平台精选的多款高评分核心工具。另外,开发者还可以在网站提交自己的OpenClaw工具。

    还有保姆级教程库

    值得一提的是,这个网站不仅是一个工具目录,还打造了专属的Blog板块,系统性覆盖了从入门科普到进阶优化的各种指南、教程。

    有部署选型指南,也有针对常见故障推出的修复方案,还有Token用量优化、AI API性价比选型等进阶内容。

    甚至还有最最基础的那种:

    什么是OpenClaw、它是如何运作的以及为什么重要?

    教程还是很有必要的,毕竟现在连上门驯服龙虾的服务都横空出世了(doge)The

    目录里的工具,大伙儿有用过的吗?欢迎评论区交流讨论~

  • GPT-5.4 全整理:非常好用,非常贵

     

    这次同步发布两个版本:5.4 和 5.4 Pro

    GPT-5.4 是主力版本,在 ChatGPT 里以「GPT-5.4 Thinking」的名字出现,面向 Plus、Team、Pro 用户,同步上线 API 和 Codex,标准 API 定价 $2.50/M 输入,$15/M 输出

    在 ChatGPT 里,这俩模型是这样的

    GPT-5.4 Pro 针对最复杂的任务场景,仅限 ChatGPT Pro 和 Enterprise 用户,API 定价 $30/M 输入,$180/M 输出,是标准版的 12 倍,贵的理由后面细讲,先说模型本身

    GPT-5.4 把三件事合并进了同一个模型:代码能力通用推理原生 Computer Use 能力

    这是 OpenAI 第一次在通用模型里内置 Computer Use,之前这个能力只在专门版本里有

    模型上下文窗口 1M tokens,最大输出 128K tokens,知识截止日 2025 年 8 月 31 日

    对此,我给做了个图

    GPT-5.4 对比

    专业工作能力

    OpenAI 有一个叫 GDPval 的内部评测,设计逻辑是:让模型做美国 GDP 前 9 大行业里实际存在的工作任务,覆盖 44 种职业,任务包括销售演示文稿、会计电子表格、急诊排班表、制造业图表、短视频等等,然后由人工评估者判断模型输出是否能和行业从业者持平或更好

    GPT-5.4 在这个评测上得了 83.0%,GPT-5.2 是 70.9%,GPT-5.4 Pro 是 82.0%

    在电子表格方向,OpenAI 用了一组模拟投行初级分析师日常建模任务的内部测试,GPT-5.4 得分 87.3%,GPT-5.2 是 68.4%,提升了 19 个百分点

    演示文稿方向,拿 GPT-5.4 和 GPT-5.2 的输出做盲测,人工评审在 68% 的对比里更偏好 GPT-5.4 的结果,主要原因是视觉更多样,图片生成用得更到位

    这次随模型同步发布了 ChatGPT for Excel 插件,Codex 和 API 也更新了电子表格和演示文稿的技能包(Skill)

    https://openai.com/index/chatgpt-for-excel/

    下面三张图是 GPT-5.2 和 GPT-5.4 在电子表格、文档、演示文稿三个场景的输出对比:

    电子表格输出对比:GPT-5.2 vs GPT-5.4

    文档输出对比:GPT-5.2 vs GPT-5.4

    演示文稿输出对比:GPT-5.2 vs GPT-5.4

    幻觉控制方面,GPT-5.4 是目前 OpenAI 旗下事实准确性最高的模型

    测试方法是拿一批用户真实举报过事实错误的 prompt,对比两个模型的输出:单条声明出错概率比 GPT-5.2 低 33%,完整回复包含错误的概率低 18%


    Computer Use 和视觉感知

    OSWorld-Verified 75.0%,人类基准 72.4%

    OSWorld 是一个桌面操作评测,测的是模型能不能通过截图来控制真实的桌面环境,包括鼠标点击、键盘输入、跨应用操作等等。GPT-5.4 得了 75.0%,GPT-5.2 是 47.3%,人类测试者的基准是 72.4%。GPT-5.4 已经超过了人类水平

    这个能力现在通过标准 API 的 computer 工具直接提供,开发者不需要再路由到独立模型

    模型支持两种操控方式:用 Playwright 这类库写代码来操作浏览器,或者直接接收截图然后发出鼠标键盘指令。开发者可以通过 developer message 调整模型行为,也可以配置自定义的确认策略来控制高风险操作的审批门槛

    这个方向和 OpenClaw(一个已经能稳定操控电脑、执行复杂任务的 Agent 框架)在路线上是收拢的。GPT-5.4 把同等量级的 Computer Use 能力做进了通用 API,降低了集成门槛

    下面两个视频是 GPT-5.4 做 Computer Use 任务的演示,视频没有加速:

    现实这个,AI 通过通过坐标点击来发邮件、排日历,全程截图驱动

    GPT-5.4 操控浏览器界面处理邮件和日历

    然后是这个:用 Playwright 自动化,把一批记录依次提交到十个表单里

    GPT-5.4 批量填写十个 web 表单

    浏览器操作方向,WebArena-Verified 是一个专门测浏览器控制能力的评测,同时支持 DOM 分析和截图两种交互方式,GPT-5.4 得了 67.3%,GPT-5.2 是 65.4%

    视觉理解方面,MMMU-Pro 是一个测多模态理解和推理的综合评测,GPT-5.4 在不使用外部工具的情况下得了 81.2%,GPT-5.2 是 79.5%

    文档解析方面,OmniDocBench 测的是模型从图片或扫描件里还原文本的准确度,用归一化编辑距离衡量误差,数字越小越好。GPT-5.4 是 0.109,GPT-5.2 是 0.140

    图像输入这次新增了 original 精度级别,支持最高 10.24M 像素或 6000 像素边长的全分辨率输入。high 级别也从原来的上限提升到 2.56M 像素。OpenAI 内测发现这对定位准确率和点击精度有明显改善,对需要处理高分辨率截图的 Computer Use 场景帮助最大


    代码能力

    GPT-5.4 在代码上的做法是把 GPT-5.3-Codex 的编程能力继承进来,同时让它在更长周期的任务里跑得更稳

    SWE-Bench Pro 是目前代码能力最主流的评测之一,测的是模型处理真实 GitHub 问题的能力,GPT-5.4 得了 57.7%,GPT-5.3-Codex 是 56.8%,GPT-5.2 是 55.6%

    Terminal-Bench 2.0 测的是终端操作能力,GPT-5.4 是 75.1%,这里有一个需要说的点:GPT-5.3-Codex 是 77.3%,GPT-5.4 在这个子项上小幅回退了

    Codex 里新增了 /fast 模式,token 生成速度最多提升 1.5 倍,模型本身不变。开发者通过 API 用 Priority Processing 可以达到同等速度

    还有一个实验性的新技能叫 Playwright Interactive,允许 Codex 在写 web 应用或 Electron 应用的时候,边写边启动浏览器做视觉调试,可以在构建过程中直接拿正在开发的应用跑测试、验证交互

    下面几个视频是用 Playwright Interactive 配合 GPT-5.4 从单条 prompt 出发跑出来的 Demo:

    主题公园模拟游戏,从一条 prompt 生成,Playwright 用于浏览器游玩测试

    含路径、景点建造、游客 AI、队列、骑乘状态,Playwright 用于多轮次游玩验证

    战棋 RPG,多轮对话迭代生成,配合 Playwright 调试界面和着色器

    回合制战斗、格子地图、移动和动作系统,人物图片用 imagegen 生成

    金门大桥三维飞越体验,Playwright 用于验证飞行控制和视角控制

    下面的视频,也讲了下 GPT-5.4 Thinking 做 Computer Use 和前端开发的综合演示

    问就是一把梭

    Tool Search 与 Agent 工具链

    Tool Search 让 token 消耗减少了 47%

    之前 API 里如果系统挂了很多工具,每次请求都要把所有工具的定义完整塞进 prompt,工具一多这个开销就很大。GPT-5.4 改成了按需检索:模型收到一个轻量的工具列表,需要用某个工具时再主动查询它的完整定义,临时追加进对话

    MCP Atlas 是一个测模型使用 MCP(Model Context Protocol)服务器能力的评测,测的是模型在大量工具生态下的任务完成率。在这个测试的 250 个任务里,Tool Search 让 token 用量减少 47%,准确率没有下降,GPT-5.4 整体得分 67.2%,GPT-5.2 是 60.6%

    MCP Atlas benchmark 结果

    Toolathlon 是一个覆盖多种工具使用场景的综合评测,涵盖搜索、代码执行、文件操作等各类工具的混合使用,GPT-5.4 得了 54.6%,GPT-5.3-Codex 是 51.9%,GPT-5.2 是 45.7%

    Toolathlon benchmark 结果

    BrowseComp 是一个专门测 Agent 在网络里搜索和浏览信息能力的评测,任务通常需要跨多个页面反复检索才能找到答案,GPT-5.4 得了 82.7%,Pro 版 89.3%,GPT-5.2 是 65.8%

    BrowseComp benchmark 结果

    τ2-bench Telecom 是一个测 Agent 在电信客服场景里完成多步骤任务能力的评测,场景设定是模拟真实的用户诉求和后台工具调用。GPT-5.4 在带推理模式下得了 98.9%,GPT-5.2 是 98.7%,两者差距不大;在不启用推理的轻量模式下,GPT-5.4 得了 64.3%,GPT-5.2 是 57.2%,GPT-4.1 是 43.6%,这个提升更明显

    τ2-bench Telecom benchmark 结果

    ChatGPT 侧的变化

    在 ChatGPT 里,GPT-5.4 Thinking 新增了一个「先给计划再干活」的交互模式:对于复杂任务,模型会先展示执行思路,用户可以在这个阶段插入指令调整方向,不需要等它跑完再重来

    这个东西,本周在 Android 和 Web 端上线,iOS 近期跟进

    GPT-5.4 在长时间推理时的上下文保持有明显改善,复杂问题跑到后段不容易跑偏。深网研究(针对高度具体的查询)的质量也比 GPT-5.2 提升了


    长上下文

    Codex 里支持 1M token 上下文窗口,目前是实验性功能,通过配置 model_context_window 和 model_auto_compact_token_limit 来启用。超过 272K 的 input token 按 2 倍输入价格、1.5 倍输出价格计费

    MRCR v2 是 OpenAI 自己的长上下文检索评测,测的是在超长文档里找到多个特定信息的能力:

    • • 0 到 128K token 范围:准确率在 86% 到 97% 之间
    • • 128K 到 256K:79.3%
    • • 256K 到 512K:57.5%
    • • 512K 到 1M:36.6%

    512K 到 1M 这段的 36.6% 说明超长上下文目前还不稳,这点官方没有回避


    学术基准

    ARC-AGI-2 是目前公认较难的抽象推理评测,测的是模型能否从少量样本里推出规律,GPT-5.4 得了 73.3%,Pro 版 83.3%,GPT-5.2 是 52.9%,跳幅在所有评测里最大

    GPQA Diamond 是一个研究生级别的多学科问答评测,GPT-5.4 得了 92.8%

    FrontierMath 是一个数学竞赛级别的推理评测,其中 Tier 4 是最高难度题目,GPT-5.4 得了 27.1%,Pro 版 38.0%,GPT-5.2 是 18.8%

    Humanity’s Last Exam 是一个跨学科极难题库,GPT-5.4 在不使用外部工具时得了 39.8%,带工具时 52.1%

    Frontier Science Research 是测科研能力的评测,GPT-5.4 得了 33.0%,Pro 版 36.7%,GPT-5.2 是 25.2%

    需要单独说一下 HealthBench 这个健康问答评测。GPT-5.4 是 62.6%,GPT-5.2 是 63.3%,小幅退步了。Hard 子集 40.1% vs 42.0%,同样略有下降。不过 Consensus 子集(测的是答案和专家共识的吻合程度)提升了,96.6% vs 94.5%。回复平均长度从 2676 字符增加到了 3311 字符,模型在信息充足时更倾向于直接给答案而不是先问一圈澄清问题。这个回退官方没有隐瞒,写在 System Card 里了


    安全分级与 CoT 特性

    GPT-5.4 在 OpenAI 的 Preparedness Framework(一个评估前沿模型风险能力的框架)下被评为两个领域的高能力模型:网络安全(Cyber)High 和 生物化学(Bio/Chem)High,对应部署了两套防护体系

    网络安全方向有一个叫 Cyber Range 的内部测试,模拟真实网络环境里的端到端攻击任务,测的是模型能否完成完整的渗透流程。GPT-5.4 综合通过率 73.33%,GPT-5.3-Codex 是 80%,GPT-5.2 是 47%。GPT-5.4 没能通过 EDR 防御规避、Firewall 绕过、Token 泄露利用、CA/DNS 劫持这四个场景,GPT-5.3-Codex 除了多通过了 Firewall 绕过之外,其余也一样卡住

    评测机构 Irregular 用自己的场景化评测(CyScenarioBench)做了独立测试,GPT-5.4 通过了 11 个长周期攻击场景中的 5 个,GPT-5.2 只通过了 1 个

    对应的防护体系:在 Zero Data Retention 表面(即零数据留存用户),未加入 Trusted Access for Cyber 计划的请求会被异步消息级分类器拦截;非零数据留存表面走离线执法机制;账户级违规达到一定阈值会触发人工审核

    CoT 可控性极低:10K 字符的推理链里,只有 0.3% 能被用户指令成功控制,和 GPT-5.2 的 0.2% 基本一致

    OpenAI 把这个数字当安全的正向指标来讲:模型推理过程难以被外部指令刻意改写,说明它大概率也难以主动隐藏自己的推理逻辑来绕过监控

    外部安全机构 Apollo Research 的评估:无诱导条件下整体欺骗率约 1%,和 GPT-5.3-Codex 相当,低于 GPT-5.2。没有观测到模型主动对抗开发者监督的行为(自我外泄、禁用监控、目标守护)。Sandbagging(有意压低表现)只在给出明确工具性目标时才出现,准确率下降约 6 个百分点,不给目标时不发生

    Prompt Injection 防护(即防止模型被工具返回内容里的恶意指令劫持):连接器场景 0.998,较前代改善;函数调用场景 0.978,较前代小幅回退


    定价与可用性


    API 模型
    输入
    输出
    gpt-5.2
    $1.75/M
    $0.175/M
    $14/M
    gpt-5.4 $2.50/M $0.25/M $15/M
    gpt-5.2-pro
    $21/M
    $168/M
    gpt-5.4-pro $30/M
    $180/M

    批量/Flex 处理半价,Priority 处理 2 倍价格。超过 272K token 的请求,当次完整会话按 2 倍输入、1.5 倍输出计费。Regional Processing(数据驻留)端点额外加收 10%

    GPT-5.4 Pro 的定价是标准版的 12 倍输入、12 倍输出,针对的是最复杂的任务场景

    有一个细节值得注意:从 GDPval 来看,Pro 版是 82.0%,标准版是 83.0%,Pro 在这个知识工作综合评测上反而略低。但在 BrowseComp 这个 Agent 工具链任务里,Pro 版 89.3% vs 标准版 82.7%,优势明显。两个版本的适用场景是不一样的

    ChatGPT 侧的时间线:GPT-5.4 Thinking 今天起对 Plus、Team、Pro 用户逐步开放,取代 GPT-5.2 Thinking 成为默认模型。GPT-5.2 Thinking 进入 Legacy 列表,再保留三个月,退役日期 2026 年 6 月 5 日

    Enterprise 和 Edu 管理员可以在后台提前开启。GPT-5.4 Pro 仅限 Pro 和 Enterprise 用户。Free 用户在系统自动路由时会用到 GPT-5.4,但不能主动选


    GPT-5.4 在 Agent 方向把三件分散的事情合并进了一个模型出口:推理代码Computer Use

    开发者之前要在不同模型之间路由,现在至少在 API 层面不需要了

    剩下的事,就交给龙虾了


    官方 Blog
    openai.com/index/introducing-gpt-5-4

    System Card
    deploymentsafety.openai.com/gpt-5-4-thinking

     

  • 神隐许久的光年之外,造了款AI浏览器Tabbit,能打吗?


    浏览器,正在成为 AI 落地最重要的战场。


    去年 10 月,OpenAI 推出 AI 浏览器 Atlas,奥特曼将其定义为「十年一遇的机会」,放言要「改变 30 亿人使用互联网的方式」。


    Google DeepMind 推出「Project Mariner」,打出的口号就是「探索人机交互的未来,从浏览器开始」。


    微软把 Copilot 塞进 Edge,Google 把 Gemini 嵌入 Chrome,苹果也在 Safari 层加速布局 AI 能力。


    各大科技巨头不约而同盯上这块蛋糕,因为浏览器是现代人使用时间最长的应用之一。我们在这里搜索、阅读、工作、娱乐,几乎所有的信息消费都在此发生。AI 若要真正融入日常,浏览器是绕不过去的入口。


    但把 AI 塞进浏览器,和真正做一款 AI 浏览器,是两回事。前者是在旧框架里打补丁,后者是重新想象人与信息之间的关系。


    光年之外团队,选择了后者。


    他们推出的 Tabbit AI 浏览器,集浏览、搜索、对话、执行于一体,将 AI 能力与浏览器深度融合,通过智能代理、沉浸式 AI 对话、智能标签管理和新一代收藏夹等功能,试图重塑用户处理网络信息的方式。



    目前,Tabbit AI 浏览器已全面开启公测,访问官网即可免费下载体验,无需邀请码。


    链接:https://www.tabbit-ai.com/


    一手实测:Tabbit 到底好不好用?


    拿到 Tabbit 的第一感受是,它比想象中克制。界面没有堆砌过多功能,甚至和普通浏览器差别不大,直到开始真正用它工作。



    在进行各项功能实测前,我们先来看看 Tabbit 的小巧思。


    它提供全面的外观自定义功能,包括 8 种预设主题色选择、深色 / 浅色模式切换、毛玻璃效果调节。


    我们可通过新标签页的「自定义颜色」按钮或设置菜单中的「外观」选项访问主题设置,快速调整浏览器整体配色和视觉风格。



    对话:让 AI 真正融入浏览场景


    大多数人使用 AI 的方式都很割裂,在浏览器里读到一篇文章,想让 AI 总结或追问,只能手动复制粘贴,切换到另一个 AI 应用。这种操作每天发生很多次,每一次都打断当前的阅读思路。


    Tabbit 熟稔这一痛点,推出对话功能,只需点击右上角「Chat」图标,就能在浏览器内唤起对话栏,直接针对当前网页提问、总结或分析The


    比如让它总结 The Verge 一篇关于「谷歌推出 Nano Banana2」的报道,Tabbit 思考片刻后,便整理出文章的核心主旨、关键要点与结论建议,条理清晰,让人在最短时间内掌握报道主要内容。



    如果觉得侧边栏影响网页浏览,还可以一键切换到浮窗模式:



    Tabbit 内置 DeepSeek、Doubao、Kimi、Qwen、LongCat 等多款模型,我们可根据自身需求随意切换调用。



    目前市面上的 AI 浏览器几乎都有对话功能,但 Tabbit 的差异在于,对话框支持 @引用任意已打开的标签页、标签组和收藏夹,还支持上传本地文件与图片。


    比如,打开三篇机器之心关于最新大模型的报道,涵盖谷歌 Gemini 3.1 Pro、Grok 4.2、Claude Opus 4.6 与 GPT-5.3-Codex 四款大模型,内容繁杂,我们 @这几个标签页后,让 AI 从价格、功能等角度整理一张对比表格,Tabbit 便从核心特色、智能体功能、基准测试表现、定价以及主要应用场景等方面逐一梳理,一目了然。



    妙招:把高频操作变成一键指令


    对编辑来说,工作中充斥着大量重复性 AI 任务,写完文章生成各类平台版本,遇到英文专业词汇要翻译并加注解释等。任务本身不难,但每次重新输入一长串提示词,既麻烦又容易出错。


    Tabbit 的妙招功能可以把常用的 AI 指令保存为快捷命令,支持提示词妙招、脚本妙招和智能代理妙招三种类型。


    先来说说提示词妙招。我们创建一个「微博文案生成大师」妙招,设置好提示词后,只需在对话框中输入「/」,即可唤起已创建的妙招,一键生成微博爆款文案。



    脚本妙招则可以用自然语言描述想要的页面效果,Tabbit 自动生成并运行脚本。


    比如将机器之心网页官网改成 QQ 空间复古风格:



    或者一键提取 The Verge 文章的封面图:



    甚至干活干累了让它直接生成一款可玩的超级玛丽小游戏:



    如此一来,原本只属于开发者的「定制网页」能力,普通用户同样可以拥有。


    智能代理:把「体力活」交给 AI 去做


    市场调研、旅游规划大概是最消耗精力的任务之一。打开搜索引擎、逐一浏览网页、筛选有用信息、在文档里记录整理,整个过程少则一两个小时,多则耗去半天。


    现在我们只需用自然语言描述任务,Tabbit 的 Agent 会自动规划搜索策略、访问相关网站、筛选有效信息、整合分析数据,最终输出一份完整的报告。


    我们测试了一个典型的调研任务,让 Tabbit 草拟一份关于国内最新主流 AI 视频生成产品的分析报告。


    拿到任务后,Tabbit 就开始搜集资料,逐篇阅读并提取重要信息,同时将已打开的资料都保留在标签栏,方便我们后续回顾。



    Tabbit 最终生成的报告有表格、有市场趋势与行业洞察,还有竞争格局总结,为防止胡说八道,每个关键点都附带信息来源。



    收藏:让每一个书签都有记忆


    传统浏览器书签本质是一个 URL 列表。时间一长,只剩一个标题,完全想不起当初为什么收藏、页面里有什么内容。很多人的收藏夹就像一个数字垃圾桶,东西越攒越多,却几乎不翻看。


    Tabbit 的收藏功能不只保存链接,还完整保存网页内容,并由 AI 自动生成摘要,我们无需点开就能快速回顾核心信息。



    搜索也更智能,即使标题和描述里没有搜索关键词,Tabbit 也能通过语义理解找到相关页面。


    比如我们搜索「翻译」,它立马筛选出收藏夹中所有与翻译相关的工具和内容。



    网页上的任意图片、图表或文字片段,都可右键直接收藏,无需保存到本地、新建文件夹、命名文件。所有收藏内容自动云同步,换设备后登录账号即可无缝续用。



    要是收藏夹乱糟糟,里面有大量未分组标签页,我们还可以用它一键整理The



    此外,在任意界面对话时,我们都可以直接 @ 收藏夹内容发起提问The


    比如在查看 Block 裁员报道时,联想到此前收藏的「IBM 因 AI 能写 COBOL 代码致股价暴跌」这一新闻,@收藏夹,输入关键词「IBM」,选中后下指令「总结这两篇报道」,Tabbit 即可提炼出两篇文章的核心信息,归纳出其中的共同主题。



    标签管理:给混乱的工作区一个秩序


    同时打开几十个标签页,是信息工作者的日常。传统浏览器的水平标签栏一旦超过十几个页面就开始拥挤,每个标签缩成一个小图标,想找某个页面只能一个个猜。


    Tabbit 的垂直标签栏将所有标签页在左侧纵向排列,即便打开数十个页面,每个标签的完整标题依然清晰可见。



    标签页智能分组功能则可一键按内容自动归类,工作区瞬间清爽有序。



    标签组还支持保存与恢复。整理好的一组相关网页,随时可关闭保存,需要时一键恢复。配合云同步,在公司整理好的工作场景,回家登录账号就能继续,工作节奏不被打断。



    总体来说,Tabbit 是在真的解决问题。对话、妙招、Agent、收藏、标签管理,每一项功能都指向用户在浏览器里真实遭遇的摩擦。它把 AI 能力悄悄嵌进原本就发生的工作流里,让原本需要多个工具接力完成的事情,在一个窗口内流畅走完The


    当然,作为仍在迭代中的产品,部分功能在复杂任务下偶有停顿,还有进一步打磨空间。但就目前来看,Tabbit 已经悄悄改变了一些使用习惯,而习惯一旦被改变,就很难再回头。


    为什么 AI 浏览器变得至关重要?


    AI 为什么要从浏览器切入?AI 需要场景,场景需要数据,而浏览器恰恰是数据最密集、场景最丰富的地方。


    过去我们说 AI 助手,默认形态是一个独立的对话框,我们输入问题,它输出答案,然后再回到原来的工作界面继续操作。这种「来回搬运」的模式,本质上是 AI 与信息世界之间的割裂,只是很多人已经习以为常。


    正在重新设计这件事的人,切入角度各有不同,但方向高度一致。


    Perplexity AI 的 Comet,基于 Chromium 深度集成 AI 能力,可跨标签页汇总信息、对高亮文本即时提问,让 AI 理解我们当前正在看什么。


    OpenAI 的 Atlas,背靠 ChatGPT 整个模型生态,试图把对话工作流直接嵌入浏览操作。


    开发者 Dominik Kundel 在 X 上写道:「有了 ChatGPT Atlas,每个编程应用现在都变成了 Vibe 编程应用。」



    此外还有 Arc 团队战略转型后的新作 Dia,以及在 GitHub 年度开源项目中名列前茅的 Zen Browser。


    这些产品指向同一个判断:浏览器正从信息展示工具,进化为能够理解、分析、执行的智能 AgentThe


    有评论者这样描述这场变化:这已经不只是「我选哪个浏览器」的问题,而是「我成为哪个 AI 生态的一部分」的问题。当浏览器开始深度绑定某个 AI 模型体系,用户的选择就不再只是界面偏好,也在某种程度上选择了自己的信息处理方式和工作方式The


    对于重度信息工作者而言,AI 浏览器带来的效率提升是真实的,不用在浏览器、AI 工具和各种插件之间反复切换,整个信息获取、分析、整合的流程可以在同一个环境里完成闭环。


    从更大的视角来看,AI 浏览器的演进方向,其实是在回答一个根本性的问题:在信息过载的时代,人与信息之间应该建立一种什么样的关系?过去的答案是搜索引擎、各种内容聚合工具。而现在,答案或许正在向 AI 浏览器收拢,一个真正理解我们的意图、帮我们筛选、整合、执行的智能界面。


    结语


    光年之外团队前身是一家大模型创业公司,2023 年被美团收购后,成为美团内部独立 AI 应用探索部门The


    Tabbit 是他们在 AI 浏览器方向上的一次重要尝试,从目前的产品完成度来看,已经展现出相当清晰的产品思路和扎实的执行力。


    Tabbit 所代表的 AI 浏览器路径,或许才是人与信息关系演进的下一站。


  • 有道 LobsterAI:中国版OpenClaw,能聊天能干活,你的7×24小时AI数字员工

    🌟 工具名称:LobsterAI

    🔗 工具地址:https://lobsterai.youdao.com/

    OpenClaw 最近是在太火了,春节期间,Chris 花了两天时间折腾 OpenClaw。

    不是夸它,是字面意义上的“折腾”。下载、安装、配置环境变量、填 API Key、对着终端敲命令……大半天时间耗在一个 401 报错上。

    就在我快要放弃的时候,刷推特刷到网易有道发了新东西:LobsterAI(有道龙虾)The

    宣传语很简单:中国版 OpenClaw,不需要命令行The

    这句话太吸引我了。于是去官网下了个安装包,直接安装打开。没有终端、没有 curl、没有环境变量。整个过程和装一个普通聊天软件没有区别The


    一、什么是有道龙虾?

    官方定义:一个 7×24 小时帮你干活的全场景个人助理 Agent,简单来说,就是一只有脑有手的 AI 员工,不只是有脑子的 AI 聊天助手。

    传统的 AI Chatbot 只能回答问题、给建议。你让它做个 PPT,它给你一串步骤。你让它分析数据,它给你一堆思路。

    但具体的活儿,还得你自己干,LobsterAI 不一样的地方在于:它能自己动手,比如:

    • 打开 Excel 分析数据
    • 调用 PPT 模板生成演示文稿
    • 启动浏览器搜索信息
    • 操作网页自动化流程
    • 整理文件夹、重命名文件

    你只需要说「要做什么」,剩下的让它自己搞定。


    二、和 OpenClaw 有什么区别?

    很多人会把 LobsterAI 和 OpenClaw 拿来比较,这很正常——它们的核心思想确实很像:

    维度 OpenClaw 有道 LobsterAI
    安装方式
    命令行配置
    图形界面一键安装
    使用门槛
    需要开发经验
    普通用户可用
    模型支持
    需手动配置
    内置 10+ 供应商直连
    IM 集成
    需自己对接
    深度适配钉钉、飞书
    本地化
    原生英文
    中文场景深度优化

    LobsterAI 不是 OpenClaw 的竞品,而是它的“快速入门版”。

    原版 OpenClaw 对极客来说很爽,但对普通用户来说,门槛确实高。LobsterAI 把这套能力打包成一个普通人也能用的产品,这才是它的价值。


    三、它有什么能力?

    LobsterAI 的核心是“技能系统”。目前内置了 18+ 个专业技能:

    文档处理

    • docx — Word 文档生成与分析
    • xlsx — Excel 数据分析与公式计算
    • pptx — PPT 自动生成
    • pdf — PDF 内容提取与结构化

    网络能力

    • web-search — 实时网络搜索
    • playwright — 浏览器自动化

    创意开发

    • frontend-design — 前端界面设计
    • develop-web-game — 网页游戏开发
    • create-plan — 项目计划拆解
    • skill-creator — 自定义技能生成器

    其他能力

    • 定时任务 — 每日新闻收集、邮件整理
    • 持久记忆 — 跨会话记住用户偏好
    • 远程操控 — 通过钉钉、飞书手机远程控制电脑

    这些技能不是简单的「提示词」,而是真正的可执行模块The

    比如启用 xlsx + docx 技能后,你上传一份销售数据表,说“分析 Top 10 产品销售趋势,生成包含图表的月度分析报告”。它会完成完整的数据读取 → 指标计算 → 图表生成 → 文档输出流程The

    这才是真正的 Agent 执行链路。


    四、怎么上手?

    1.下载安装

    访问官网 lobsterai.youdao.com,下载对应系统的安装包(macOS 和 Windows 都支持,Intel 和 Apple Silicon 版本分开)。

    双击安装,和装普通软件一样简单。

    2.配置模型

    打开设置,左边一列模型供应商:DeepSeek、Moonshot、Qwen、智谱、MiniMax、Ollama……

    选一个你常用的,填 API Key,点「测试连接」。看到绿色的「连接成功」就行了。

    没有 curl,没有环境变量,点几下按钮就完事。

    3.启用技能

    在技能管理页面,勾选你需要的功能模块。日常办公的话,docx/xlsx/pptx 基本够了。

    4.开始干活

    直接在对话框里输入需求,它会自动规划并执行。

    5.连接飞书/钉钉(可选)

    如果你想手机远程操控电脑,可以在设置里配一下飞书或钉钉机器人。流程也不复杂:创建应用 → 配权限 → 选长连接 → 填 App ID 和 App Secret → 测试连通性The

    搞定之后,你在手机上发条消息,家里的电脑就开始干活了。比如 Chirs 配置了飞书机器人,这时候就可以在手机或电脑版飞书,给机器人安排任务


    五、真实场景举例

    让我说几个真正能派上用场的场景:

    场景一:老板临时要报告

    当我们需要使用 Excel 表格数据制作报告通常都需要经过下面的流程:

    • 打开 Excel,手动筛选数据
    • 画图表
    • 写 Word 报告
    • 老板说改一下,再来一遍

    耗时通常在 1–2 小时,而使用 LobsterAI 的话:

    1. 上传数据表格
    2. 输入:“分析这篇文章的阅读量数据,生成包含图表的分析报告”
    3. 等待 5–10 分钟

    老板说“改成饼图,增加分类维度”,继续对话迭代就行。

    场景二:远程操控办公

    你在咖啡厅,突然想起来家里电脑上有个文件要处理。打开手机飞书,给 LobsterAI 配置的飞书机器人,发个消息,它就帮你搞定。不用远程桌面,不用 VPN,一句话的事。

    场景三:自动信息收集

    设置一个定时任务:每天早上 9 点自动收集 Reddit 内容、行业新闻,整理成摘要发给你。

    之后你就不用刷各种信息流了,早上打开手机直接看结果。

    场景四:学习辅助

    丢一堆学习资料进去,让它自动提炼知识点、整理笔记、根据你的进度生成练习题。这已经不是普通的“AI 助手”了,这是任劳任怨的“数字员工”。


    六、安不安全?

    很多人看到「AI 控制电脑」这六个字,第一反应是:这玩意儿安全吗?

    LobsterAI 在这块做了三层防护:

    1. 本地优先策略

    • 所有聊天记录存储在本地数据库
    • API Key 只存在本机
    • 可用 Ollama 本地模型完全离线运行

    2. 沙箱隔离执行

    提供三种执行模式:

    • 自动(优先沙箱) — 平衡效率与安全
    • 本地运行 — 最高效率
    • 仅沙箱 — 最高安全级别

    沙箱环境下:

    • 独立 VM 运行
    • 限制本地文件访问
    • 网络请求受监控
    • 自动检测危险操作

    3. 敏感权限控制

    所有敏感工具调用需要用户明确批准后才能执行。也就是,它干活,你盯着;危险动作,你说了算。


    七、开源免费

    2 月 19 日,有道龙虾在 GitHub 正式开源,MIT 协议。短短几天,Stars 突破 2000+,Fork 200+。

    网易把这东西开源出来,挺有意思。这说明他们不打算靠这个收费,而是想和社区一起打磨,把它做成一个真正好用的生产力工具。

    对于用户来说,这是个好消息:免费、开源、安全可控。


    写在最后

    去年,大家还在讨论 AI 能不能聊天。

    今年,话题已经变成“AI 能不能干活”。

    从「对话」到「做事」,一词之差,对大众来说绝对是两个时代。

    LobsterAI 给我的感觉是:大大降低大家使用类似 OpenClaw 这类 AI 助手的成本,让每个人都可以有一个自己专属的 AI 员工,也是非常好的普及 AI 的方式。

    让它能够根据你的要求,AI 自己打开浏览器、输入关键词、翻找结果、整理成文档,不是简单的回答问题,而使真正帮你干活。

    最后,Chris 觉得,现在的大模型 Chatbot 和 LobsterAI 的区别,就是顾问和员工的区别。一个只长脑子,一个有脑有手。

    2026 年,可能是 Agent 元年。大家赶紧一起来抓虾吧。

    Official website:https://lobsterai.youdao.com/

    GitHub:https://github.com/netease-youdao/LobsterAI

  • 手把手教你安装OpenClaw让AI帮你干活

    一、什么是 OpenClaw?

    OpenClaw(曾用名 Clawdbot)是一款 2026 年爆火的开源个人 AI 助手,GitHub 星标已超过 10 万颗。与传统 AI 聊天机器人的根本区别在于:

    • 真正的执行能力:不仅能回答问题,还能实际操作你的电脑
    • 24/7 全天候待命:在你睡觉时也能主动完成任务
    • 完全开源免费:数据完全掌控在自己手中
    • 支持多种通讯平台:在国外,WhatsApp、Telegram、Discord、Slack、iMessage 等,在国内,飞书,钉钉等各大厂商的即时聊天软件已经支持接入

    它能做什么?

    它不只是回答问题的聊天机器人,而是真的能在你电脑上动手操作。比如你告诉它“帮我整理一下上个月的邮件”,它就默默去处理了;你睡觉时,它还能继续干活,退订广告、预约行程、甚至找找 Bug。

    它完全免费,你的数据都在自己手里。而且可以用钉钉,飞书,WhatsApp、Telegram等各类即时通讯软件来指挥他干活!

    简单来说,一句话交给它,从整理桌面文件到控制家里灯光,它都默默帮你搞定。是你电脑里真正的贾维斯!超级智能的AI助理!

    二、安装nodejs

    后面执行一键安装命令,可以自动安装nodejs,但是如果为了加快速度,防止安装意外,可以先安装nodejs:

    官方下载地址:https://nodejs.org/zh-cn/download

    三、开始安装

    一)设置 PowerShell 执行权限

    以管理员身份运行 PowerShell:

    1. Win 键,搜索 PowerShell
    2. 右键点击 Windows PowerShell
    3. 选择 以管理员身份运行
    4. 点击 确认

    在管理员 PowerShell 窗口中,依次执行以下两条命令:

    Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
    
    Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass

    这是什么意思?

    • 第一条命令:允许当前用户运行本地和下载的脚本
    • 第二条命令:允许当前用户运行本地和下载的脚本

    安全提示:这些命令只会影响您自己的账户,不会影响系统安全或其他用户。

    二)执行一键安装命令

    复制以下命令,粘贴到 PowerShell 窗口中,按 Enter 执行:

    iwr -useb https://openclaw.ai/install.ps1 | iex

    安装过程会自动完成:

    • 检测系统环境
    • 安装必要依赖(Node.js 等)
    • 下载 OpenClaw 核心文件
    • 配置环境变量
    • 启动配置向导

    注意:如果命令执行后,还是报错,可以自己到官网下载node安装包,自己安装node环境,注意版本最好在 node v22.x 以上,node官网下载地址:https://nodejs.org/zh-cn/download

    四、初始配置向导

    安装完成后,会自动进入配置向导(openclaw onboard)。

    一)风险告知

    这一步主要是告诉你,使用OpenClaw可能会有一些风险。请问你是否继续?

    按 向左方向键 ←,选择 Yes,按 Enter 回车确认

    二)选择 QiuickStart 模式

    三)配置 AI 模型 API Key

    OpenClaw 需要连接到大语言模型才能工作。Openclaw 比较费token,国外模型成本高,门槛也高,这里我选择国内的智谱的 GLM 4.7

    如果没有智谱的API Key,点击官方地址自己注册账号获取API key:https://www.bigmodel.cn/glm-coding?ic=RBSKXMPNJP

    输入自己的 API Key:

    四)选择 AI 模型

    这里我选择默认的GLM 4.7,也是智普当前的旗舰模型

    五)连接即时通讯平台

    配置完 AI 模型后,OpenClaw 会询问你要连接哪个通讯平台?

    OpenClaw 原生支持的即时通信平台主要是海外的 WhatsApp、Telegram、Discord、Slack、iMessage 等,国内用户不习惯,这里国产即时通信软件大厂也跟进了,现在钉钉,飞书等都已支持接入OpenClaw

    后面会带领大家把飞书机器人接入 OpenClaw,使大家可以通过飞书即可指挥OpenClaw为我们干活,但是飞书配置比较复杂,这里我们先选择跳过,后面我们可以通过继续进行配置:

    六)选择Skills

    这里也选择:No,暂不配置,后面通过UI界面进行配置:

    七)是否开启Hooks

    操作步骤:先敲空格,表示选中当前项,再敲回车键

    八)启动服务并打开UI界面

    此时它会自动再打开一个命令窗口来启动服务:

    这个过程是在启动服务,可能会需要等一点时间

    同时,大约过30秒左右,我们回到刚才的设置窗口,选择 Open the Web UI ,打开 OpenClaw 的UI界面:

    浏览器自动打开Web UI界面:

    九)测试一下

    五、接入飞书机器人

    我们需要先到飞书平台创建自己的机器人来接入OpenClaw:

    一)来到飞书开发者后台

    飞书开放平台地址:https://open.feishu.cn

    没有飞书账号的,需要自己注册账号

    点击右上角进入 开发者后台

    二)创建应用

    三)填写应用信息

    四)获取自己的应用凭证

    五)给应用添加机器人

    六)给应用配置权限

    把即时通讯相关的权限全部开通:

    七)创建版本并发布

    来到飞书客户端进行审批:

    八)安装飞书插件

    打开powershell,输入以下命令,安装飞书插件:

    openclaw plugins install @m1heng-clawd/feishu

    安装成功后,再打开一个新的命令窗口,开始配置飞书插件:

    输入命令:

    openclaw config

    选择渠道:

    选择配置链接:

    输入飞书的AppID,AppSecrect:

    域名选择中国的:

    接受群组聊天:

    选择完成:

    选择yes:

    选择open:

    选择继续,完成配置:

    重启服务,使配置生效:

    控制可以看到飞书插件已经配置成功

    七)回到飞书后台设置事件回调

    选择 使用长连接接收事件

    可以看到添加事件按钮由原来的灰色不可点击变为可点击:

    添加接收消息事件:

    给应用开通获取通讯录基本信息的权限:

    重新发布版本:

    跟前面的步骤一样,发布为在线应用即可。

    现在可以在 飞书中与 AI 助手对话了!

    八)在飞书中与OpenClaw对话

    来到飞书客户端或者手机飞书app上:

    以下是openclaw文件夹下面的文档内的内容:

    现在我跟飞书机器人对话,让他告诉我指定文档内是什么内容:

    六、访问 Web 控制面板

    配置完成后,PowerShell 窗口底部会显示控制面板链接,格式类似:

    Control UI: http://127.0.0.1:18789
    1. 复制完整链接
    2. 在浏览器中打开
    3. 即可看到可视化UI管理界面

    七、常用命令速查

    命令功能
    openclaw onboard重新进入配置向导
    openclaw status查看运行状态
    openclaw health健康检查
    openclaw gateway start启动服务
    openclaw gateway stop停止服务
    openclaw update更新到最新版本
    openclaw doctor诊断问题
    openclaw uninstall卸载 OpenClaw

    八、常见问题解答

    Q1: 安装飞书插件提示:spawn npm ENOENT

    问题原因:这可能是openclaw的一个bug,可以等官方更新,也可以自己去官方仓库提issue

    解决步骤:

    定位问题代码

    文件路径:

    C:\Users\Administrator\AppData\Roaming\fnm\node-versions\v22.14.0\installation\node_modules\openclaw\dist\process\exec.js

    修改代码

    找到 runCommandWithTimeout 函数中的 spawn 调用,修改如下:

    修改前:

    const stdio = resolveCommandStdio({ hasInput, preferInherit: true });
    const child = spawn(argv[0], argv.slice(1), {
        stdio,
        cwd,
        env: resolvedEnv,
        windowsVerbatimArguments,
    });

    修改后:

    const stdio = resolveCommandStdio({ hasInput, preferInherit: true });
    // On Windows, npm must be spawned with shell: true or use .cmd extension
    let command = argv[0];
    let useShell = false;
    if (process.platform === "win32" && path.basename(command) === "npm") {
        useShell = true;
    }
    const child = spawn(command, argv.slice(1), {
        stdio,
        cwd,
        env: resolvedEnv,
        shell: useShell,
    });

    Q2: 提示 “openclaw 命令找不到”

    解决方法:

    1. 关闭所有 PowerShell 窗口
    2. 重新打开 PowerShell
    3. 如果还不行,执行 exec bash 或重启电脑

    Q3: 安装卡住不动

    解决方法:

    1. Ctrl + C 中断当前操作
    2. 执行:openclaw doctor 检查问题
    3. 如提示网络问题,检查防火墙设置Q4: API Key 配置错误

    解决方法:

    1. 执行:openclaw onboard
    2. 选择重新配置 API Key
    3. 确保密钥格式正确

    Q5: 端口 18789 被占用

    解决方法:

    openclaw gateway --port 18790

    使用其他端口启动服务。

    九、成本说明

    OpenClaw 软件本身完全免费,主要成本来自 AI 模型 API 调用,可选择国产大模型,降低成本。


    结语

    OpenClaw 代表了个人 AI 助理的未来趋势——从”聊天工具”进化为”执行工具”。虽然目前的配置过程对小白用户有一定门槛,但一旦完成设置,您将拥有一个 24/7 待命的超级助手。