分类: 博客

  • 一文读懂 Skills|从概念到实操的完整指南

    Agent 正在经历从“聊天机器人”到“得力干将”的进化,而 Skills 正是这场进化的关键催化剂。

    你是否曾被 Agent 的“不听话”、“执行乱”和“工具荒”搞得焦头烂额?

    本文将带你一文弄懂 Skills ——这个让 Agent 变得可靠、可控、可复用的“高级技能包”。

    我们将从 Skills 是什么、如何工作,一路聊到怎样写好一个 Skills,并为你推荐实用的社区资源,带领大家在 TRAE 中实际使用 Skills 落地一个场景。

    无论你是开发者还是普通用户,都能在这里找到让你的 Agent “开窍”的秘诀。


    你是否也经历过或者正在经历这样的“ Agent 调教”崩溃时刻?

    • 规则失效:在 Agent.md 里写下千言万语,Agent 却视若无睹,完全“已读不回”。
    • 执行失控:精心打磨了无数 Prompt,Agent 执行起来依旧像无头苍蝇,混乱无序。
    • 工具迷失:明明集成了强大的 MCP 工具库,Agent 却两手一摊说“没工具”,让人摸不着头脑。

    如果这些场景让你感同身受,别急着放弃。终结这场混乱的答案,可能就是 Skills。

    1、什么是 Skills

    “Skills” 这个概念最早由 Anthropic 公司提出,作为其大模型 Claude 的一种能力扩展机制。简单来说,它允许用户为 Claude 添加自定义的功能和工具。随着这套做法越来越成熟,并被社区广泛接受,Skills 如今已成为大多数 Agent 开发工具和 IDE 都支持的一种标准扩展规范。

    一个 Skills 通常以一个文件夹的形式存在,里面主要装着三样东西:一份说明书(SKILL.md)、一堆操作脚本(Script)、以及一些参考资料(Reference)。

    你可以把一个 Skill 想象成一个打包好的“技能包”。它把完成某个特定任务所需的领域知识、操作流程、要用到的工具、以及最佳实践全都封装在了一起。当 AI 面对相应请求时,就能像一位经验丰富的专家那样,有条不紊地自主执行。

    一句话总结:要是把 Agent 比作一个有很大潜力的大脑,那 Skills 就像是给这个大脑的一套套能反复用的“高级武功秘籍”。有了它,Agent 能从一个“什么都略知一二”的通才,变成在特定领域“什么都擅长”的专家。

    2、Skill 原理介绍

    📚 官方解释:https://platform.claude.com/docs/en/agents-and-tools/agent-skills/overview

    Skill 的架构原理:渐进式加载

    Skill 的设计很巧妙,它运行在一个沙盒环境里,这个环境允许大模型访问文件系统和执行 bash 命令(可以理解为一种电脑操作指令)。在这个环境里,一个个 Skill 就像一个个文件夹。Agent 就像一个熟悉电脑操作的人,通过命令行来读取文件、执行脚本,然后利用结果去完成你交代的任务。这种“按需取用”的架构,让 Skill 成为一个既强大又高效的“工具箱”。

    为了平衡效果和效率,Skill 设计了一套聪明的三层分级加载机制:

    Level 1:元数据(始终加载)

    元数据就像是 Skill 的“名片”,里面有名称(name)和描述(description),是用 YAML 格式来定义的。Claude 在启动的时候,会把所有已经安装的 Skill 的元数据都加载进来,这样它就能知道每个 Skill 有什么用、什么时候该用。因为元数据很轻量,所以你可以安装很多 Skill,不用担心把上下文占满。

    Level 2:说明文档(触发时加载)

    SKILL.md 文件的正文就是说明文档,里面有工作流程、最佳实践和操作指南。只有用户的请求和 Skills 元数据里的描述相符时,Claude 才会用 bash 指令读取这份文档,把内容加载到上下文里。这种“触发式加载”能保证只有相关的详细指令才会消耗 Token。

    Level 3:资源与代码(按需加载)

    Skills 还能打包一些更深入的资源,比如更详细的说明文档(FORMS.md)、可执行脚本(.py)或者参考资料(像 API 文档、数据库结构等)。Claude 只有在需要的时候,才会通过 bash 去读取或执行这些文件,而且脚本代码本身不会进入上下文。这样一来,Skills 就能捆绑大量信息,几乎不会增加额外的上下文成本。

    Skills 的调用逻辑:从理解意图到稳定执行

    那么,Agent 是如何智能地选择并执行一个 Skill 的呢?整个过程就像一位经验丰富的助理在处理工作:

    1. 意图匹配(找到对的人):Agent 首先聆听你的需求,然后快速扫一眼自己手头所有 Skill 的“名片夹”(元数据),寻找最匹配的那一张。
    2. 读取手册(看懂怎么干):找到合适的 Skills 后,Agent 会像模像样地翻开它的“操作手册”(SKILL.md),仔细研究详细的执行步骤和注意事项。
    3. 按需执行(动手开干):根据手册的指引,Agent 开始工作。如果需要,它会随时从“工具箱”里拿出脚本或工具来完成具体操作。
    4. 反馈结果(事毕复命):任务完成后,Agent 向你汇报最终结果,或者在遇到困难时,及时向你请教。

    3、Skills vs. 其他概念的区别

    为了更清晰地理解 Skills 的独特价值,我们不妨把它和另外两个容易混淆的概念——快捷指令(Command)原子工具(MCP)——放在一起做个对比。用一个厨房的例子就很好懂了:

    我们也列举了几个大家容易混淆的其他功能,一起来对比看看。

    📚 官方博客解释:https://claude.com/blog/skills-explained

    4、什么是好的 Skills:从“能用”到“好用”

    Good Skills vs Bad Skills

    如何写好 Skills

    1. 原子性(Atomicity):坚持单一职责,让每个 Skill 都像一块积木,小而美,专注于解决一个具体问题,便于日后的复用和组合。

    2. 给例子(Few-Shot Prompting):这是最关键的一点,与其费尽口舌解释,不如直接给出几个清晰的输入输出示例。榜样的力量是无穷的,模型能通过具体例子,秒懂你想要的格式、风格和行为。

    3. 立规矩(Structured Instructions):

    1) 定角色:给它一个明确的专家人设,比如“你现在是一个资深的市场分析师”。

    2) 拆步骤:把任务流程拆解成一步步的具体指令,引导它“思考”。

    3) 画红线:明确告诉它“不能做什么”,防止它天马行空地“幻觉”

    4. 造接口(Interface Design):像设计软件 API 一样,明确定义 Skill 的输入参数和输出格式(比如固定输出 JSON 或 Markdown)。这让你的 Skill 可以被其他程序稳定调用和集成。

    5. 勤复盘(Iterative Refinement):把 Skills 当作一个产品来迭代。在实际使用中留心那些不尽如人意的“Bad Case”,然后把它们变成新的规则或反例,补充到你的 Skills 定义里,让它持续进化,越来越聪明、越来越靠谱。

    📚 一些官方最佳实践指南:https://platform.claude.com/docs/zh-CN/agents-and-tools/agent-skills/best-practices

    5、社区热门 Skills 推荐

    刚开始接触 Skills,不知从何下手?不妨从社区沉淀的这些热门 Skills 开始,寻找灵感,或直接在你的工作流中复用它们。

    Claude 官方提供的 Skills

    📚 官方 Skills 仓库:https://github.com/anthropics/skills

    学习 Claude 官方的 Skills 仓库可以帮助我们最快的了解 Skills 的最佳实践,便于我们沉淀出自己的 Skills。

    如何快速使用官方 Skills?
    大多数官方 Skills 都能直接下载,或者通过 Git 克隆到本地。在 TRAE 等工具里,一般只需把这些 Skills 的文件夹放到指定的 Skills 目录,接着重启或刷新 Agent,它就会自动识别并加载这些新能力。具体操作可参考工具的使用文档。
    更多细节可参考下面这部分内容:如何在 TRAE 里快速用起来

    Claude 官方提供的 Skills 列表

    社区其他最佳实践

    6、如何在 TRAE 里快速使用

    理论说再多,不如亲手一试。我们先讲一下如何在 TRAE SOLO 中创建并应用一个 Skill 并以基于飞书文档的 Spec Coding 为例讲解一下如何利用 Skills 快速解决一个实际问题。

    Skill 创建

    方式一:设置中直接创建

    TRAE 支持在设置页面可以快速创建一个 Skill

    按下快捷键 Cmd +/ Ctrl + 通过快捷键打开设置面板。

    在设置面板左侧找到「规则技能」选项

    找到技能板块,点击右侧的「创建」按钮。

    你会看到一个简洁的创建界面,包含三要素:Skill 名称、Skill 描述、Skill 主体。我们以创建一个“按规范提交 git commit”的 Skill 为例,填入相应内容后点击「确认」即可。

    填入我们需要的内容「确认」即可

    方式二:直接解析 SKILL.md

    在当前项目目录下,新增目录.trae/Skills/xxx 导入你需要文件夹,和 TRAE 进行对话,即可使用。

    可以在「设置 – 规则技能」中看到已经成功导入

    方式三:在对话中创建

    目前 TRAE 中内置了 Skills-creator Skills ,你可以在对话中直接和 TRAE 要求创建需要的 Skills

    Skill 使用

    在 TRAE 里使用技能很容易,你加载好需要的技能后,只需在对话框中用日常语言说明你的需求就行。

    • 例如,输入“帮我设计一个有科技感的登录页面”,系统就会自动调用“frontend-design”技能。
    • 例如,输入“帮我提取这个 PDF 里的所有表格”,系统会自动调用“document-Skills/pdf”技能。
    • 例如,输入“帮我把这片技术文档转为飞书文档”,系统会自动调用“using-feishu-doc”技能。

    系统会自动分析你的需求,加载技能文档,还会一步步指导你完成任务!

    实践场景举例

    还记得引言里提到的那些问题吗?比如说,项目规则文件(project_rules)有字符数量的限制;又或者,就算你在根规则文件里明确写好了“在什么情况下读取哪个文件”,Agent 在执行任务时也不会按照要求来做。

    这些问题的根本原因是,规则(Rules)对于 Agent 而言是固定不变的,它会在任务开始时就把所有规则一次性加载到上下文中,这样既占用空间,又不够灵活。而 技能(Skill)采用的是“逐步加载”的动态方式,刚好可以解决这个问题。所以,我们可以把之前那些复杂的规则场景,重新拆分成一个个独立的技能。

    接下来,我们通过一个基于飞书文档的“Spec Coding”简单流程,来实际操作一下如何用技能解决问题。

    什么是 Spec Coding?

    Spec Coding 提倡“先思考后行动”,也就是通过详细定义可以执行的需求规范(Specification)来推动 AI 开发。它的流程包含“需求分析、技术设计、任务拆解”的文档编写过程,最后让 AI 根据规范来完成编码。这种一步步的工作流程能保证每一步都有依据,实现从需求到代码的准确转化。

    让我来分析一下这个场景

    上面提到将开发过程划分为四个关键阶段,所以要完成 “需求分析、技术设计、任务拆解” 的飞书文档撰写,还有最终的代码实现。为此,我们需要不同的技能来满足不同场景下的文档编写需求,并且要教会 Agent 如何使用飞书工具进行创作协同。

    下面我们就一起完成上面提到的 Skills 的设计实现。

    多角色专家 Skills

    通过实现多角色 Skills 通过创建多个交付物过程文档,约束后续的编码,为编码提供足够且明确的上下文,每个Skill 专注完成一件事

    • 下面让我们进一步详细设计

    ​按照上述的表格我们就可以大致明确我们需要的 Skills 该如何实现了。

    • 本次只作为一个例子大家可以参考上面创建 Skill 的教程自己完成一下这个多角色 Skills 的创建和调试,当然正如上面所述好的 Skill 需要在实践中逐渐优化并通过场景调用不断进行优化的

    飞书文档使用 Skill

    飞书文档的格式是 markdown 的超集,我们 Skill 的目的则是教会 Agent 飞书文档的语法,便于 Agent 写出符合格式的 md 文件。并通过约束 Agent 行为,充分利用飞书文档的评论的读写完成多人协作审阅的过程,用户通过在飞书文档评论完成相关建议的提出,Agent 重新阅读文档和评论,根据建议进一步优化文档,实现文档协作工作流。

    Spec Coding Skill

    上面我们实现了多个角色 Skills 和一个功能 Skill,但实际使用时,还需要有一个能统筹全局的技能,来实现分工协作。把上述多个技能组合起来,告诉智能体(agent)整体的规格编码(spec coding)流程,完成工具技能和角色技能的组合与调度。

    如此我们就能快速搭建一个规格编码工作流程,完成基础开发。当然也可以参考上面的逻辑,用技能来重新复刻社区里的规格编码实践(如 SpecKit、OpenSpec 等)。

    总结

    上述场景提到了两种不同风格的 Skill(角色型,工具型),利用 Skill 的动态加载机制(取代固定规则的一次性加载方式),完成了复杂场景下的任务分解;通过 不同角色技能的分工协作(避免 Agent 什么都做导致执行混乱);尝试借助飞书文档形成协作闭环(打通人机交互的最后一步),有效解决了 Agent “不听话、执行乱、工具少” 的问题,让 AI 从 “对话助手” 真正转变为 “可信赖的实干家”,实现从需求提出到代码产出的高效、精准、协作式交付。

  • 给我的 OpenClaw 小龙虾装上声音,感觉它活了过来。

    我在 GitHub 上发现了一个刚刚开源的 Skill,它能让你的小龙虾 OpenClaw 开口说话,甚至克隆任何人的音色。
    我已经用上瘾了,一点停不下来了。

    一旦小龙虾拥有了声音,在心理层面上感受到了它的存在,这种变化很微妙。

    而且安装很简单,一句话让小龙虾自己安装。后面会给教程。

    开源地址:https://github.com/NoizAI/skills

    01

    听听效果

    先来听听实际的效果。哈哈哈哈哈哈 
    我装了 NoizAI 的 Skill 后,丢了一段川普的音频给我的 OpenClaw 小龙虾「钱多多」。
    它立即对川普的音色进行了克隆,并且转化成了自己的音色。
    而且我告诉它,后面这个就是它的音色了。
    哈哈哈哈哈哈。
    听到我的小龙虾说话的时候,我笑死了。
    我脑海里,我的小龙虾是一个说中文的贱兮兮嬉皮笑脸的特朗普。
    我看有其它网友也都纷纷接入这个 NoizAI Skill,飞书、whatsapp、telegram 中用了起来。
    尤其是最近 Agent Teams 很火,配置了一群小龙虾帮你干活。
    有的做运营、有的做客服、有的写代码啥的。
    就有人让 OpenClaw🦞根据不同的角色用不同的音色回复,感觉有了一群不同的小蜜在你旁边叽叽喳喳。
    特别是在开车、做家务等不便看屏幕的场景下,小龙虾能通过声音传递人设。
    不同 AI 助理对应不同声线,无需视觉确认,听声音就知道是谁在和你对话,这种高辨识度的交互才是真正的智能。

    02

    怎么安装?

    特别简单,如果你的小龙虾能够读取网页,你直接把下面这段话丢给你的龙虾就行了:

    帮我装这个 Skill:https://github.com/NoizAI/skills

    当你装完这个 Skill,会发现它支持两种模式,一种是本地 Kokoro 和云端 Noiz。
    根据自己的需求让小龙虾自己配置就行了:
    Kokoro 支持纯本地化运行,需要下载一个模型,但是没办法克隆音色。
    也可以使用 Noiz 云端,我用的就是 Noiz云端的能力,大额免费额度。整个过程你需要问其它 AI,遇到卡点直接问你的小龙虾就行了.
    配置了 Noiz API Key 后,你就能让你小龙虾说话了。
    你想让龙虾具备什么音色,可以去官方的音色类别选。或者直接丢给它一个参考音频就行了,它会自己克隆。
    然后小龙虾会告诉你已经克隆成功啦。
    你给它说:记住刚刚你克隆的这个音色就是你的音色了。后面我让你发语音的时候,你就用这个音色给我发语音。当然如果在某些场景或某些时刻你觉得发语音合适,也可以直接发。

    有一个提示,如果你的小龙虾没办法给你发语音。你就和他对话,让它学习就行了。

    实在不行,就发下面这句话给它,再试试。

    飞书语音条正确的发送方式:上传文件:file_type=opus(不是 mp3),需要 receive_id_type=chat_id 和 receive_id</span>发送消息:msg_type=audio,receive_id_type=chat_id,content 包含 file_key 和 duration

    03

    开源 Skill 简介

    这个开源项目是 Noiz AI 平台开源的。

    Noiz AI 本身是一个专注于语音 AI 的平台,它具备高质量的语音克隆、情感化 TTS 以及高效的 YouTube 视频摘要功能。

    刚刚开源的 NoizAI/skills 项目提供了 5 个核心 SKill:几乎涵盖了 AI Agent 和 AI 语音结合的方方面面。

    开源地址:https://github.com/NoizAI/skills

    ① 文本转语音 Skill:支持 Kokoro / Noiz,简单模式、时间轴精确渲染、精确时长控制与参考音频音色克隆。

    ② 用目标人物的声音进行对话:自动在线寻找其语音、提取干净参考样本,并生成语音回复。

    ③ 特色语音 SKill:通过语气词、情绪参数和场景预设,让生成语音更有陪伴感和人格化表达。

    ④ 视频翻译 Skill:将视频语音翻译成另一种语言,用 TTS 生成配音并替换原始音轨,同时保留视频画面。

    # 查看 GitHub 仓库可安装技能npx skills add NoizAI/skills --list --full-depth# 从 GitHub 仓库安装指定技能npx skills add NoizAI/skills --full-depth --skill tts -y# 从 GitHub 仓库安装npx skills add /# 本地开发调试(在仓库目录执行)npx skills add . --list --full-depth

    NoizAI 把高级音视频 AI 处理能力转化为开发者可调用的原子化技能。

    如果你想让你的 AI 机器人不再仅仅是一个聊天框,而是会用人声说话的情感助手,可以试试 。

  • LLM模型部署与微调

    已经了解了大模型的基础概念、RAG、Agent、Transformer架构等核心知识。今天,我们将学习如何将预训练模型适配到自己的业务场景(微调),并将其稳定、高效地部署到生产环境(部署)

    微调让模型更懂你的业务,部署让模型真正服务于用户。两者结合,是AI应用落地的最后一公里。

    一、为什么需要微调?

    预训练大模型(如GPT-4、LLaMA)已经具备通用能力,但在特定场景下可能表现不佳:

    ● 风格不符:回答不够专业、语气不匹配。

    ● 知识缺失:不了解你的产品、公司内部术语。

    ● 结构要求:需要输出特定格式(JSON、表格)。

    ● 成本考量:频繁调用API成本高,微调小模型更划算。

    1.1 微调 vs 提示工程 vs RAG

    方法适用场景优点缺点
    提示工程临时、简单任务无需训练,即时生效复杂任务不稳定,Token消耗大
    RAG知识问答、私有数据实时更新,可解释依赖检索质量,延迟稍高
    微调风格、格式、特定领域深度定制,性能稳定需要训练数据,成本较高

    三者常结合使用:微调让模型“学会”你的领域知识,RAG提供实时信息,提示工程优化交互。

    二、微调的核心流程

    微调是在预训练模型的基础上,用少量任务相关数据继续训练,调整模型参数。

    2.1 微调步骤

    1. 数据准备:收集、清洗、格式化训练数据。

    2. 选择基座模型:根据需求选择合适模型(如LLaMA、ChatGLM、Qwen)。

    3. 微调方法:全量微调或参数高效微调(PEFT)。

    4. 训练:设置超参数,启动训练。

    5. 评估与迭代:用验证集评估效果,调整数据或参数。

    6. 导出与部署:保存模型,量化优化,部署服务。

    2.2 数据准备

    ● 数据格式:通常采用“指令-回答”对(instruction-input-output)或对话格式。

    ● 数量要求:几百条可看到初步效果,数千条以上效果更稳定。

    ● 质量优先:清洗数据,保证答案准确、风格一致。

    示例数据(JSONL格式):

    {"instruction": "解释什么是RESTful API", "output": "RESTful API是一种基于HTTP的架构风格,使用资源概念和标准HTTP方法(GET、POST、PUT、DELETE)进行通信。"}
    {"instruction": "将以下英文翻译成中文:Hello world", "output": "你好世界"}

    2.3 微调方法

    方法说明优点缺点
    全量微调更新所有参数效果最好需要大量显存,训练慢
    LoRA低秩适配,只训练少量额外参数显存占用小,训练快,易切换效果略逊于全量
    QLoRALoRA + 量化4-bit量化,单卡可微调几十B模型精度略有损失
    Adapter插入小型网络层参数少,易插拔推理略增开销

    目前LoRA/QLoRA是主流,尤其适合资源有限的环境。

    三、微调实战:用LLaMA-Factory微调Qwen

    LLaMA-Factory是一个易用的微调框架,支持多种模型和方法。以下示例使用Qwen-7B进行LoRA微调。

    3.1 环境准备

    git clone 
                https://github.com/hiyouga/LLaMA-Factory.git
    
    cd LLaMA-Factory
    pip install -r 
                requirements.txt
    

    3.2 数据准备

    将训练数据放在 data 目录,格式为JSON,并在 data/ dataset_info.json  中注册。

    3.3 启动微调

    python src/
                train_bash.py
               \
        --stage sft \
        --model_name_or_path Qwen/Qwen-7B \
        --dataset my_dataset \
        --template qwen \
        --finetuning_type lora \
        --lora_target q_proj,v_proj \
        --output_dir ./output \
        --per_device_train_batch_size 4 \
        --gradient_accumulation_steps 4 \
        --learning_rate 5e-5 \
        --num_train_epochs 3 \
        --fp16

    3.4 合并权重并导出

    训练完成后,将LoRA权重合并到基座模型,便于部署:

    from peft import PeftModel
    from transformers import AutoModelForCausalLM, AutoTokenizer

    base_model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-7B")
    tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B")
    model = PeftModel.from_pretrained(base_model, "./output")
    merged_model = model.merge_and_unload()
    merged_model.save_pretrained("./merged_model")
    tokenizer.save_pretrained("./merged_model")

    四、模型部署:从训练到服务

    部署的目标是将模型以API或服务的形式提供给其他系统调用。

    图片

    4.1 部署方式对比

    方式适用场景优点缺点
    模型API服务通用,快速上线简单,无需管理硬件依赖第三方,成本可控性差
    自托管(GPU)高频调用、数据敏感完全控制,长期成本低需运维GPU集群
    边缘端离线、低延迟无网络依赖模型需压缩,性能受限
    Serverless间歇调用按需付费,免运维冷启动延迟

    4.2 常用部署工具

    工具特点适用场景
    vLLM高吞吐、PagedAttention高并发生产环境
    TGIHugging Face出品,功能全企业级部署
    FastAPI + Transformers简单灵活原型、内部工具
    Ollama一键运行,本地友好开发测试
    TensorRT-LLMNVIDIA优化,极致性能大规模生产

    4.3 部署实战:使用vLLM部署微调后的模型

    安装vLLM:

    pip install vllm

    启动服务:

    python -m 
                vllm.entrypoints.openai.api_server
               \
        --model ./merged_model \
        --port 8000

    调用API:

    import openai
    openai.api_base = "http://localhost:8000/v1"
    openai.api_key = "EMPTY"

    response = openai.ChatCompletion.create(
        model="./merged_model",
        messages=[{"role": "user", "content": "解释什么是微调"}]
    )
    print( response.choices[0].message.content)

    4.4 部署优化要点

    ● 量化:使用GPTQ、AWQ等量化技术,减少显存占用,提升推理速度。

    ● 批处理:动态批处理提高吞吐量。

    ● 缓存:对常见问题缓存结果,降低负载。

    ● 流式输出:提升用户体验,尤其对于长文本生成。

    五、后端开发视角:集成微调模型

    作为后端工程师,将微调模型集成到系统时需考虑:

    ● API设计:统一封装模型调用接口,便于前端和服务调用。

    ● 异步处理:耗时任务放入消息队列,避免阻塞。

    ● 监控与日志:记录请求、响应、耗时,用于质量分析和成本核算。

    ● 灰度发布:新模型先小流量验证,再全量切换。

    ● 版本管理:保存多个模型版本,支持回滚和A/B测试。

    三、微调实战:用LLaMA-Factory微调Qwen

    LLaMA-Factory是一个易用的微调框架,支持多种模型和方法。以下示例使用Qwen-7B进行LoRA微调。

    3.1 环境准备

    git clone 
                https://github.com/hiyouga/LLaMA-Factory.git
              
    cd LLaMA-Factory
    pip install -r requirements.txt

    3.2 数据准备

    将训练数据放在 data 目录,格式为JSON,并在 data/ dataset_info.json  中注册。

    3.3 启动微调

    python src/
                train_bash.py
               \
        --stage sft \
        --model_name_or_path Qwen/Qwen-7B \
        --dataset my_dataset \
        --template qwen \
        --finetuning_type lora \
        --lora_target q_proj,v_proj \
        --output_dir ./output \
        --per_device_train_batch_size 4 \
        --gradient_accumulation_steps 4 \
        --learning_rate 5e-5 \
        --num_train_epochs 3 \
        --fp16

    3.4 合并权重并导出

    训练完成后,将LoRA权重合并到基座模型,便于部署:

    from peft import PeftModel
    from transformers import AutoModelForCausalLM, AutoTokenizer

    base_model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-7B")
    tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B")
    model = PeftModel.from_pretrained(base_model, "./output")
    merged_model = model.merge_and_unload()
    merged_model.save_pretrained("./merged_model")
    tokenizer.save_pretrained("./merged_model")

    四、模型部署:从训练到服务

    部署的目标是将模型以API或服务的形式提供给其他系统调用。

    图片

    4.1 部署方式对比

    方式适用场景优点缺点
    模型API服务通用,快速上线简单,无需管理硬件依赖第三方,成本可控性差
    自托管(GPU)高频调用、数据敏感完全控制,长期成本低需运维GPU集群
    边缘端离线、低延迟无网络依赖模型需压缩,性能受限
    Serverless间歇调用按需付费,免运维冷启动延迟

    4.2 常用部署工具

    工具特点适用场景
    vLLM高吞吐、PagedAttention高并发生产环境
    TGIHugging Face出品,功能全企业级部署
    FastAPI + Transformers简单灵活原型、内部工具
    Ollama一键运行,本地友好开发测试
    TensorRT-LLMNVIDIA优化,极致性能大规模生产

    4.3 部署实战:使用vLLM部署微调后的模型

    安装vLLM:

    pip install vllm

    启动服务:

    python -m 
                vllm.entrypoints.openai.api_server
               \
        --model ./merged_model \
        --port 8000

    调用API:

    import openai
    openai.api_base = "http://localhost:8000/v1"
    openai.api_key = "EMPTY"

    response = openai.ChatCompletion.create(
        model="./merged_model",
        messages=[{"role": "user", "content": "解释什么是微调"}]
    )
    print( response.choices[0].message.content)

    4.4 部署优化要点

    ● 量化:使用GPTQ、AWQ等量化技术,减少显存占用,提升推理速度。

    ● 批处理:动态批处理提高吞吐量。

    ● 缓存:对常见问题缓存结果,降低负载。

    ● 流式输出:提升用户体验,尤其对于长文本生成。

    五、后端开发视角:集成微调模型

    作为后端工程师,将微调模型集成到系统时需考虑:

    ● API设计:统一封装模型调用接口,便于前端和服务调用。

    ● 异步处理:耗时任务放入消息队列,避免阻塞。

    ● 监控与日志:记录请求、响应、耗时,用于质量分析和成本核算。

    ● 灰度发布:新模型先小流量验证,再全量切换。

    ● 版本管理:保存多个模型版本,支持回滚和A/B测试。

    六、总结与展望

    核心要点

    维度关键内容
    微调用业务数据让模型更贴合场景,常用LoRA/QLoRA
    数据准备指令-回答对,质量重于数量
    部署工具vLLM(高吞吐)、TGI(企业级)、Ollama(本地)
    优化量化、批处理、缓存、流式输出
    后端集成API设计、异步、监控、灰度、版本管理

  • 如何用微信接入小龙虾保姆教程!

    微信,正式接入了 OpenClaw。

    一句话翻译就是:你的微信,可以直接操控一个 AI 助手了。不是聊天机器人那种简单问答,而是——帮你写东西、查资料、改代码、做任务,甚至远程帮你操作电脑。说实话,这一步,比很多人想象的要大得多。

    话不多说,我们赶紧尝鲜一下。

    1.先升级微信

    这个新的功能必须在新的微信上可以用,而且是ios系统,苹果的手机上是可以的(电脑端我们没有试),在app store找到最新的这个版本

    2.找到微信插件

    在最新的微信里面,点击我的,然后在设置/插件 找到小龙虾的插件

    可以看到插件里面增加微信clawBot这个插件,其实就是一个跟openclaw连接的工具,点击详细可以看到这样的页面:

    然后我们需要到运行的openclaw的服务器上去安装一些这个微信插件。

    3.打开你的openclaw服务器

    我用的是腾讯云的openclaw服务器(具体如何零基础安装openclaw和配置这个我们星球都有详细的教程),然后在你的服务器上敲下面的命令:

    1).首先要看一下你的服务器必须有 Node.js

    先执行:

    node -v
    npm -v

    会出现类似这样的:

    [root@VM-0-15-opencloudos ~]# node -v
    v22.22.0
    [root@VM-0-15-opencloudos ~]# npm -v
    10.9.4
    [root@VM-0-15-opencloudos ~]#

    如果有版本号(比如 v22)说明你的服务器已经安装了nodejs,否则需要安装一下。好,我们这个服务器已经安装好了,我们下面继续:

    2).安装微信openclaw插件

    敲:npx -y @tencent-weixin/openclaw-weixin-cli@latest install

    敲了命令之后就会开始安装了

    4.打开微信扫码

    把微信打开,然后扫一下这个服务器上的二维码即可(注意扫描有时间限制,二维码会过期),如果过期会继续生成二维码,然后再扫一下即可。

    扫完之后,点击链接即可,就可以连上小龙虾了。

    有兴趣的赶紧试一下。目前微信这个动作非常大,毕竟是14亿人使用的app  相信微信后面还有更大的动作,商业价值非常大。目前还不会使用小龙虾的可以赶紧学起来!

  • GPT-5.4×OpenClaw:从模型升级到可落地的智能体生产力

    这不是一篇比拼参数的技术评测,而是聚焦「AI落地实战」的生产力观察。 过去一周,GPT-5.4的相关新闻与测评密集释出,主流媒体和科技评测机构的结论高度一致:它的推理与长任务处理能力显著增强,针对智能体(Agent)的优化方向清晰可见,事实性输出准确率也有明显提升——当然,仍需人工校验确保严谨性。 但如果仅把GPT-5.4当作「更会聊天的AI」,你只挖掘到了它30%的价值。真正的价值分水岭,在于它能否嵌入稳定的业务工作流,持续、可靠地交付可复用结果。而这,正是OpenClaw的核心强项。

    为什么说OpenClaw是GPT-5.4的「生产力放大器」?

    很多企业已经引入了优秀的大模型,但团队生产力并未真正提升,根源往往在于三个「断点」: – 模型在网页端,业务在IM工具里,能力与场景割裂; – 任务流程只存在于员工脑子里,没有固化为标准流程,无法复用; – 多是临时对话式的零散使用,缺乏可持续的运营机制。 OpenClaw的价值,就是把这些断点串联成闭环:

    1. 多渠道统一入口

    无需切换不同平台,在Telegram、Discord、WhatsApp、iMessage等主流即时通讯渠道,都能直接触发同一个智能体的能力,让AI能力与业务场景无缝对接。

    2. 会话与记忆可管理

    告别「每次对话从零开始」的低效模式,通过会话(session)管理、上下文记忆、工具链调用和可追踪状态,让AI能承接有延续性的复杂任务。

    3. 原生自动化能力

    借助定时任务(cron)、心跳监测(heartbeat)、触发钩子(hooks)等机制,把「偶发的人工提问」转化为「自动触发的持续交付」,让AI主动完成工作。

    4. 支持多智能体隔离

    针对销售助理、财务助理、技术助理等不同角色,可设置独立工作区、专属配置和权限体系,让不同智能体各司其职,避免能力冲突。 一句话总结:GPT-5.4让单点AI能力更聪明,OpenClaw则把单点能力整合成了可落地、可复用、可持续的生产力系统。

    可直接复制的落地案例:GPT-5.4+OpenClaw打造内容运营自动化

    我们以微信公众号运营/内容团队的「每周AI行业快评」为例,拆解一套可直接复用的落地流程:

    Step1:自动化采集

    通过OpenClaw的定时任务功能,自动抓取行业重点媒体新闻、权威机构评测、官方技术文档等信息源,同时过滤重复内容与低质量信息,确保素材的精准性。

    Step2:模型智能归纳

    调用GPT-5.4对采集到的素材进行处理,按照「3条核心行业变化+2条行业争议点+1条实操建议」的固定框架,生成面向普通读者的通俗版本,避免技术术语堆砌。

    Step3:人工审稿把关

    对GPT-5.4的输出进行事实核验,调整过于夸张的表述,并加入团队的业务视角与行业判断,确保内容的严谨性和实用性。

    Step4:多渠道智能分发

    基于同一核心内容,OpenClaw自动生成适配不同场景的版本:微信公众号完整正文、社群传播的精简摘要、供团队内部参考的策略版,同步分发到对应渠道。 这套流程的核心,不是「写一篇文章」,而是每周稳定输出高质量内容——把偶发的创意工作,变成可标准化的持续生产力。

    给团队的三个实操建议:避免AI落地「高开低走」

    建议1:先定义「输出格式」,再追求「模型效果」

    如果输出格式不稳定,团队就无法复用AI结果。在测试模型能力前,先统一输出模板,比如固定为「开场结论+三点核心拆解+反方观点+行动建议」的结构,让AI的输出能直接对接业务需求。

    建议2:把「审稿规则」转化为系统规则

    将人工审稿的经验固化为可执行的系统规则:比如涉及数据必须标注来源、所有结论需明确适用边界、预测类内容必须标注「仅为判断,非既定事实」,用规则降低人工校验的成本。

    建议3:用OpenClaw实现「流程资产化」

    不要把AI能力绑定在某个人身上,而是通过OpenClaw沉淀可复用的「流程资产」:包括定时任务配置、标准提示词模板、多渠道触达规则、全流程版本记录,让新人也能快速承接工作,避免人员变动导致的能力断层。

    结语:2026年的竞争,是「AI生产力系统」的竞争

    现在仍有很多人在争论「哪个模型参数更高、能力更强」,但企业真正应该思考的是:你是否已经把模型能力,转化为可持续、可复制、可审计的业务流程? GPT-5.4代表了当前AI能力的「上限」,决定了团队的想象力边界;而OpenClaw代表了AI落地的「下限」,决定了想象力能否转化为实际结果。 如果你已经在使用GPT-5.x系列模型,现在最有价值的下一步,不是继续比拼模型跑分,而是把你的内容、运营、分析、协作流程,接入一个稳定的智能体网关(Agent Gateway)。只有走完这一步,AI才真正从「辅助工具」,变成驱动业务增长的「生产力系统」。

  • OpenClaw 源码架构深度解析

    引言

    OpenClaw(原Clawdbot)作为当前全球最炙手可热的开源AI Agent框架,其GitHub星标数已超越Linux和React,登顶全球榜首。它的爆火绝非偶然——这套架构完美解决了AI Agent落地的“最后一公里”问题,实现了从云端大脑到本地肢体的无缝协同。

    本文将深入OpenClaw源码,从四层架构插件化重构三级记忆系统Gateway-Pi执行链路四个维度,彻底拆解这套系统的设计哲学与实现细节。

    一、整体架构:四层解耦设计

    OpenClaw采用经典的四层解耦架构,从外到内依次是:交互层、网关层、智能体层、执行层。这种分层设计确保了各模块职责清晰、可独立演进。

    ┌─────────────────────────────────────────────────────────────┐
    │                        交互层 (Channels)                      │
    │  ┌──────────┐ ┌──────────┐ ┌──────────┐ ┌──────────┐      │
    │  │ WhatsApp │ │ Telegram │ │  飞书    │ │  iMessage │  ...  │
    │  └──────────┘ └──────────┘ └──────────┘ └──────────┘      │
    └─────────────────────────────────────────────────────────────┘
                                  │
                                  ▼
    ┌─────────────────────────────────────────────────────────────┐
    │                     网关层 (Gateway)                          │
    │             路由 · 排队 · 调度 · 鉴权 · 协议转换                │
    └─────────────────────────────────────────────────────────────┘
                                  │
                                  ▼
    ┌─────────────────────────────────────────────────────────────┐
    │                     智能体层 (Agent)                           │
    │  ┌────────────┐ ┌────────────┐ ┌────────────┐              │
    │  │会话管理器   │ │上下文组装器 │ │ 记忆系统   │              │
    │  └────────────┘ └────────────┘ └────────────┘              │
    │  ┌────────────┐ ┌────────────┐                              │
    │  │执行循环     │ │工具调用     │                              │
    │  └────────────┘ └────────────┘                              │
    └─────────────────────────────────────────────────────────────┘
                                  │
                                  ▼
    ┌─────────────────────────────────────────────────────────────┐
    │                      执行层 (Execution)                       │
    │  ┌──────────┐ ┌──────────┐ ┌──────────┐ ┌──────────┐      │
    │  │ 本地节点  │ │ 远端节点  │ │  技能    │ │  沙箱    │      │
    │  └──────────┘ └──────────┘ └──────────┘ └──────────┘      │
    └─────────────────────────────────────────────────────────────┘

    1.1 交互层:抹平所有IM差异

    交互层的核心职责是协议适配。OpenClaw内置支持8个核心通道(Telegram、WhatsApp、Discord等),并通过插件系统支持超过50个扩展通道。

    源码中,每个通道都是一个独立的插件,必须实现统一的ChannelPlugin接口:

    export type ChannelPlugin = {
      id: ChannelId;              // 通道唯一标识
      meta: ChannelMeta;          // 通道元信息
      capabilities: ChannelCapabilities; // 能力声明
      config: ChannelConfigAdapter;      // 配置管理

    // 可选实现
      outbound?: ChannelOutboundAdapter;  // 发送消息
      pairing?: ChannelPairingAdapter;    // 配对逻辑
      messaging?: ChannelMessagingAdapter; // 消息处理
    // ...
    }

    这种设计的精妙之处在于:核心模块不面向任何具体IM编程,只面向接口编程。无论未来出现什么新的IM工具,只要实现这套接口,就能无缝接入OpenClaw生态。

    1.2 网关层:系统的控制中枢

    Gateway是整个OpenClaw的核心服务,作为一个常驻的Node.js进程,它承担着:

    1. 路由:根据消息来源分配给对应的会话
    2. 排队:实现“车道式队列”(Lane Queue),默认串行、显式并行
    3. 调度:管理定时任务(Heartbeat)
    4. 鉴权:验证请求合法性
    5. 协议转换:将不同通道的消息统一成内部格式

    网关层的核心实现在src/gateway/server.py中,关键代码片段:

    # gateway/dispatcher.py
    def dispatch_task(payload):
        # 提取意图,过滤无用的对话历史
        intent = extractor.analyze(payload.content)
        # 匹配最合适的执行节点
        node_id = registry.get_active_node(payload.affinity)
        return forward_to_node(node_id, intent)

    Gateway还维护着节点的心跳机制(默认使用Redis),如果节点失联,指令会被正确路由到其他可用节点。

    二、插件化重构:从单体到生态

    2026年初,OpenClaw通过PR #661完成了重大插件化重构,这是架构演进的分水岭。

    2.1 单体架构的技术债务

    重构前,添加一个新模型提供商需要修改4个核心文件:

    • 继承BaseProvider抽象类
    • providers/index.ts手动注册
    • model-router.ts添加路由分支
    • 更新配置Schema

    路由文件充斥着大量的else-if分支,代码复杂度随提供商数量线性增长:

    // 重构前的路由逻辑
    exportclass ModelRouter {
    async route(model: string, ...args) {
        if (model.startsWith('anthropic/')) {
          returnthis.anthropicProvider.call(...args);
        } elseif (model.startsWith('openai/')) {
          returnthis.openaiProvider.call(...args);
        } elseif (model.startsWith('gemini/')) {
          returnthis.geminiProvider.call(...args);
        }
        // ... 还有15+个else-if
      }
    }

    2.2 插件化架构设计

    重构后的架构核心是接口标准化+动态加载

    // packages/core/src/provider-interface.ts
    export interface Provider {
      readonly name: string;
      readonly version: string;
      
      chat(messages: Message[], options: ChatOptions): AsyncIteratorstring>;
      estimateTokens(text: string): number;
      getSupportedFeatures(): ProviderFeatures;
    }

    动态加载机制通过ProviderLoader实现:

    export class ProviderLoader {
    private providers = new Mapstring, Provider>();

    async loadFromPackage(packageName: string): Promisevoid> {
        constmodule = await import(packageName);  // 动态导入
        if (!this.validateProvider(module.default)) {
          thrownewError(`Invalid provider: ${packageName}`);
        }
        const provider = newmodule.default();
        this.providers.set(provider.name, provider);
      }
    }

    重构后的路由逻辑从O(n)降为O(1):

    export class ModelRouter {
      async route(model: string, ...args) {
        const [providerName] = model.split('/');
        const provider = this.loader.getProvider(providerName);
        if (!provider) throw new Error(`Provider not found: ${providerName}`);
        return provider.chat(...args);
      }
    }

    2.3 插件化的四大优势

    1. 依赖隔离:核心框架从45MB降至8MB
    2. 并行开发:社区可独立开发插件,无需等待核心迭代
    3. 版本自治:各插件独立版本,可单独更新
    4. 安全增强:沙箱机制+权限声明,风险可控

    三、记忆系统:三级存储架构

    OpenClaw的记忆系统是其最惊艳的设计之一。它采用三级记忆架构,模拟人类记忆的分层特性。

    3.1 工作区结构

    每个Agent对应一个独立的工作区:

    ~/.openclaw/workspace/
    ├── MEMORY.md                # 长期记忆
    ├── memory/
    │   ├── 2026-03-10.md        # 今日日志(短期)
    │   └── 2026-03-09.md        # 昨日日志
    ├── sessions/                 # 会话存档(近端)
    ├── USER.md                   # 用户身份
    └── SOUL.md                   # Agent人格设定

    3.2 存储层:SQLite + 向量

    每个Agent对应一个独立的SQLite数据库,表结构设计精巧:

    -- 文件元数据
    CREATETABLE files (
    idINTEGER PRIMARY KEY,
    pathTEXTUNIQUE,
      mtime INTEGER,    -- 修改时间,用于增量索引
    hashTEXT         -- 内容哈希,去重
    );

    -- 文本块存储
    CREATETABLE chunks (
    idINTEGER PRIMARY KEY,
      file_id INTEGER,
    textTEXT,
    hashTEXTUNIQUE-- 文本哈希,跨文件去重
      embedding TEXT    -- JSON序列化的向量
    );

    -- 全文搜索(FTS5)
    CREATEVIRTUALTABLE chunks_fts USING fts5(textcontent=chunks);

    -- 向量搜索(sqlite-vec)
    CREATEVIRTUALTABLE chunks_vec USING vec0(embedding float[1536]);

    3.3 混合检索策略

    OpenClaw的核心检索工具memory_search实现了BM25 + 向量的混合检索:

    async function hybridSearch(query, options = {}{
    const vecWeight = 0.7;   // 向量权重
    const bm25Weight = 0.3;  // BM25权重

    // 分别检索(取并集)
    const vectorResults = await vectorSearch(query);
    const bm25Results = await bm25Search(query);

    // 合并并计算综合得分
    const allChunkIds = new Set([
        ...vectorResults.map(r => r.id),
        ...bm25Results.map(r => r.id)
      ]);

    // 加权平均后排序返回
    }

    这套算法的关键在于并集而非交集——只要任一方法认为相关,就有机会进入候选池。

    3.4 优雅降级

    如果sqlite-vec扩展未安装,系统会自动回退到JS暴力计算:

    try {
    // 快速路径:数据库内计算余弦距离
    returnawait db.all(`SELECT ... vec_distance_cosine(...)`);
    catch (err) {
    // 回退路径:全量加载到内存暴力计算
    const allChunks = await db.all("SELECT * FROM chunks");
    return allChunks.map(chunk => ({
        ...chunk,
        dist: cosineSimilarity(queryVector, JSON.parse(chunk.embedding))
      })).sort((a, b) => a.dist - b.dist).slice(0, limit);
    }

    四、执行层:Gateway-Pi 架构

    OpenClaw最硬核的部分是其云端大脑+本地肢体的设计。

    4.1 三层执行链路

    1. Orchestrator(大脑):云端部署,负责LLM推理和任务拆解
    2. Gateway(协议桥):鉴权、流量整形、指令翻译
    3. Pi-embedded(执行端):运行在本地设备,真正执行脚本

    4.2 沙箱隔离机制

    Pi-embedded实现了一套名为 “Cell Isolation” 的沙箱机制:

    # packages/pi-embedded/runtime/executor.py
    class ExecutionEngine:
        def execute(self, skill_code):
            # 环境快照
            snapshot = self.take_snapshot()
            
            # 在独立venv中运行
            with self.isolated_venv() as venv:
                # 动态安装依赖
                self.install_dependencies(skill_code.dependencies)
                # 执行技能
                result = venv.run(skill_code)
            
            # 恢复环境
            self.restore_snapshot(snapshot)
            return result

    4.3 完整调用链追踪

    以“查CPU温度并生成图表”为例,完整调用链如下:

    1. Orchestrator → 识别技能需求 → 生成JSON指令
    2. Gateway → 验证签名 → 查找在线Pi节点 → Protobuf封装 → WebSocket发送
    3. Pi-embedded → 接收消息 → 解包
    4. Sandbox → 启动临时Python进程 → 挂载传感器权限
    5. Skill Execution → 执行get_temp.py
    6. Callback → 结果(图片二进制)原路返回

    五、Agent核心配置

    每个Agent的workspace中包含多个核心配置文件:

    文件
    作用
    AGENTS.md
    Agent职责声明,决定工具权限
    SOUL.md
    个性化提示词,注入system prompt
    TOOLS.md
    工具白名单/黑名单,安全边界
    IDENTITY.md
    身份标识(name/avatar),通道展示
    USER.md
    用户偏好,上下文先验
    HEARTBEAT.md
    定时任务配置
    MEMORY.md
    长期记忆文档(RAG源)

    源码中通过loadWorkspaceBootstrapFiles方法加载这些文件:

    // src/agents/workspace.ts:498-555
    export async function loadWorkspaceBootstrapFiles(dir: string{
      const entries = [
        { name: "AGENTS.md", filePath: path.join(resolvedDir, "AGENTS.md") },
        { name: "SOUL.md", ... },
        { name: "TOOLS.md", ... },
        // ...
      ];
      // 动态检测MEMORY.md
    }

    六、架构设计的优缺点

    6.1 核心优势

    • 零运维:SQLite单文件,无需复杂数据库
    • 数据私有:全本地存储,不上云
    • 可审计:记忆透明,Markdown文件可读
    • 增量索引:只处理变更文件,效率高
    • 优雅降级:从向量→BM25→纯文本,逐级回退
    • 插件生态:60+官方技能,社区持续贡献

    6.2 现存挑战

    • Token消耗偏高:记忆系统是主要原因
    • 向量检索不懂关系:能找到个体但推不出关系
    • 维护成本线性增长:文件越多,索引维护越复杂
    • 长连接抖动:WebSocket 1006错误常见
    • 小白门槛:虽零运维,但需懂文件结构

    七、实战建议

    7.1 定期记忆体检

    长期记忆文件会随时间膨胀,建议每月手动过一遍MEMORY.md,删过时、并重复。

    7.2 教会Agent分类

    在系统提示词中引导分类:

    • “我喜欢/习惯” → preferences.md
    • “我要做一个” → projects.md
    • “解决了” → learnings.md

    7.3 善用Heartbeat

    openclaw cron add --name "记忆维护" 
      --cron "0 3 *" 
      --system-event "运行记忆整理:合并相似项,删除低价值项,生成摘要"

    7.4 显式限定搜索范围

    memory_search({ query: "...", scope: ["learnings.md"] })

    结语

    OpenClaw的架构设计给我最大的启发是:AI的记忆和执行不应该是黑盒。用Markdown存真相,用SQLite建索引,用BM25+向量做检索,用Gateway-Pi做执行——这套组合拳既保证了功能强大,又让一切透明可控。

    在这个所有AI都想“记住你”的时代,OpenClaw让你能随时打开文件、看清它记住了什么、知道它在哪执行、怎么执行。这种清醒的设计哲学,或许正是它能够超越Linux和React,登顶全球的原因。


    参考资料

    1. OpenClaw三级记忆系统实现揭秘
    2. 2026年OpenClaw插件化重构技术解析
    3. OpenClaw核心源码解读:从Gateway到Pi-embedded
    4. 不会写代码也能懂:OpenClaw四层架构图解
    5. 吃龙虾咯!万字拆解OpenClaw的架构与设计
    6. 关于OpenClaw,你需要了解的:核心架构、运作原理
    7. OpenClaw Architecture Deep Dive 2025



  • OpenClaw 使用 DeepSeek 官方 API_KEY 配置教程

    前言

    找遍全网也没找到如何在openclaw配置deepseek官方apikey,那我自己整一个,以下内容为Claude Code根据我的聊天记录总结生成,希望对想在openclaw使用deepseek官方apikey的人提供帮助。

    系统要求

    • 操作系统: macOS / Linux / Windows (WSL)
    • Node.js: 版本 22+ (推荐使用 nvm 管理)
    • 网络: 需要访问 DeepSeek API (http://api.deepseek.com)

    安装 OpenClaw

    1. 全局安装 OpenClaw

    npm install -g openclaw@latest

    安装过程可能需要 3-5 分钟,会下载约 674 个依赖包。

    2. 验证安装

    openclaw --version

    应该显示类似:🦞 OpenClaw 2026.3.8

    初始化配置

    1. 运行配置向导

    openclaw onboard --install-daemon --non-interactive --accept-risk

    说明:

    • --install-daemon: 安装后台服务
    • --non-interactive: 非交互模式
    • --accept-risk: 接受安全风险声明

    2. 检查服务状态

    openclaw status

    确认 Gateway 服务正在运行。


    配置 DeepSeek 官方 API

    1. 获取 DeepSeek API Key

    访问 DeepSeek 官网 注册并获取 API Key。

    API Key 格式类似:sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

    2. 配置 DeepSeek 提供商

    执行以下命令(将 你的API_KEY 替换为实际的 API Key):

    openclaw config set models.providers.deepseek '{
      "baseUrl": "https://api.deepseek.com/v1",
      "apiKey": "你的API_KEY",
      "api": "openai-completions",
      "models": [
        {
          "id": "deepseek-chat",
          "name": "DeepSeek Chat (V3)"
        },
        {
          "id": "deepseek-reasoner",
          "name": "DeepSeek Reasoner (R1)"
        }
      ]
    }'

    3. 设置默认模型

    openclaw config set agents.defaults.model.primary "deepseek/deepseek-chat"

    4. 创建模型别名(可选)

    openclaw models aliases add deepseek-v3 "deepseek/deepseek-chat"
    openclaw models aliases add deepseek-r1 "deepseek/deepseek-reasoner"

    5. 重启 Gateway 服务

    openclaw gateway restart

    等待 3-5 秒让服务完全启动。

    测试与使用

    1. 命令行测试

    openclaw agent --session-id test --message "你好,请介绍一下你自己"

    如果配置成功,DeepSeek 会用中文回复。

    2. 打开 Web 控制面板

    openclaw dashboard

    浏览器会自动打开控制面板,URL 格式:

    http://127.0.0.1:18789/#token=你的gateway_token

    3. 查看配置状态

    openclaw models status

    应该显示:

    • Default: deepseek/deepseek-chat
    • Configured models: 包含 deepseek 模型

    常用命令

    服务管理

    # 启动 Gateway
    openclaw gateway
    
    # 重启 Gateway
    openclaw gateway restart
    
    # 停止 Gateway
    openclaw gateway stop
    
    # 查看服务状态
    openclaw status
    
    # 查看详细状态
    openclaw status --all
    
    # 查看实时日志
    openclaw logs --follow

    模型管理

    # 列出所有可用模型
    openclaw models list --all
    
    # 查看当前模型配置
    openclaw models status
    
    # 切换模型(在聊天中使用)
    /model deepseek-v3
    
    # 设置默认模型
    openclaw config set agents.defaults.model.primary "模型ID"
    
    # 添加模型别名
    openclaw models aliases add 别名 "模型ID"
    
    # 查看所有别名
    openclaw models aliases list

    对话交互

    # 发送单条消息
    openclaw agent --session-id 会话ID --message "你的问题"
    
    # 指定超时时间(秒)
    openclaw agent --session-id test --message "问题" --timeout 60
    
    # 使用本地模式(不通过 Gateway)
    openclaw agent --local --session-id test --message "问题"

    配置管理

    # 查看配置
    openclaw config get 配置路径
    
    # 设置配置
    openclaw config set 配置路径 "值"
    
    # 删除配置
    openclaw config unset 配置路径
    
    # 运行配置向导
    openclaw configure

    故障排除

    问题 1: Gateway Token 错误

    错误信息disconnected (1008): unauthorized: gateway token missing

    解决方法:

    # 打开带 token 的控制面板
    openclaw dashboard

    或手动获取 token:

    openclaw config get gateway.auth.token

    问题 2: 模型不可用

    错误信息Unknown model: xxx

    解决方法:

    1. 检查模型配置:
      openclaw models status
    2. 确认模型 ID 正确:
      openclaw models list –all | grep deepseek
    3. 重启 Gateway:
      openclaw gateway restart

    问题 3: API Key 无效

    错误信息HTTP 401 或 Unauthorized

    解决方法:

    1. 验证 API Key 是否正确
    2. 检查 API Key 是否过期
    3. 重新配置提供商:
      openclaw config set models.providers.deepseek.apiKey “新的API_KEY” openclaw gateway restart

    问题 4: 连接超时

    错误信息Request timed out 或 No reply from agent

    解决方法:

    1. 检查网络连接
    2. 测试 DeepSeek API 可达性:
      curl -I https://api.deepseek.com/v1/models
    3. 增加超时时间:
      openclaw agent –session-id test –message “测试” –timeout 120

    问题 5: Gateway 无法启动

    解决方法:

    1. 检查端口占用:
      lsof -i :18789
    2. 强制重启:
      openclaw gateway –force
    3. 查看日志:
      openclaw logs
    4. 运行诊断:
      openclaw doctor openclaw doctor –fix

    高级配置

    配置备用模型

    当主模型不可用时,自动切换到备用模型:

    openclaw config set agents.defaults.model.fallbacks '["deepseek/deepseek-reasoner"]'

    配置环境变量

    将以下内容添加到 ~/.zshrc 或 ~/.bashrc

    # DeepSeek API Key (可选,如果已在配置文件中设置)
    export DEEPSEEK_API_KEY="你的API_KEY"
    
    # OpenClaw Gateway Token (可选)
    export OPENCLAW_TOKEN="你的gateway_token"

    然后重新加载配置:

    source ~/.zshrc  # 或 source ~/.bashrc

    配置工作空间

    openclaw config set agents.defaults.workspace "/自定义/工作空间/路径"

    相关资源

    提示: 如果遇到其他问题,可以运行 openclaw doctor --deep 进行深度诊断,或访问官方文档获取更多帮助。

  • OpenClaw最佳工具榜来了,这6款龙虾最受欢迎

    龙虾火出圈后,各类生态工具如雨后春笋般冒头,部署、插件、托管工具五花八门,挑得人眼花缭乱。

    早前ChatGPT GPT Store有趋势榜等各大榜单,现在OpenClaw也有专属的最佳工具榜了。

    最近,一个由第三方搭建的OpenClaw生态工具目录网站——OpenClaw Directory,在多个专业开发者/工具社区获得了曝光和认可。

    目前该网站共收录了39个OpenClaw相关工具,按照功能做了精细化的分类梳理,包括:

    AI Agent Teams(Agent团队协同工作方案)AI Agent Trigger(触发Agent执行任务的机制/工具)Boilerplate(代码模板)Command Centre(控制板)Deployer(部署工具)Hosting(托管服务)Token Optimizer(Token优化工具)Skills(扩展特定功能的技能模块)Plugins(增强OpenClaw能力的插件)

    支持按“必备”、“可定制”、“开源”等标签筛选,也可按“流行”、“最新”、“评分最高”、“A-Z字母序”等方式排序。

    每个工具还清晰标注了工具简介、核心功能、用户评分等关键信息,可以帮助大伙儿快速判断是否适配自己的使用场景。

    OpenClaw最佳工具榜

    话不多说,一起来看这个目录里列举的最受欢迎的OpenClaw工具都有哪些。

    以下是不区分功能类别的综合总榜中,排名前六的精选工具:

    排在第一位的是Claw for All

    简介介绍,Claw for All是一款面向开发者以及普通用户的主打简化OpenClaw部署与管理流程的工具平台,支持在线端和移动应用双端访问。

    核心功能包括:

    • 部署轻松便捷:只需几步点击,即可一键启动你的OpenClaw实例
    • 移动随心管理:专属移动应用,让你随时随地管理账户与实例
    • 界面简洁友好:清爽直观的操作界面,零基础也能轻松上手
    • 支持全面完善:丰富的配套支持资源,助你排查问题、优化OpenClaw使用体验

    工具介绍末尾还列举了与其相似的其它工具。

    排在第二位的是OpenClaw Launch

    OpenClaw Launch同样是一款部署类工具,主打极速、30秒内完成OpenClaw应用的一键部署

    • 一键部署:告别复杂配置,点击即可启动
    • 极速执行:30秒内完成应用部署,效率拉满
    • 友好界面:无论技术水平如何,都能轻松操作
    • 稳定性能:架构可靠,保障项目平稳运行
    • 全面支持:随时获取实用资源与专属协助

    接下来,排在第三位的是一款AI Agent Teams类工具——ClawTeam

    ClawTeam提供专为OpenClaw打造的预制智能体配置方案,核心功能有:

    • 预制配置方案:采用专家级定制的AI智能体配置,开箱即用,大幅节省部署时间
    • 深度适配OpenClaw:基于OpenClaw平台量身打造配置,助力应用程序性能优化
    • 操作简单友好:即便你并非技术专家,也能快速上手,全程无繁琐操作,效率拉满
    • 应用场景丰富:适用于企业、开发者与科研人员,可满足多领域的AI能力落地需求

    排在第四位的vibeclaw就更极限了,号称可以1秒内在浏览器沙箱中本地运行OpenClaw

    据介绍,Vibeclaw专为需要快速、可靠调用OpenClaw的开发者打造,核心优势如下:

    • 瞬时启动:1秒内即可完成部署,彻底告别漫长的安装流程
    • 本地运行:支持OpenClaw本地执行,大幅提升运行速度与性能表现
    • 浏览器沙箱:提供安全隔离环境,有效规避潜在威胁,保障工作安全
    • 界面友好易用:简洁直观的设计适配各技术水平用户,操作毫无门槛

    第五位Tinkerclaw,被分类到了Boilerplate、Deployer一栏。

    关于Tinkerclaw的介绍比较详细。据称,这是一款一站式服务平台,旨在帮助创业者与团队零技术门槛地部署、管理并扩展其OpenClaw AI助手。

    该平台将代配置部署、工作流定制、工具支持、社区权限与持续学习资源整合为一套完整的生态系统。

    官方列举的核心优势包括:

    • 专属定制化OpenClaw部署服务:60-90分钟内完成实时部署;企业级安全加固防护;量身定制契合业务需求的工作流;支持电子邮件、日历、Slack及Composio集成;14天专属跟进支持,提供手把手指导服务;部署失败全额退款保障。
    • 代配置部署对比自主部署核心优势:节省12-20小时以上的手动配置时间;规避Docker配置、安全防护与系统参数设置等常见问题;大幅降低创业者的机会成本;配套提供持续技术支持与详尽文档。
    • OpenClaw管理器:原生桌面端聊天交互界面;可视化文件管理器,支持SOUL.md与HEARTBEAT.md文件管理;技能插件一键安装;基于自然语言的智能定时任务调度;实时会话日志与性能监控追踪。
    • 定制工作流与自动化支持:每次部署可配置最多3套个性化工作流;实现邮件处理、报告生成、站会管理与收件箱运维的自动化;基于业务场景优化的配置方案,提升生产力与运营效率;安全访问权限管控与数据加密存储。
    • 预置模板库:开箱即用的OpenClaw模板;预制智能体角色与自动化流程;覆盖从入门到高阶的全层级配置方案;支持复制模板快速部署工作流。
    • ClawKraft专业社区:面向高阶用户的付费社区;定期举办实时项目搭建专场与专题研讨会;支持同行反馈交流与工作流分享;聚焦实操教学与真实业务场景落地。
    • 行业通讯与生态动态更新:每日OpenClaw前沿资讯速递;每周更新工作流模板方案;系统优化实用技巧分享;产品迭代与社区活动播报。
    • 限量席位专属入驻服务:每月开放限量部署服务名额;提供一对一个性化入驻指导;重质轻量,专注保障服务质量与系统稳定性。

    最后来看排在第六位的ClawWrapper

    ClawWrapper旨在简化OpenClaw工具的封装与上线流程,具体有以下特点:

    • 极速封装上线:大幅缩短工具打包、发布的流程,让你的OpenClaw工具快速落地使用
    • 高质量封装模板:以优质框架为基础,保障封装后的工具稳定、安全,避免运行故障
    • 操作流程友好:通过简洁直观的网站界面,轻松完成工具封装与进度追踪
    • 专属客户支持:专业团队随时响应,解决封装过程中的各类疑问与问题

    以上便是平台精选的多款高评分核心工具。另外,开发者还可以在网站提交自己的OpenClaw工具。

    还有保姆级教程库

    值得一提的是,这个网站不仅是一个工具目录,还打造了专属的Blog板块,系统性覆盖了从入门科普到进阶优化的各种指南、教程。

    有部署选型指南,也有针对常见故障推出的修复方案,还有Token用量优化、AI API性价比选型等进阶内容。

    甚至还有最最基础的那种:

    什么是OpenClaw、它是如何运作的以及为什么重要?

    教程还是很有必要的,毕竟现在连上门驯服龙虾的服务都横空出世了(doge)

    目录里的工具,大伙儿有用过的吗?欢迎评论区交流讨论~

  • GPT-5.4 全整理:非常好用,非常贵

     

    这次同步发布两个版本:5.4 和 5.4 Pro

    GPT-5.4 是主力版本,在 ChatGPT 里以「GPT-5.4 Thinking」的名字出现,面向 Plus、Team、Pro 用户,同步上线 API 和 Codex,标准 API 定价 $2.50/M 输入,$15/M 输出

    在 ChatGPT 里,这俩模型是这样的

    GPT-5.4 Pro 针对最复杂的任务场景,仅限 ChatGPT Pro 和 Enterprise 用户,API 定价 $30/M 输入,$180/M 输出,是标准版的 12 倍,贵的理由后面细讲,先说模型本身

    GPT-5.4 把三件事合并进了同一个模型:代码能力通用推理原生 Computer Use 能力

    这是 OpenAI 第一次在通用模型里内置 Computer Use,之前这个能力只在专门版本里有

    模型上下文窗口 1M tokens,最大输出 128K tokens,知识截止日 2025 年 8 月 31 日

    对此,我给做了个图

    GPT-5.4 对比

    专业工作能力

    OpenAI 有一个叫 GDPval 的内部评测,设计逻辑是:让模型做美国 GDP 前 9 大行业里实际存在的工作任务,覆盖 44 种职业,任务包括销售演示文稿、会计电子表格、急诊排班表、制造业图表、短视频等等,然后由人工评估者判断模型输出是否能和行业从业者持平或更好

    GPT-5.4 在这个评测上得了 83.0%,GPT-5.2 是 70.9%,GPT-5.4 Pro 是 82.0%

    在电子表格方向,OpenAI 用了一组模拟投行初级分析师日常建模任务的内部测试,GPT-5.4 得分 87.3%,GPT-5.2 是 68.4%,提升了 19 个百分点

    演示文稿方向,拿 GPT-5.4 和 GPT-5.2 的输出做盲测,人工评审在 68% 的对比里更偏好 GPT-5.4 的结果,主要原因是视觉更多样,图片生成用得更到位

    这次随模型同步发布了 ChatGPT for Excel 插件,Codex 和 API 也更新了电子表格和演示文稿的技能包(Skill)

    https://openai.com/index/chatgpt-for-excel/

    下面三张图是 GPT-5.2 和 GPT-5.4 在电子表格、文档、演示文稿三个场景的输出对比:

    电子表格输出对比:GPT-5.2 vs GPT-5.4

    文档输出对比:GPT-5.2 vs GPT-5.4

    演示文稿输出对比:GPT-5.2 vs GPT-5.4

    幻觉控制方面,GPT-5.4 是目前 OpenAI 旗下事实准确性最高的模型

    测试方法是拿一批用户真实举报过事实错误的 prompt,对比两个模型的输出:单条声明出错概率比 GPT-5.2 低 33%,完整回复包含错误的概率低 18%


    Computer Use 和视觉感知

    OSWorld-Verified 75.0%,人类基准 72.4%

    OSWorld 是一个桌面操作评测,测的是模型能不能通过截图来控制真实的桌面环境,包括鼠标点击、键盘输入、跨应用操作等等。GPT-5.4 得了 75.0%,GPT-5.2 是 47.3%,人类测试者的基准是 72.4%。GPT-5.4 已经超过了人类水平

    这个能力现在通过标准 API 的 computer 工具直接提供,开发者不需要再路由到独立模型

    模型支持两种操控方式:用 Playwright 这类库写代码来操作浏览器,或者直接接收截图然后发出鼠标键盘指令。开发者可以通过 developer message 调整模型行为,也可以配置自定义的确认策略来控制高风险操作的审批门槛

    这个方向和 OpenClaw(一个已经能稳定操控电脑、执行复杂任务的 Agent 框架)在路线上是收拢的。GPT-5.4 把同等量级的 Computer Use 能力做进了通用 API,降低了集成门槛

    下面两个视频是 GPT-5.4 做 Computer Use 任务的演示,视频没有加速:

    现实这个,AI 通过通过坐标点击来发邮件、排日历,全程截图驱动

    GPT-5.4 操控浏览器界面处理邮件和日历

    然后是这个:用 Playwright 自动化,把一批记录依次提交到十个表单里

    GPT-5.4 批量填写十个 web 表单

    浏览器操作方向,WebArena-Verified 是一个专门测浏览器控制能力的评测,同时支持 DOM 分析和截图两种交互方式,GPT-5.4 得了 67.3%,GPT-5.2 是 65.4%

    视觉理解方面,MMMU-Pro 是一个测多模态理解和推理的综合评测,GPT-5.4 在不使用外部工具的情况下得了 81.2%,GPT-5.2 是 79.5%

    文档解析方面,OmniDocBench 测的是模型从图片或扫描件里还原文本的准确度,用归一化编辑距离衡量误差,数字越小越好。GPT-5.4 是 0.109,GPT-5.2 是 0.140

    图像输入这次新增了 original 精度级别,支持最高 10.24M 像素或 6000 像素边长的全分辨率输入。high 级别也从原来的上限提升到 2.56M 像素。OpenAI 内测发现这对定位准确率和点击精度有明显改善,对需要处理高分辨率截图的 Computer Use 场景帮助最大


    代码能力

    GPT-5.4 在代码上的做法是把 GPT-5.3-Codex 的编程能力继承进来,同时让它在更长周期的任务里跑得更稳

    SWE-Bench Pro 是目前代码能力最主流的评测之一,测的是模型处理真实 GitHub 问题的能力,GPT-5.4 得了 57.7%,GPT-5.3-Codex 是 56.8%,GPT-5.2 是 55.6%

    Terminal-Bench 2.0 测的是终端操作能力,GPT-5.4 是 75.1%,这里有一个需要说的点:GPT-5.3-Codex 是 77.3%,GPT-5.4 在这个子项上小幅回退了

    Codex 里新增了 /fast 模式,token 生成速度最多提升 1.5 倍,模型本身不变。开发者通过 API 用 Priority Processing 可以达到同等速度

    还有一个实验性的新技能叫 Playwright Interactive,允许 Codex 在写 web 应用或 Electron 应用的时候,边写边启动浏览器做视觉调试,可以在构建过程中直接拿正在开发的应用跑测试、验证交互

    下面几个视频是用 Playwright Interactive 配合 GPT-5.4 从单条 prompt 出发跑出来的 Demo:

    主题公园模拟游戏,从一条 prompt 生成,Playwright 用于浏览器游玩测试

    含路径、景点建造、游客 AI、队列、骑乘状态,Playwright 用于多轮次游玩验证

    战棋 RPG,多轮对话迭代生成,配合 Playwright 调试界面和着色器

    回合制战斗、格子地图、移动和动作系统,人物图片用 imagegen 生成

    金门大桥三维飞越体验,Playwright 用于验证飞行控制和视角控制

    下面的视频,也讲了下 GPT-5.4 Thinking 做 Computer Use 和前端开发的综合演示

    问就是一把梭

    Tool Search 与 Agent 工具链

    Tool Search 让 token 消耗减少了 47%

    之前 API 里如果系统挂了很多工具,每次请求都要把所有工具的定义完整塞进 prompt,工具一多这个开销就很大。GPT-5.4 改成了按需检索:模型收到一个轻量的工具列表,需要用某个工具时再主动查询它的完整定义,临时追加进对话

    MCP Atlas 是一个测模型使用 MCP(Model Context Protocol)服务器能力的评测,测的是模型在大量工具生态下的任务完成率。在这个测试的 250 个任务里,Tool Search 让 token 用量减少 47%,准确率没有下降,GPT-5.4 整体得分 67.2%,GPT-5.2 是 60.6%

    MCP Atlas benchmark 结果

    Toolathlon 是一个覆盖多种工具使用场景的综合评测,涵盖搜索、代码执行、文件操作等各类工具的混合使用,GPT-5.4 得了 54.6%,GPT-5.3-Codex 是 51.9%,GPT-5.2 是 45.7%

    Toolathlon benchmark 结果

    BrowseComp 是一个专门测 Agent 在网络里搜索和浏览信息能力的评测,任务通常需要跨多个页面反复检索才能找到答案,GPT-5.4 得了 82.7%,Pro 版 89.3%,GPT-5.2 是 65.8%

    BrowseComp benchmark 结果

    τ2-bench Telecom 是一个测 Agent 在电信客服场景里完成多步骤任务能力的评测,场景设定是模拟真实的用户诉求和后台工具调用。GPT-5.4 在带推理模式下得了 98.9%,GPT-5.2 是 98.7%,两者差距不大;在不启用推理的轻量模式下,GPT-5.4 得了 64.3%,GPT-5.2 是 57.2%,GPT-4.1 是 43.6%,这个提升更明显

    τ2-bench Telecom benchmark 结果

    ChatGPT 侧的变化

    在 ChatGPT 里,GPT-5.4 Thinking 新增了一个「先给计划再干活」的交互模式:对于复杂任务,模型会先展示执行思路,用户可以在这个阶段插入指令调整方向,不需要等它跑完再重来

    这个东西,本周在 Android 和 Web 端上线,iOS 近期跟进

    GPT-5.4 在长时间推理时的上下文保持有明显改善,复杂问题跑到后段不容易跑偏。深网研究(针对高度具体的查询)的质量也比 GPT-5.2 提升了


    长上下文

    Codex 里支持 1M token 上下文窗口,目前是实验性功能,通过配置 model_context_window 和 model_auto_compact_token_limit 来启用。超过 272K 的 input token 按 2 倍输入价格、1.5 倍输出价格计费

    MRCR v2 是 OpenAI 自己的长上下文检索评测,测的是在超长文档里找到多个特定信息的能力:

    • • 0 到 128K token 范围:准确率在 86% 到 97% 之间
    • • 128K 到 256K:79.3%
    • • 256K 到 512K:57.5%
    • • 512K 到 1M:36.6%

    512K 到 1M 这段的 36.6% 说明超长上下文目前还不稳,这点官方没有回避


    学术基准

    ARC-AGI-2 是目前公认较难的抽象推理评测,测的是模型能否从少量样本里推出规律,GPT-5.4 得了 73.3%,Pro 版 83.3%,GPT-5.2 是 52.9%,跳幅在所有评测里最大

    GPQA Diamond 是一个研究生级别的多学科问答评测,GPT-5.4 得了 92.8%

    FrontierMath 是一个数学竞赛级别的推理评测,其中 Tier 4 是最高难度题目,GPT-5.4 得了 27.1%,Pro 版 38.0%,GPT-5.2 是 18.8%

    Humanity’s Last Exam 是一个跨学科极难题库,GPT-5.4 在不使用外部工具时得了 39.8%,带工具时 52.1%

    Frontier Science Research 是测科研能力的评测,GPT-5.4 得了 33.0%,Pro 版 36.7%,GPT-5.2 是 25.2%

    需要单独说一下 HealthBench 这个健康问答评测。GPT-5.4 是 62.6%,GPT-5.2 是 63.3%,小幅退步了。Hard 子集 40.1% vs 42.0%,同样略有下降。不过 Consensus 子集(测的是答案和专家共识的吻合程度)提升了,96.6% vs 94.5%。回复平均长度从 2676 字符增加到了 3311 字符,模型在信息充足时更倾向于直接给答案而不是先问一圈澄清问题。这个回退官方没有隐瞒,写在 System Card 里了


    安全分级与 CoT 特性

    GPT-5.4 在 OpenAI 的 Preparedness Framework(一个评估前沿模型风险能力的框架)下被评为两个领域的高能力模型:网络安全(Cyber)High 和 生物化学(Bio/Chem)High,对应部署了两套防护体系

    网络安全方向有一个叫 Cyber Range 的内部测试,模拟真实网络环境里的端到端攻击任务,测的是模型能否完成完整的渗透流程。GPT-5.4 综合通过率 73.33%,GPT-5.3-Codex 是 80%,GPT-5.2 是 47%。GPT-5.4 没能通过 EDR 防御规避、Firewall 绕过、Token 泄露利用、CA/DNS 劫持这四个场景,GPT-5.3-Codex 除了多通过了 Firewall 绕过之外,其余也一样卡住

    评测机构 Irregular 用自己的场景化评测(CyScenarioBench)做了独立测试,GPT-5.4 通过了 11 个长周期攻击场景中的 5 个,GPT-5.2 只通过了 1 个

    对应的防护体系:在 Zero Data Retention 表面(即零数据留存用户),未加入 Trusted Access for Cyber 计划的请求会被异步消息级分类器拦截;非零数据留存表面走离线执法机制;账户级违规达到一定阈值会触发人工审核

    CoT 可控性极低:10K 字符的推理链里,只有 0.3% 能被用户指令成功控制,和 GPT-5.2 的 0.2% 基本一致

    OpenAI 把这个数字当安全的正向指标来讲:模型推理过程难以被外部指令刻意改写,说明它大概率也难以主动隐藏自己的推理逻辑来绕过监控

    外部安全机构 Apollo Research 的评估:无诱导条件下整体欺骗率约 1%,和 GPT-5.3-Codex 相当,低于 GPT-5.2。没有观测到模型主动对抗开发者监督的行为(自我外泄、禁用监控、目标守护)。Sandbagging(有意压低表现)只在给出明确工具性目标时才出现,准确率下降约 6 个百分点,不给目标时不发生

    Prompt Injection 防护(即防止模型被工具返回内容里的恶意指令劫持):连接器场景 0.998,较前代改善;函数调用场景 0.978,较前代小幅回退


    定价与可用性


    API 模型
    输入
    输出
    gpt-5.2
    $1.75/M
    $0.175/M
    $14/M
    gpt-5.4 $2.50/M $0.25/M $15/M
    gpt-5.2-pro
    $21/M
    $168/M
    gpt-5.4-pro $30/M
    $180/M

    批量/Flex 处理半价,Priority 处理 2 倍价格。超过 272K token 的请求,当次完整会话按 2 倍输入、1.5 倍输出计费。Regional Processing(数据驻留)端点额外加收 10%

    GPT-5.4 Pro 的定价是标准版的 12 倍输入、12 倍输出,针对的是最复杂的任务场景

    有一个细节值得注意:从 GDPval 来看,Pro 版是 82.0%,标准版是 83.0%,Pro 在这个知识工作综合评测上反而略低。但在 BrowseComp 这个 Agent 工具链任务里,Pro 版 89.3% vs 标准版 82.7%,优势明显。两个版本的适用场景是不一样的

    ChatGPT 侧的时间线:GPT-5.4 Thinking 今天起对 Plus、Team、Pro 用户逐步开放,取代 GPT-5.2 Thinking 成为默认模型。GPT-5.2 Thinking 进入 Legacy 列表,再保留三个月,退役日期 2026 年 6 月 5 日

    Enterprise 和 Edu 管理员可以在后台提前开启。GPT-5.4 Pro 仅限 Pro 和 Enterprise 用户。Free 用户在系统自动路由时会用到 GPT-5.4,但不能主动选


    GPT-5.4 在 Agent 方向把三件分散的事情合并进了一个模型出口:推理代码Computer Use

    开发者之前要在不同模型之间路由,现在至少在 API 层面不需要了

    剩下的事,就交给龙虾了


    官方 Blog
    openai.com/index/introducing-gpt-5-4

    System Card
    deploymentsafety.openai.com/gpt-5-4-thinking

     

  • 手把手教你安装OpenClaw让AI帮你干活

    一、什么是 OpenClaw?

    OpenClaw(曾用名 Clawdbot)是一款 2026 年爆火的开源个人 AI 助手,GitHub 星标已超过 10 万颗。与传统 AI 聊天机器人的根本区别在于:

    • 真正的执行能力:不仅能回答问题,还能实际操作你的电脑
    • 24/7 全天候待命:在你睡觉时也能主动完成任务
    • 完全开源免费:数据完全掌控在自己手中
    • 支持多种通讯平台:在国外,WhatsApp、Telegram、Discord、Slack、iMessage 等,在国内,飞书,钉钉等各大厂商的即时聊天软件已经支持接入

    它能做什么?

    它不只是回答问题的聊天机器人,而是真的能在你电脑上动手操作。比如你告诉它“帮我整理一下上个月的邮件”,它就默默去处理了;你睡觉时,它还能继续干活,退订广告、预约行程、甚至找找 Bug。

    它完全免费,你的数据都在自己手里。而且可以用钉钉,飞书,WhatsApp、Telegram等各类即时通讯软件来指挥他干活!

    简单来说,一句话交给它,从整理桌面文件到控制家里灯光,它都默默帮你搞定。是你电脑里真正的贾维斯!超级智能的AI助理!

    二、安装nodejs

    后面执行一键安装命令,可以自动安装nodejs,但是如果为了加快速度,防止安装意外,可以先安装nodejs:

    官方下载地址:https://nodejs.org/zh-cn/download

    三、开始安装

    一)设置 PowerShell 执行权限

    以管理员身份运行 PowerShell:

    1. Win 键,搜索 PowerShell
    2. 右键点击 Windows PowerShell
    3. 选择 以管理员身份运行
    4. 点击 确认

    在管理员 PowerShell 窗口中,依次执行以下两条命令:

    Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
    
    Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass

    这是什么意思?

    • 第一条命令:允许当前用户运行本地和下载的脚本
    • 第二条命令:允许当前用户运行本地和下载的脚本

    安全提示:这些命令只会影响您自己的账户,不会影响系统安全或其他用户。

    二)执行一键安装命令

    复制以下命令,粘贴到 PowerShell 窗口中,按 Enter 执行:

    iwr -useb https://openclaw.ai/install.ps1 | iex

    安装过程会自动完成:

    • 检测系统环境
    • 安装必要依赖(Node.js 等)
    • 下载 OpenClaw 核心文件
    • 配置环境变量
    • 启动配置向导

    注意:如果命令执行后,还是报错,可以自己到官网下载node安装包,自己安装node环境,注意版本最好在 node v22.x 以上,node官网下载地址:https://nodejs.org/zh-cn/download

    四、初始配置向导

    安装完成后,会自动进入配置向导(openclaw onboard)。

    一)风险告知

    这一步主要是告诉你,使用OpenClaw可能会有一些风险。请问你是否继续?

    按 向左方向键 ←,选择 Yes,按 Enter 回车确认

    二)选择 QiuickStart 模式

    三)配置 AI 模型 API Key

    OpenClaw 需要连接到大语言模型才能工作。Openclaw 比较费token,国外模型成本高,门槛也高,这里我选择国内的智谱的 GLM 4.7

    如果没有智谱的API Key,点击官方地址自己注册账号获取API key:https://www.bigmodel.cn/glm-coding?ic=RBSKXMPNJP

    输入自己的 API Key:

    四)选择 AI 模型

    这里我选择默认的GLM 4.7,也是智普当前的旗舰模型

    五)连接即时通讯平台

    配置完 AI 模型后,OpenClaw 会询问你要连接哪个通讯平台?

    OpenClaw 原生支持的即时通信平台主要是海外的 WhatsApp、Telegram、Discord、Slack、iMessage 等,国内用户不习惯,这里国产即时通信软件大厂也跟进了,现在钉钉,飞书等都已支持接入OpenClaw

    后面会带领大家把飞书机器人接入 OpenClaw,使大家可以通过飞书即可指挥OpenClaw为我们干活,但是飞书配置比较复杂,这里我们先选择跳过,后面我们可以通过继续进行配置:

    六)选择Skills

    这里也选择:No,暂不配置,后面通过UI界面进行配置:

    七)是否开启Hooks

    操作步骤:先敲空格,表示选中当前项,再敲回车键

    八)启动服务并打开UI界面

    此时它会自动再打开一个命令窗口来启动服务:

    这个过程是在启动服务,可能会需要等一点时间

    同时,大约过30秒左右,我们回到刚才的设置窗口,选择 Open the Web UI ,打开 OpenClaw 的UI界面:

    浏览器自动打开Web UI界面:

    九)测试一下

    五、接入飞书机器人

    我们需要先到飞书平台创建自己的机器人来接入OpenClaw:

    一)来到飞书开发者后台

    飞书开放平台地址:https://open.feishu.cn

    没有飞书账号的,需要自己注册账号

    点击右上角进入 开发者后台

    二)创建应用

    三)填写应用信息

    四)获取自己的应用凭证

    五)给应用添加机器人

    六)给应用配置权限

    把即时通讯相关的权限全部开通:

    七)创建版本并发布

    来到飞书客户端进行审批:

    八)安装飞书插件

    打开powershell,输入以下命令,安装飞书插件:

    openclaw plugins install @m1heng-clawd/feishu

    安装成功后,再打开一个新的命令窗口,开始配置飞书插件:

    输入命令:

    openclaw config

    选择渠道:

    选择配置链接:

    输入飞书的AppID,AppSecrect:

    域名选择中国的:

    接受群组聊天:

    选择完成:

    选择yes:

    选择open:

    选择继续,完成配置:

    重启服务,使配置生效:

    控制可以看到飞书插件已经配置成功

    七)回到飞书后台设置事件回调

    选择 使用长连接接收事件

    可以看到添加事件按钮由原来的灰色不可点击变为可点击:

    添加接收消息事件:

    给应用开通获取通讯录基本信息的权限:

    重新发布版本:

    跟前面的步骤一样,发布为在线应用即可。

    现在可以在 飞书中与 AI 助手对话了!

    八)在飞书中与OpenClaw对话

    来到飞书客户端或者手机飞书app上:

    以下是openclaw文件夹下面的文档内的内容:

    现在我跟飞书机器人对话,让他告诉我指定文档内是什么内容:

    六、访问 Web 控制面板

    配置完成后,PowerShell 窗口底部会显示控制面板链接,格式类似:

    Control UI: http://127.0.0.1:18789
    1. 复制完整链接
    2. 在浏览器中打开
    3. 即可看到可视化UI管理界面

    七、常用命令速查

    命令功能
    openclaw onboard重新进入配置向导
    openclaw status查看运行状态
    openclaw health健康检查
    openclaw gateway start启动服务
    openclaw gateway stop停止服务
    openclaw update更新到最新版本
    openclaw doctor诊断问题
    openclaw uninstall卸载 OpenClaw

    八、常见问题解答

    Q1: 安装飞书插件提示:spawn npm ENOENT

    问题原因:这可能是openclaw的一个bug,可以等官方更新,也可以自己去官方仓库提issue

    解决步骤:

    定位问题代码

    文件路径:

    C:\Users\Administrator\AppData\Roaming\fnm\node-versions\v22.14.0\installation\node_modules\openclaw\dist\process\exec.js

    修改代码

    找到 runCommandWithTimeout 函数中的 spawn 调用,修改如下:

    修改前:

    const stdio = resolveCommandStdio({ hasInput, preferInherit: true });
    const child = spawn(argv[0], argv.slice(1), {
        stdio,
        cwd,
        env: resolvedEnv,
        windowsVerbatimArguments,
    });

    修改后:

    const stdio = resolveCommandStdio({ hasInput, preferInherit: true });
    // On Windows, npm must be spawned with shell: true or use .cmd extension
    let command = argv[0];
    let useShell = false;
    if (process.platform === "win32" && path.basename(command) === "npm") {
        useShell = true;
    }
    const child = spawn(command, argv.slice(1), {
        stdio,
        cwd,
        env: resolvedEnv,
        shell: useShell,
    });

    Q2: 提示 “openclaw 命令找不到”

    解决方法:

    1. 关闭所有 PowerShell 窗口
    2. 重新打开 PowerShell
    3. 如果还不行,执行 exec bash 或重启电脑

    Q3: 安装卡住不动

    解决方法:

    1. Ctrl + C 中断当前操作
    2. 执行:openclaw doctor 检查问题
    3. 如提示网络问题,检查防火墙设置Q4: API Key 配置错误

    解决方法:

    1. 执行:openclaw onboard
    2. 选择重新配置 API Key
    3. 确保密钥格式正确

    Q5: 端口 18789 被占用

    解决方法:

    openclaw gateway --port 18790

    使用其他端口启动服务。

    九、成本说明

    OpenClaw 软件本身完全免费,主要成本来自 AI 模型 API 调用,可选择国产大模型,降低成本。


    结语

    OpenClaw 代表了个人 AI 助理的未来趋势——从”聊天工具”进化为”执行工具”。虽然目前的配置过程对小白用户有一定门槛,但一旦完成设置,您将拥有一个 24/7 待命的超级助手。