作者: stark, tony

  • 一文读懂 Skills|从概念到实操的完整指南

    Agent 正在经历从“聊天机器人”到“得力干将”的进化,而 Skills 正是这场进化的关键催化剂。

    你是否曾被 Agent 的“不听话”、“执行乱”和“工具荒”搞得焦头烂额?

    本文将带你一文弄懂 Skills ——这个让 Agent 变得可靠、可控、可复用的“高级技能包”。

    我们将从 Skills 是什么、如何工作,一路聊到怎样写好一个 Skills,并为你推荐实用的社区资源,带领大家在 TRAE 中实际使用 Skills 落地一个场景。

    无论你是开发者还是普通用户,都能在这里找到让你的 Agent “开窍”的秘诀。


    你是否也经历过或者正在经历这样的“ Agent 调教”崩溃时刻?

    • 规则失效:在 Agent.md 里写下千言万语,Agent 却视若无睹,完全“已读不回”。
    • 执行失控:精心打磨了无数 Prompt,Agent 执行起来依旧像无头苍蝇,混乱无序。
    • 工具迷失:明明集成了强大的 MCP 工具库,Agent 却两手一摊说“没工具”,让人摸不着头脑。

    如果这些场景让你感同身受,别急着放弃。终结这场混乱的答案,可能就是 Skills。

    1、什么是 Skills

    “Skills” 这个概念最早由 Anthropic 公司提出,作为其大模型 Claude 的一种能力扩展机制。简单来说,它允许用户为 Claude 添加自定义的功能和工具。随着这套做法越来越成熟,并被社区广泛接受,Skills 如今已成为大多数 Agent 开发工具和 IDE 都支持的一种标准扩展规范。

    一个 Skills 通常以一个文件夹的形式存在,里面主要装着三样东西:一份说明书(SKILL.md)、一堆操作脚本(Script)、以及一些参考资料(Reference)。

    你可以把一个 Skill 想象成一个打包好的“技能包”。它把完成某个特定任务所需的领域知识、操作流程、要用到的工具、以及最佳实践全都封装在了一起。当 AI 面对相应请求时,就能像一位经验丰富的专家那样,有条不紊地自主执行。

    一句话总结:要是把 Agent 比作一个有很大潜力的大脑,那 Skills 就像是给这个大脑的一套套能反复用的“高级武功秘籍”。有了它,Agent 能从一个“什么都略知一二”的通才,变成在特定领域“什么都擅长”的专家。

    2、Skill 原理介绍

    📚 官方解释:https://platform.claude.com/docs/en/agents-and-tools/agent-skills/overview

    Skill 的架构原理:渐进式加载

    Skill 的设计很巧妙,它运行在一个沙盒环境里,这个环境允许大模型访问文件系统和执行 bash 命令(可以理解为一种电脑操作指令)。在这个环境里,一个个 Skill 就像一个个文件夹。Agent 就像一个熟悉电脑操作的人,通过命令行来读取文件、执行脚本,然后利用结果去完成你交代的任务。这种“按需取用”的架构,让 Skill 成为一个既强大又高效的“工具箱”。

    为了平衡效果和效率,Skill 设计了一套聪明的三层分级加载机制:

    Level 1:元数据(始终加载)

    元数据就像是 Skill 的“名片”,里面有名称(name)和描述(description),是用 YAML 格式来定义的。Claude 在启动的时候,会把所有已经安装的 Skill 的元数据都加载进来,这样它就能知道每个 Skill 有什么用、什么时候该用。因为元数据很轻量,所以你可以安装很多 Skill,不用担心把上下文占满。

    Level 2:说明文档(触发时加载)

    SKILL.md 文件的正文就是说明文档,里面有工作流程、最佳实践和操作指南。只有用户的请求和 Skills 元数据里的描述相符时,Claude 才会用 bash 指令读取这份文档,把内容加载到上下文里。这种“触发式加载”能保证只有相关的详细指令才会消耗 Token。

    Level 3:资源与代码(按需加载)

    Skills 还能打包一些更深入的资源,比如更详细的说明文档(FORMS.md)、可执行脚本(.py)或者参考资料(像 API 文档、数据库结构等)。Claude 只有在需要的时候,才会通过 bash 去读取或执行这些文件,而且脚本代码本身不会进入上下文。这样一来,Skills 就能捆绑大量信息,几乎不会增加额外的上下文成本。

    Skills 的调用逻辑:从理解意图到稳定执行

    那么,Agent 是如何智能地选择并执行一个 Skill 的呢?整个过程就像一位经验丰富的助理在处理工作:

    1. 意图匹配(找到对的人):Agent 首先聆听你的需求,然后快速扫一眼自己手头所有 Skill 的“名片夹”(元数据),寻找最匹配的那一张。
    2. 读取手册(看懂怎么干):找到合适的 Skills 后,Agent 会像模像样地翻开它的“操作手册”(SKILL.md),仔细研究详细的执行步骤和注意事项。
    3. 按需执行(动手开干):根据手册的指引,Agent 开始工作。如果需要,它会随时从“工具箱”里拿出脚本或工具来完成具体操作。
    4. 反馈结果(事毕复命):任务完成后,Agent 向你汇报最终结果,或者在遇到困难时,及时向你请教。

    3、Skills vs. 其他概念的区别

    为了更清晰地理解 Skills 的独特价值,我们不妨把它和另外两个容易混淆的概念——快捷指令(Command)原子工具(MCP)——放在一起做个对比。用一个厨房的例子就很好懂了:

    我们也列举了几个大家容易混淆的其他功能,一起来对比看看。

    📚 官方博客解释:https://claude.com/blog/skills-explained

    4、什么是好的 Skills:从“能用”到“好用”

    Good Skills vs Bad Skills

    如何写好 Skills

    1. 原子性(Atomicity):坚持单一职责,让每个 Skill 都像一块积木,小而美,专注于解决一个具体问题,便于日后的复用和组合。

    2. 给例子(Few-Shot Prompting):这是最关键的一点,与其费尽口舌解释,不如直接给出几个清晰的输入输出示例。榜样的力量是无穷的,模型能通过具体例子,秒懂你想要的格式、风格和行为。

    3. 立规矩(Structured Instructions):

    1) 定角色:给它一个明确的专家人设,比如“你现在是一个资深的市场分析师”。

    2) 拆步骤:把任务流程拆解成一步步的具体指令,引导它“思考”。

    3) 画红线:明确告诉它“不能做什么”,防止它天马行空地“幻觉”

    4. 造接口(Interface Design):像设计软件 API 一样,明确定义 Skill 的输入参数和输出格式(比如固定输出 JSON 或 Markdown)。这让你的 Skill 可以被其他程序稳定调用和集成。

    5. 勤复盘(Iterative Refinement):把 Skills 当作一个产品来迭代。在实际使用中留心那些不尽如人意的“Bad Case”,然后把它们变成新的规则或反例,补充到你的 Skills 定义里,让它持续进化,越来越聪明、越来越靠谱。

    📚 一些官方最佳实践指南:https://platform.claude.com/docs/zh-CN/agents-and-tools/agent-skills/best-practices

    5、社区热门 Skills 推荐

    刚开始接触 Skills,不知从何下手?不妨从社区沉淀的这些热门 Skills 开始,寻找灵感,或直接在你的工作流中复用它们。

    Claude 官方提供的 Skills

    📚 官方 Skills 仓库:https://github.com/anthropics/skills

    学习 Claude 官方的 Skills 仓库可以帮助我们最快的了解 Skills 的最佳实践,便于我们沉淀出自己的 Skills。

    如何快速使用官方 Skills?
    大多数官方 Skills 都能直接下载,或者通过 Git 克隆到本地。在 TRAE 等工具里,一般只需把这些 Skills 的文件夹放到指定的 Skills 目录,接着重启或刷新 Agent,它就会自动识别并加载这些新能力。具体操作可参考工具的使用文档。
    更多细节可参考下面这部分内容:如何在 TRAE 里快速用起来

    Claude 官方提供的 Skills 列表

    社区其他最佳实践

    6、如何在 TRAE 里快速使用

    理论说再多,不如亲手一试。我们先讲一下如何在 TRAE SOLO 中创建并应用一个 Skill 并以基于飞书文档的 Spec Coding 为例讲解一下如何利用 Skills 快速解决一个实际问题。

    Skill 创建

    方式一:设置中直接创建

    TRAE 支持在设置页面可以快速创建一个 Skill

    按下快捷键 Cmd +/ Ctrl + 通过快捷键打开设置面板。

    在设置面板左侧找到「规则技能」选项

    找到技能板块,点击右侧的「创建」按钮。

    你会看到一个简洁的创建界面,包含三要素:Skill 名称、Skill 描述、Skill 主体。我们以创建一个“按规范提交 git commit”的 Skill 为例,填入相应内容后点击「确认」即可。

    填入我们需要的内容「确认」即可

    方式二:直接解析 SKILL.md

    在当前项目目录下,新增目录.trae/Skills/xxx 导入你需要文件夹,和 TRAE 进行对话,即可使用。

    可以在「设置 – 规则技能」中看到已经成功导入

    方式三:在对话中创建

    目前 TRAE 中内置了 Skills-creator Skills ,你可以在对话中直接和 TRAE 要求创建需要的 Skills

    Skill 使用

    在 TRAE 里使用技能很容易,你加载好需要的技能后,只需在对话框中用日常语言说明你的需求就行。

    • 例如,输入“帮我设计一个有科技感的登录页面”,系统就会自动调用“frontend-design”技能。
    • 例如,输入“帮我提取这个 PDF 里的所有表格”,系统会自动调用“document-Skills/pdf”技能。
    • 例如,输入“帮我把这片技术文档转为飞书文档”,系统会自动调用“using-feishu-doc”技能。

    系统会自动分析你的需求,加载技能文档,还会一步步指导你完成任务!

    实践场景举例

    还记得引言里提到的那些问题吗?比如说,项目规则文件(project_rules)有字符数量的限制;又或者,就算你在根规则文件里明确写好了“在什么情况下读取哪个文件”,Agent 在执行任务时也不会按照要求来做。

    这些问题的根本原因是,规则(Rules)对于 Agent 而言是固定不变的,它会在任务开始时就把所有规则一次性加载到上下文中,这样既占用空间,又不够灵活。而 技能(Skill)采用的是“逐步加载”的动态方式,刚好可以解决这个问题。所以,我们可以把之前那些复杂的规则场景,重新拆分成一个个独立的技能。

    接下来,我们通过一个基于飞书文档的“Spec Coding”简单流程,来实际操作一下如何用技能解决问题。

    什么是 Spec Coding?

    Spec Coding 提倡“先思考后行动”,也就是通过详细定义可以执行的需求规范(Specification)来推动 AI 开发。它的流程包含“需求分析、技术设计、任务拆解”的文档编写过程,最后让 AI 根据规范来完成编码。这种一步步的工作流程能保证每一步都有依据,实现从需求到代码的准确转化。

    让我来分析一下这个场景

    上面提到将开发过程划分为四个关键阶段,所以要完成 “需求分析、技术设计、任务拆解” 的飞书文档撰写,还有最终的代码实现。为此,我们需要不同的技能来满足不同场景下的文档编写需求,并且要教会 Agent 如何使用飞书工具进行创作协同。

    下面我们就一起完成上面提到的 Skills 的设计实现。

    多角色专家 Skills

    通过实现多角色 Skills 通过创建多个交付物过程文档,约束后续的编码,为编码提供足够且明确的上下文,每个Skill 专注完成一件事

    • 下面让我们进一步详细设计

    ​按照上述的表格我们就可以大致明确我们需要的 Skills 该如何实现了。

    • 本次只作为一个例子大家可以参考上面创建 Skill 的教程自己完成一下这个多角色 Skills 的创建和调试,当然正如上面所述好的 Skill 需要在实践中逐渐优化并通过场景调用不断进行优化的

    飞书文档使用 Skill

    飞书文档的格式是 markdown 的超集,我们 Skill 的目的则是教会 Agent 飞书文档的语法,便于 Agent 写出符合格式的 md 文件。并通过约束 Agent 行为,充分利用飞书文档的评论的读写完成多人协作审阅的过程,用户通过在飞书文档评论完成相关建议的提出,Agent 重新阅读文档和评论,根据建议进一步优化文档,实现文档协作工作流。

    Spec Coding Skill

    上面我们实现了多个角色 Skills 和一个功能 Skill,但实际使用时,还需要有一个能统筹全局的技能,来实现分工协作。把上述多个技能组合起来,告诉智能体(agent)整体的规格编码(spec coding)流程,完成工具技能和角色技能的组合与调度。

    如此我们就能快速搭建一个规格编码工作流程,完成基础开发。当然也可以参考上面的逻辑,用技能来重新复刻社区里的规格编码实践(如 SpecKit、OpenSpec 等)。

    总结

    上述场景提到了两种不同风格的 Skill(角色型,工具型),利用 Skill 的动态加载机制(取代固定规则的一次性加载方式),完成了复杂场景下的任务分解;通过 不同角色技能的分工协作(避免 Agent 什么都做导致执行混乱);尝试借助飞书文档形成协作闭环(打通人机交互的最后一步),有效解决了 Agent “不听话、执行乱、工具少” 的问题,让 AI 从 “对话助手” 真正转变为 “可信赖的实干家”,实现从需求提出到代码产出的高效、精准、协作式交付。

  • 国内外AI大语言模型API价格对比

    AIGCRank大语言模型API价格对比是一个专门汇总和比较全球主要AI模型提供商的价格信息的工具。我们为您提供最新的大语言模型(LLM)的价格数据,以及一些免费的AI大模型API。通过我们的平台,您可以轻松查找和比较OpenAI、Claude、Mixtral、Kimi、星火大模型、通义千问、文心一言、Llama 3、GPT-4、AWS和Google等国内外主要API提供商的最新价格,确保找到最适合您项目的模型定价。

    模型名称API提供商上下文长度
    Context
    输入价格 $
    1M Tokens
    输入价格 ¥
    1M Tokens
    输出价格 $
    1M Tokens
    输出价格 ¥
    1M Tokens
    产品链接价格链接
    GPT-4OpenAI8K$30.00217.50$60.00435.00查看详情查看价格
    GPT-4o miniOpenAI128K$0.151.09$0.604.35查看详情查看价格
    GPT-4oOpenAI128K$5.0036.25$15.00108.75查看详情查看价格
    GPT-4o-2024-08-06OpenAI128K$2.5018.13$10.0072.50查看详情查看价格
    GPT-4o longOpenAI64K 输出$6.0043.50$18.00130.50查看详情查看价格
    GPT-4 TurboOpenAI128K$10.0072.50$30.00217.50查看详情查看价格
    GPT-4-32kOpenAI32K$60.00435.00$120.00870.00查看详情查看价格
    GPT-3.5-Turbo-0125OpenAI16K$0.503.63$1.5010.88查看详情查看价格
    GPT-3.5-Turbo-instructOpenAI4K$1.5010.88$2.0014.50查看详情查看价格
    Llama-3-70b-instructReplicate8K$0.654.71$2.7519.94查看详情查看价格
    Llama-3-8b-instructReplicate8K$0.050.36$0.251.81查看详情查看价格
    Llama-2-70bReplicate4K$0.654.71$2.7519.94查看详情查看价格
    Llama-2-13bReplicate4K$0.100.73$0.503.63查看详情查看价格
    Llama-2-7bReplicate4K$0.050.36$0.251.81查看详情查看价格
    Mixtral-8x7b-instruct-v0.1Replicate32K$0.302.18$1.007.25查看详情查看价格
    Mistral-7b-instruct-v0.2Replicate32K$0.050.36$0.251.81查看详情查看价格
    Mixtral-8x22bMistral64K$2.0014.50$6.0043.50查看详情查看价格
    Mixtral-8x7bMistral32K$0.705.08$0.705.08查看详情查看价格
    Mistral-7bMistral32K$0.251.81$0.251.81查看详情查看价格
    Mistral-largeMistral32K$4.0029.00$12.0087.00查看详情查看价格
    Mistral-smallMistral32K$1.007.25$3.0021.75查看详情查看价格
    deepseek-chatDeepSeek128K$0.141.00$0.282.00查看详情查看价格
    deepseek-coderDeepSeek128K$0.141.00$0.282.00查看详情查看价格
    pplx-70b-onlinePerplexity4K$1.007.25$1.007.25查看详情查看价格
    pplx-7b-onlinePerplexity4K$0.201.45$0.201.45查看详情查看价格
    Openchat-7bDeepinfra8K$0.070.51$0.070.51查看详情查看价格
    Llama-3-70B-InstructDeepinfra8K$0.594.28$0.795.73查看详情查看价格
    Llama-2-70b-chatDeepinfra4K$0.644.64$0.805.80查看详情查看价格
    Claude-3.5-sonnetAnthropic200K$3.0021.75$15.00108.75查看详情查看价格
    Claude-3-opusAnthropic200K$15.00108.75$75.00543.75查看详情查看价格
    Claude-3-sonnetAnthropic200K$3.0021.75$15.00108.75查看详情查看价格
    Claude-3-haikuAnthropic200K$0.251.81$1.259.06查看详情查看价格
    Claude-2.1Anthropic200K$8.0058.00$24.00174.00查看详情查看价格
    Claude-2.0Anthropic100K$8.0058.00$24.00174.00查看详情查看价格
    Claude-instant-1.2Anthropic100K$0.805.80$2.4017.40查看详情查看价格
    Llama-3-70bGroq8K$0.594.28$0.795.73查看详情查看价格
    Llama-3-8bGroq8K$0.050.36$0.100.73查看详情查看价格
    Mixtral-8x7bGroq32K$0.241.74$0.241.74查看详情查看价格
    Gemma-7bGroq8K$0.100.73$0.100.73查看详情查看价格
    Gemini 1.5 ProGoogle1M$1.259.06$3.7527.19查看详情查看价格
    Gemini 1.0 ProGoogle32K$0.503.63$1.5010.88查看详情查看价格
    Gemini 1.5 FlashGoogle1M$0.130.91$0.382.72查看详情查看价格
    PaLM 2 for Text 32kGoogle32K$0.251.81$0.503.63查看详情查看价格
    Claude-3-opusGoogle200K$15.00108.75$75.00543.75查看详情查看价格
    Claude-3-sonnetGoogle200K$3.0021.75$15.00108.75查看详情查看价格
    Claude-3-haikuGoogle200K$0.251.81$1.259.06查看详情查看价格
    Gemini-1.0-proGoogle32K$0.503.63$1.5010.88查看详情查看价格
    Gemini-1.5-proGoogle1M$3.5025.38$10.0572.86查看详情查看价格
    Gemini-1.5-flashGoogle1M$0.352.54$1.057.61查看详情查看价格
    Llama-2-7b-chat-fp16Cloudflare3K$0.564.06$6.6648.29查看详情查看价格
    Llama-2-7b-chat-int8Cloudflare2K$0.161.16$0.241.74查看详情查看价格
    Mistral-7b-instructCloudflare32K$0.110.80$0.191.38查看详情查看价格
    GPT-4oAzure128K$5.0036.25$15.00108.75查看详情查看价格
    GPT-4-TurboAzure128K$10.0072.50$30.00217.50查看详情查看价格
    GPT-4Azure32K$60.00435.00$120.00870.00查看详情查看价格
    GPT-4Azure8K$30.00217.50$60.00435.00查看详情查看价格
    GPT-4-Turbo-VisionAzure128K$10.0072.50$30.00217.50查看详情查看价格
    GPT-3.5-Turbo-0125Azure16K$0.503.63$1.5010.88查看详情查看价格
    GPT-3.5-Turbo-0613Azure4K$1.5010.88$2.0014.50查看详情查看价格
    GPT-3.5-Turbo-1106Azure16K$1.007.25$2.0014.50查看详情查看价格
    GPT-3.5-Turbo-0301Azure4K$2.0014.50$2.0014.50查看详情查看价格
    GPT-3.5-Turbo-instructAzure4K$1.5010.88$2.0014.50查看详情查看价格
    GPT-3.5-Turbo-0613Azure16K$3.0021.75$4.0029.00查看详情查看价格
    Titan Text ExpressAWS8K$0.201.45$0.604.35查看详情查看价格
    Titan Text LiteAWS4K$0.151.09$0.201.45查看详情查看价格
    Claude-3-opusAWS200K$15.00108.75$75.00543.75查看详情查看价格
    Claude-3-sonnetAWS200K$3.0021.75$15.00108.75查看详情查看价格
    Claude-3-haikuAWS200K$0.251.81$1.259.06查看详情查看价格
    Claude-2.0/2.1AWS100K$8.0058.00$24.00174.00查看详情查看价格
    Claude-instantAWS200K$0.805.80$2.4017.40查看详情查看价格
    Command R+AWS128k$3.0021.75$15.00108.75查看详情查看价格
    Command RAWS128k$0.503.63$1.5010.88查看详情查看价格
    CommandAWS4K$1.5010.88$2.0014.50查看详情查看价格
    Command-lightAWS4K$0.302.18$0.604.35查看详情查看价格
    jurassic-2-ultraAWS2K$18.80136.30$18.80136.30查看详情查看价格
    jurassic-2-midAWS2K$12.5090.63$12.5090.63查看详情查看价格
    Llama-3-instruct-70bAWS8K$2.6519.21$3.5025.38查看详情查看价格
    Llama-3-instruct-8bAWS8K$0.402.90$0.604.35查看详情查看价格
    Llama-2-chat-70bAWS4K$1.9514.14$2.5618.56查看详情查看价格
    Llama-2-chat-13bAWS4K$0.755.44$1.007.25查看详情查看价格
    Mistral-8x7bAWS8K$0.453.26$0.705.08查看详情查看价格
    Mistral-7bAWS8K$0.151.09$0.201.45查看详情查看价格
    Command R+Cohere128K$3.0021.75$15.00108.75查看详情查看价格
    Command RCohere128K$0.503.63$1.5010.88查看详情查看价格
    abab6.5MiniMax8k$4.1430.00$4.1430.00查看详情查看价格
    abab6.5sMiniMax245k$1.3810.00$1.3810.00查看详情查看价格
    abab6.5gMiniMax8k$0.695.00$0.695.00查看详情查看价格
    abab6MiniMax32k$13.79100.00$13.79100.00查看详情查看价格
    abab5.5sMiniMax8k$0.695.00$0.695.00查看详情查看价格
    ERNIE 4.0 Turbo百度文心8K$4.1430.00$8.2860.00查看详情查看价格
    ERNIE 4.0百度文心8K$5.5240.00$16.55120.00查看详情查看价格
    ERNIE-3.5-128k百度文心128K$1.108.00$3.3124.00查看详情查看价格
    ERNIE 3.5百度文心8K$0.564.00$1.6612.00查看详情查看价格
    ERNIE Lite百度文心8K$0.000.00$0.000.00查看详情查看价格
    ERNIE Speed百度文心8K$0.000.00$0.000.00查看详情查看价格
    ERNIE Tiny百度文心8K$0.000.00$0.000.00查看详情查看价格
    ERNIE Character百度文心8K$0.554.00$1.108.00查看详情查看价格
    ERNIE Functions百度文心8K$0.554.00$1.108.00查看详情查看价格
    GLM-4-0520智谱AI128K$13.79100.00$13.79100.00查看详情查看价格
    GLM-4-AirX智谱AI8K$1.3810.00$1.3810.00查看详情查看价格
    GLM-4-Air智谱AI128K$0.141.00$0.141.00查看详情查看价格
    GLM-4-Flash智谱AI128K$0.000.00$0.000.00查看详情查看价格
    GLM-4V智谱AI2K$6.9050.00$6.9050.00查看详情查看价格
    GLM-3-Turbo智谱AI128K$0.141.00$0.141.00查看详情查看价格
    moonshot-v1-8k月之暗面8K$1.6612.00$1.6612.00查看详情查看价格
    moonshot-v1-32k月之暗面32K$3.3124.00$3.3124.00查看详情查看价格
    moonshot-v1-128k月之暗面128K$8.2860.00$8.2860.00查看详情查看价格
    qwen-long通义千问1M$0.070.50$0.282.00查看详情查看价格
    qwen-Turbo通义千问8K$0.282.00$0.836.00查看详情查看价格
    qwen-plus通义千问32K$0.554.00$1.6612.00查看详情查看价格
    qwen-max通义千问8K$5.5240.00$16.55120.00查看详情查看价格
    qwen-max-longcontext通义千问30K$5.5240.00$16.55120.00查看详情查看价格
    qwen1.5-110b-chat通义千问32K$0.977.00$1.9314.00查看详情查看价格
    qwen1.5-72b-chat通义千问32K$0.695.00$1.3810.00查看详情查看价格
    qwen1.5-32b-chat通义千问32K$0.483.50$0.977.00查看详情查看价格
    qwen1.5-14b-chat通义千问8K$0.282.00$0.554.00查看详情查看价格
    qwen1.5-7b-chat通义千问8K$0.141.00$0.282.00查看详情查看价格
    qwen-1.8b-chat通义千问8K$0.000.00$0.000.00查看详情查看价格
    qwen1.5-0.5b-chat通义千问32K$0.000.00$0.000.00查看详情查看价格
    Spark4.0 Ultra科大讯飞$13.79100.00$13.79100.00查看详情查看价格
    Spark3.5 Max科大讯飞$4.1430.00$4.1430.00查看详情查看价格
    Spark Pro科大讯飞$4.1430.00$4.1430.00查看详情查看价格
    Spark Lite科大讯飞$0.000.00$0.000.00查看详情查看价格
    Doubao-lite-4k字节跳动4K$0.040.30$0.080.60查看详情查看价格
    Doubao-lite-32k字节跳动32K$0.040.30$0.080.60查看详情查看价格
    Doubao-lite-128k字节跳动128K$0.110.80$0.141.00查看详情查看价格
    Doubao-pro-4k字节跳动4K$0.110.80$0.282.00查看详情查看价格
    Doubao-pro-32k字节跳动32K$0.110.80$0.282.00查看详情查看价格
    Doubao-pro-128k字节跳动128K$0.695.00$1.249.00查看详情查看价格
    YI-large零一万物32K$2.7620.00$2.7620.00查看详情查看价格
    YI-large-Turbo零一万物16K$1.6612.00$1.6612.00查看详情查看价格
    YI-large-rag零一万物16K$3.4525.00$3.4525.00查看详情查看价格
    YI-medium零一万物16K$0.342.50$0.342.50查看详情查看价格
    YI-medium-200k零一万物200K$1.6612.00$1.6612.00查看详情查看价格
    YI-spark零一万物16K$0.141.00$0.141.00查看详情查看价格
    YI-vision零一万物4K$0.836.00$0.836.00查看详情查看价格
    Hunyuan-pro腾讯混元32K$4.1430.00$13.79100.00查看详情查看价格
    Hunyuan-standard腾讯混元32K$0.624.50$0.695.00查看详情查看价格
    Hunyuan-standard-256k腾讯混元256K$2.0715.00$8.2860.00查看详情查看价格
    Hunyuan-lite腾讯混元4K$0.000.00$0.000.00查看详情查看价格
    Baichuan4百川智能$13.79100.00$13.79100.00查看详情查看价格
    Baichuan3-Turbo百川智能$1.6612.00$1.6612.00查看详情查看价格
    Baichuan3-Turbo-128k百川智能128K$3.3124.00$3.3124.00查看详情查看价格
    Baichuan2-Turbo百川智能$1.108.00$1.108.00查看详情查看价格
    Baichuan2-Turbo-192k百川智能192K$2.2116.00$2.2116.00查看详情查看价格
    step-1-8k阶跃星辰8K$0.695.00$2.7620.00查看详情查看价格
    step-1-32k阶跃星辰32K$2.0715.00$9.6670.00查看详情查看价格
    step-1-128k阶跃星辰128K$5.5240.00$27.59200.00查看详情查看价格
    step-1-256k阶跃星辰256K$13.1095.00$41.78300.00查看详情查看价格
    step-2-16k-nightly阶跃星辰16K$5.2438.00$16.55120.00查看详情查看价格

  • 给我的 OpenClaw 小龙虾装上声音,感觉它活了过来。

    我在 GitHub 上发现了一个刚刚开源的 Skill,它能让你的小龙虾 OpenClaw 开口说话,甚至克隆任何人的音色。
    我已经用上瘾了,一点停不下来了。

    一旦小龙虾拥有了声音,在心理层面上感受到了它的存在,这种变化很微妙。

    而且安装很简单,一句话让小龙虾自己安装。后面会给教程。

    开源地址:https://github.com/NoizAI/skills

    01

    听听效果

    先来听听实际的效果。哈哈哈哈哈哈 
    我装了 NoizAI 的 Skill 后,丢了一段川普的音频给我的 OpenClaw 小龙虾「钱多多」。
    它立即对川普的音色进行了克隆,并且转化成了自己的音色。
    而且我告诉它,后面这个就是它的音色了。
    哈哈哈哈哈哈。
    听到我的小龙虾说话的时候,我笑死了。
    我脑海里,我的小龙虾是一个说中文的贱兮兮嬉皮笑脸的特朗普。
    我看有其它网友也都纷纷接入这个 NoizAI Skill,飞书、whatsapp、telegram 中用了起来。
    尤其是最近 Agent Teams 很火,配置了一群小龙虾帮你干活。
    有的做运营、有的做客服、有的写代码啥的。
    就有人让 OpenClaw🦞根据不同的角色用不同的音色回复,感觉有了一群不同的小蜜在你旁边叽叽喳喳。
    特别是在开车、做家务等不便看屏幕的场景下,小龙虾能通过声音传递人设。
    不同 AI 助理对应不同声线,无需视觉确认,听声音就知道是谁在和你对话,这种高辨识度的交互才是真正的智能。

    02

    怎么安装?

    特别简单,如果你的小龙虾能够读取网页,你直接把下面这段话丢给你的龙虾就行了:

    帮我装这个 Skill:https://github.com/NoizAI/skills

    当你装完这个 Skill,会发现它支持两种模式,一种是本地 Kokoro 和云端 Noiz。
    根据自己的需求让小龙虾自己配置就行了:
    Kokoro 支持纯本地化运行,需要下载一个模型,但是没办法克隆音色。
    也可以使用 Noiz 云端,我用的就是 Noiz云端的能力,大额免费额度。整个过程你需要问其它 AI,遇到卡点直接问你的小龙虾就行了.
    配置了 Noiz API Key 后,你就能让你小龙虾说话了。
    你想让龙虾具备什么音色,可以去官方的音色类别选。或者直接丢给它一个参考音频就行了,它会自己克隆。
    然后小龙虾会告诉你已经克隆成功啦。
    你给它说:记住刚刚你克隆的这个音色就是你的音色了。后面我让你发语音的时候,你就用这个音色给我发语音。当然如果在某些场景或某些时刻你觉得发语音合适,也可以直接发。

    有一个提示,如果你的小龙虾没办法给你发语音。你就和他对话,让它学习就行了。

    实在不行,就发下面这句话给它,再试试。

    飞书语音条正确的发送方式:上传文件:file_type=opus(不是 mp3),需要 receive_id_type=chat_id 和 receive_id</span>发送消息:msg_type=audio,receive_id_type=chat_id,content 包含 file_key 和 duration

    03

    开源 Skill 简介

    这个开源项目是 Noiz AI 平台开源的。

    Noiz AI 本身是一个专注于语音 AI 的平台,它具备高质量的语音克隆、情感化 TTS 以及高效的 YouTube 视频摘要功能。

    刚刚开源的 NoizAI/skills 项目提供了 5 个核心 SKill:几乎涵盖了 AI Agent 和 AI 语音结合的方方面面。

    开源地址:https://github.com/NoizAI/skills

    ① 文本转语音 Skill:支持 Kokoro / Noiz,简单模式、时间轴精确渲染、精确时长控制与参考音频音色克隆。

    ② 用目标人物的声音进行对话:自动在线寻找其语音、提取干净参考样本,并生成语音回复。

    ③ 特色语音 SKill:通过语气词、情绪参数和场景预设,让生成语音更有陪伴感和人格化表达。

    ④ 视频翻译 Skill:将视频语音翻译成另一种语言,用 TTS 生成配音并替换原始音轨,同时保留视频画面。

    # 查看 GitHub 仓库可安装技能npx skills add NoizAI/skills --list --full-depth# 从 GitHub 仓库安装指定技能npx skills add NoizAI/skills --full-depth --skill tts -y# 从 GitHub 仓库安装npx skills add /# 本地开发调试(在仓库目录执行)npx skills add . --list --full-depth

    NoizAI 把高级音视频 AI 处理能力转化为开发者可调用的原子化技能。

    如果你想让你的 AI 机器人不再仅仅是一个聊天框,而是会用人声说话的情感助手,可以试试 。

  • LLM模型部署与微调

    已经了解了大模型的基础概念、RAG、Agent、Transformer架构等核心知识。今天,我们将学习如何将预训练模型适配到自己的业务场景(微调),并将其稳定、高效地部署到生产环境(部署)

    微调让模型更懂你的业务,部署让模型真正服务于用户。两者结合,是AI应用落地的最后一公里。

    一、为什么需要微调?

    预训练大模型(如GPT-4、LLaMA)已经具备通用能力,但在特定场景下可能表现不佳:

    ● 风格不符:回答不够专业、语气不匹配。

    ● 知识缺失:不了解你的产品、公司内部术语。

    ● 结构要求:需要输出特定格式(JSON、表格)。

    ● 成本考量:频繁调用API成本高,微调小模型更划算。

    1.1 微调 vs 提示工程 vs RAG

    方法适用场景优点缺点
    提示工程临时、简单任务无需训练,即时生效复杂任务不稳定,Token消耗大
    RAG知识问答、私有数据实时更新,可解释依赖检索质量,延迟稍高
    微调风格、格式、特定领域深度定制,性能稳定需要训练数据,成本较高

    三者常结合使用:微调让模型“学会”你的领域知识,RAG提供实时信息,提示工程优化交互。

    二、微调的核心流程

    微调是在预训练模型的基础上,用少量任务相关数据继续训练,调整模型参数。

    2.1 微调步骤

    1. 数据准备:收集、清洗、格式化训练数据。

    2. 选择基座模型:根据需求选择合适模型(如LLaMA、ChatGLM、Qwen)。

    3. 微调方法:全量微调或参数高效微调(PEFT)。

    4. 训练:设置超参数,启动训练。

    5. 评估与迭代:用验证集评估效果,调整数据或参数。

    6. 导出与部署:保存模型,量化优化,部署服务。

    2.2 数据准备

    ● 数据格式:通常采用“指令-回答”对(instruction-input-output)或对话格式。

    ● 数量要求:几百条可看到初步效果,数千条以上效果更稳定。

    ● 质量优先:清洗数据,保证答案准确、风格一致。

    示例数据(JSONL格式):

    {"instruction": "解释什么是RESTful API", "output": "RESTful API是一种基于HTTP的架构风格,使用资源概念和标准HTTP方法(GET、POST、PUT、DELETE)进行通信。"}
    {"instruction": "将以下英文翻译成中文:Hello world", "output": "你好世界"}

    2.3 微调方法

    方法说明优点缺点
    全量微调更新所有参数效果最好需要大量显存,训练慢
    LoRA低秩适配,只训练少量额外参数显存占用小,训练快,易切换效果略逊于全量
    QLoRALoRA + 量化4-bit量化,单卡可微调几十B模型精度略有损失
    Adapter插入小型网络层参数少,易插拔推理略增开销

    目前LoRA/QLoRA是主流,尤其适合资源有限的环境。

    三、微调实战:用LLaMA-Factory微调Qwen

    LLaMA-Factory是一个易用的微调框架,支持多种模型和方法。以下示例使用Qwen-7B进行LoRA微调。

    3.1 环境准备

    git clone 
                https://github.com/hiyouga/LLaMA-Factory.git
    
    cd LLaMA-Factory
    pip install -r 
                requirements.txt
    

    3.2 数据准备

    将训练数据放在 data 目录,格式为JSON,并在 data/ dataset_info.json  中注册。

    3.3 启动微调

    python src/
                train_bash.py
               \
        --stage sft \
        --model_name_or_path Qwen/Qwen-7B \
        --dataset my_dataset \
        --template qwen \
        --finetuning_type lora \
        --lora_target q_proj,v_proj \
        --output_dir ./output \
        --per_device_train_batch_size 4 \
        --gradient_accumulation_steps 4 \
        --learning_rate 5e-5 \
        --num_train_epochs 3 \
        --fp16

    3.4 合并权重并导出

    训练完成后,将LoRA权重合并到基座模型,便于部署:

    from peft import PeftModel
    from transformers import AutoModelForCausalLM, AutoTokenizer

    base_model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-7B")
    tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B")
    model = PeftModel.from_pretrained(base_model, "./output")
    merged_model = model.merge_and_unload()
    merged_model.save_pretrained("./merged_model")
    tokenizer.save_pretrained("./merged_model")

    四、模型部署:从训练到服务

    部署的目标是将模型以API或服务的形式提供给其他系统调用。

    图片

    4.1 部署方式对比

    方式适用场景优点缺点
    模型API服务通用,快速上线简单,无需管理硬件依赖第三方,成本可控性差
    自托管(GPU)高频调用、数据敏感完全控制,长期成本低需运维GPU集群
    边缘端离线、低延迟无网络依赖模型需压缩,性能受限
    Serverless间歇调用按需付费,免运维冷启动延迟

    4.2 常用部署工具

    工具特点适用场景
    vLLM高吞吐、PagedAttention高并发生产环境
    TGIHugging Face出品,功能全企业级部署
    FastAPI + Transformers简单灵活原型、内部工具
    Ollama一键运行,本地友好开发测试
    TensorRT-LLMNVIDIA优化,极致性能大规模生产

    4.3 部署实战:使用vLLM部署微调后的模型

    安装vLLM:

    pip install vllm

    启动服务:

    python -m 
                vllm.entrypoints.openai.api_server
               \
        --model ./merged_model \
        --port 8000

    调用API:

    import openai
    openai.api_base = "http://localhost:8000/v1"
    openai.api_key = "EMPTY"

    response = openai.ChatCompletion.create(
        model="./merged_model",
        messages=[{"role": "user", "content": "解释什么是微调"}]
    )
    print( response.choices[0].message.content)

    4.4 部署优化要点

    ● 量化:使用GPTQ、AWQ等量化技术,减少显存占用,提升推理速度。

    ● 批处理:动态批处理提高吞吐量。

    ● 缓存:对常见问题缓存结果,降低负载。

    ● 流式输出:提升用户体验,尤其对于长文本生成。

    五、后端开发视角:集成微调模型

    作为后端工程师,将微调模型集成到系统时需考虑:

    ● API设计:统一封装模型调用接口,便于前端和服务调用。

    ● 异步处理:耗时任务放入消息队列,避免阻塞。

    ● 监控与日志:记录请求、响应、耗时,用于质量分析和成本核算。

    ● 灰度发布:新模型先小流量验证,再全量切换。

    ● 版本管理:保存多个模型版本,支持回滚和A/B测试。

    三、微调实战:用LLaMA-Factory微调Qwen

    LLaMA-Factory是一个易用的微调框架,支持多种模型和方法。以下示例使用Qwen-7B进行LoRA微调。

    3.1 环境准备

    git clone 
                https://github.com/hiyouga/LLaMA-Factory.git
              
    cd LLaMA-Factory
    pip install -r requirements.txt

    3.2 数据准备

    将训练数据放在 data 目录,格式为JSON,并在 data/ dataset_info.json  中注册。

    3.3 启动微调

    python src/
                train_bash.py
               \
        --stage sft \
        --model_name_or_path Qwen/Qwen-7B \
        --dataset my_dataset \
        --template qwen \
        --finetuning_type lora \
        --lora_target q_proj,v_proj \
        --output_dir ./output \
        --per_device_train_batch_size 4 \
        --gradient_accumulation_steps 4 \
        --learning_rate 5e-5 \
        --num_train_epochs 3 \
        --fp16

    3.4 合并权重并导出

    训练完成后,将LoRA权重合并到基座模型,便于部署:

    from peft import PeftModel
    from transformers import AutoModelForCausalLM, AutoTokenizer

    base_model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-7B")
    tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B")
    model = PeftModel.from_pretrained(base_model, "./output")
    merged_model = model.merge_and_unload()
    merged_model.save_pretrained("./merged_model")
    tokenizer.save_pretrained("./merged_model")

    四、模型部署:从训练到服务

    部署的目标是将模型以API或服务的形式提供给其他系统调用。

    图片

    4.1 部署方式对比

    方式适用场景优点缺点
    模型API服务通用,快速上线简单,无需管理硬件依赖第三方,成本可控性差
    自托管(GPU)高频调用、数据敏感完全控制,长期成本低需运维GPU集群
    边缘端离线、低延迟无网络依赖模型需压缩,性能受限
    Serverless间歇调用按需付费,免运维冷启动延迟

    4.2 常用部署工具

    工具特点适用场景
    vLLM高吞吐、PagedAttention高并发生产环境
    TGIHugging Face出品,功能全企业级部署
    FastAPI + Transformers简单灵活原型、内部工具
    Ollama一键运行,本地友好开发测试
    TensorRT-LLMNVIDIA优化,极致性能大规模生产

    4.3 部署实战:使用vLLM部署微调后的模型

    安装vLLM:

    pip install vllm

    启动服务:

    python -m 
                vllm.entrypoints.openai.api_server
               \
        --model ./merged_model \
        --port 8000

    调用API:

    import openai
    openai.api_base = "http://localhost:8000/v1"
    openai.api_key = "EMPTY"

    response = openai.ChatCompletion.create(
        model="./merged_model",
        messages=[{"role": "user", "content": "解释什么是微调"}]
    )
    print( response.choices[0].message.content)

    4.4 部署优化要点

    ● 量化:使用GPTQ、AWQ等量化技术,减少显存占用,提升推理速度。

    ● 批处理:动态批处理提高吞吐量。

    ● 缓存:对常见问题缓存结果,降低负载。

    ● 流式输出:提升用户体验,尤其对于长文本生成。

    五、后端开发视角:集成微调模型

    作为后端工程师,将微调模型集成到系统时需考虑:

    ● API设计:统一封装模型调用接口,便于前端和服务调用。

    ● 异步处理:耗时任务放入消息队列,避免阻塞。

    ● 监控与日志:记录请求、响应、耗时,用于质量分析和成本核算。

    ● 灰度发布:新模型先小流量验证,再全量切换。

    ● 版本管理:保存多个模型版本,支持回滚和A/B测试。

    六、总结与展望

    核心要点

    维度关键内容
    微调用业务数据让模型更贴合场景,常用LoRA/QLoRA
    数据准备指令-回答对,质量重于数量
    部署工具vLLM(高吞吐)、TGI(企业级)、Ollama(本地)
    优化量化、批处理、缓存、流式输出
    后端集成API设计、异步、监控、灰度、版本管理

  • 如何用微信接入小龙虾保姆教程!

    微信,正式接入了 OpenClaw。

    一句话翻译就是:你的微信,可以直接操控一个 AI 助手了。不是聊天机器人那种简单问答,而是——帮你写东西、查资料、改代码、做任务,甚至远程帮你操作电脑。说实话,这一步,比很多人想象的要大得多。

    话不多说,我们赶紧尝鲜一下。

    1.先升级微信

    这个新的功能必须在新的微信上可以用,而且是ios系统,苹果的手机上是可以的(电脑端我们没有试),在app store找到最新的这个版本

    2.找到微信插件

    在最新的微信里面,点击我的,然后在设置/插件 找到小龙虾的插件

    可以看到插件里面增加微信clawBot这个插件,其实就是一个跟openclaw连接的工具,点击详细可以看到这样的页面:

    然后我们需要到运行的openclaw的服务器上去安装一些这个微信插件。

    3.打开你的openclaw服务器

    我用的是腾讯云的openclaw服务器(具体如何零基础安装openclaw和配置这个我们星球都有详细的教程),然后在你的服务器上敲下面的命令:

    1).首先要看一下你的服务器必须有 Node.js

    先执行:

    node -v
    npm -v

    会出现类似这样的:

    [root@VM-0-15-opencloudos ~]# node -v
    v22.22.0
    [root@VM-0-15-opencloudos ~]# npm -v
    10.9.4
    [root@VM-0-15-opencloudos ~]#

    如果有版本号(比如 v22)说明你的服务器已经安装了nodejs,否则需要安装一下。好,我们这个服务器已经安装好了,我们下面继续:

    2).安装微信openclaw插件

    敲:npx -y @tencent-weixin/openclaw-weixin-cli@latest install

    敲了命令之后就会开始安装了

    4.打开微信扫码

    把微信打开,然后扫一下这个服务器上的二维码即可(注意扫描有时间限制,二维码会过期),如果过期会继续生成二维码,然后再扫一下即可。

    扫完之后,点击链接即可,就可以连上小龙虾了。

    有兴趣的赶紧试一下。目前微信这个动作非常大,毕竟是14亿人使用的app  相信微信后面还有更大的动作,商业价值非常大。目前还不会使用小龙虾的可以赶紧学起来!

  • 大模型应用实战指南:从认知到落地的全路径解析

    大模型应用实战指南:从认知到落地的全路径解析。

    《大模型通识与应用:从”会聊天”到”会执行”》核心报告显示,当前大模型正从通用对话工具向垂直领域的任务执行专家加速进化,为各行业带来效率重构的新机遇。

    一、大模型能力跃迁的两大核心趋势

    1. 功能进化:从”闲聊助手”到”任务执行者”

    大模型的能力边界正快速突破对话场景,向精准任务执行延伸。以GPT-4为代表的通用大模型,已实现从日常闲聊到代码生成、复杂数据分析的跨越,MIT 2025年的研究数据显示,其任务完成率较前代模型提升62%。 多模态整合则进一步拓展了应用的便捷性:Lobster(龙虾AI)实现了语音指令到设计成果的直接转化,支持语音描述创意后一键生成PPT、海报设计稿,原本需要数小时的设计修改需求,现在响应时间可缩短至3分钟内。

    2. 行业渗透率:垂直场景的效率革命

    大模型的价值正在各行业的具体场景中落地:

    – 制造业:Manus机械臂搭载自然语言编程系统后,东莞某电子工厂仅通过语音指令即可完成产线参数调整,产线切换效率较传统编程方式提升40%;

    – 法律领域:合同审查AI工具可自动识别条款风险、标注合规问题,平均为律师节省87%的文书处理时间,让从业者聚焦更具价值的策略性工作。

    二、三款高实用性大模型工具测评

    工具名称核心功能典型场景用户价值(ROI)
    Lobster语音指令生成设计稿广告创意、营销物料制作美工人力成本降低35%
    ManusXAI驱动机械臂精准控制精密零部件装配装配误差率降低0.02mm
    DocSifter智能标书生成与审核企业招投标标书合规性提升,中标率提高22%

    三、场景落地的可复制方法论

    1. 四步实施框架:从需求到落地的标准化路径

    – 需求拆解:将业务流程拆解为”输入-处理-输出”三要素,比如客服场景可拆解为「用户语音输入→AI情绪与意图分析→标准化话术推荐」,确保AI任务目标清晰;

    – 工具选型:根据任务复杂度匹配工具能力——基础文本处理、文案生成可选择ChatGPT等通用工具,工业控制、精密操作等场景则需选用Manus等具备专用API的垂直工具;

    – 冷启动训练:上传企业专属数据训练垂直模型,建议至少准备500条标注数据,让AI快速适配企业业务逻辑;

    – 人机协同:设置关键节点的人工复核机制,例如在合同审核、产线调整等关键决策场景,保留15%的人工干预权,平衡效率与风险。

    2. 避坑指南:落地前需警惕的核心问题

    – 警惕”全能型AI”陷阱:无需追求能解决所有问题的工具,单一工具对目标任务的解决率超过80%即符合落地标准,过度追求”全能”反而会增加成本与复杂度;

    – 数据安全优先:涉及企业核心数据的场景,优先选择支持本地化部署的方案,如华为盘古大模型企业版,避免核心数据外溢风险。

    结语

    2026年大模型工具已进入”解决真问题”的务实阶段,对于企业而言,无需等待完美的技术方案,建议采用”小场景切入-快速迭代”的策略:从客服、标书制作等单一痛点切入,通过数据反馈持续优化模型,通常6个月内即可看到明显的效率提升与成本节约效果。

  • GPT-5.4×OpenClaw:从模型升级到可落地的智能体生产力

    这不是一篇比拼参数的技术评测,而是聚焦「AI落地实战」的生产力观察。 过去一周,GPT-5.4的相关新闻与测评密集释出,主流媒体和科技评测机构的结论高度一致:它的推理与长任务处理能力显著增强,针对智能体(Agent)的优化方向清晰可见,事实性输出准确率也有明显提升——当然,仍需人工校验确保严谨性。 但如果仅把GPT-5.4当作「更会聊天的AI」,你只挖掘到了它30%的价值。真正的价值分水岭,在于它能否嵌入稳定的业务工作流,持续、可靠地交付可复用结果。而这,正是OpenClaw的核心强项。

    为什么说OpenClaw是GPT-5.4的「生产力放大器」?

    很多企业已经引入了优秀的大模型,但团队生产力并未真正提升,根源往往在于三个「断点」: – 模型在网页端,业务在IM工具里,能力与场景割裂; – 任务流程只存在于员工脑子里,没有固化为标准流程,无法复用; – 多是临时对话式的零散使用,缺乏可持续的运营机制。 OpenClaw的价值,就是把这些断点串联成闭环:

    1. 多渠道统一入口

    无需切换不同平台,在Telegram、Discord、WhatsApp、iMessage等主流即时通讯渠道,都能直接触发同一个智能体的能力,让AI能力与业务场景无缝对接。

    2. 会话与记忆可管理

    告别「每次对话从零开始」的低效模式,通过会话(session)管理、上下文记忆、工具链调用和可追踪状态,让AI能承接有延续性的复杂任务。

    3. 原生自动化能力

    借助定时任务(cron)、心跳监测(heartbeat)、触发钩子(hooks)等机制,把「偶发的人工提问」转化为「自动触发的持续交付」,让AI主动完成工作。

    4. 支持多智能体隔离

    针对销售助理、财务助理、技术助理等不同角色,可设置独立工作区、专属配置和权限体系,让不同智能体各司其职,避免能力冲突。 一句话总结:GPT-5.4让单点AI能力更聪明,OpenClaw则把单点能力整合成了可落地、可复用、可持续的生产力系统。

    可直接复制的落地案例:GPT-5.4+OpenClaw打造内容运营自动化

    我们以微信公众号运营/内容团队的「每周AI行业快评」为例,拆解一套可直接复用的落地流程:

    Step1:自动化采集

    通过OpenClaw的定时任务功能,自动抓取行业重点媒体新闻、权威机构评测、官方技术文档等信息源,同时过滤重复内容与低质量信息,确保素材的精准性。

    Step2:模型智能归纳

    调用GPT-5.4对采集到的素材进行处理,按照「3条核心行业变化+2条行业争议点+1条实操建议」的固定框架,生成面向普通读者的通俗版本,避免技术术语堆砌。

    Step3:人工审稿把关

    对GPT-5.4的输出进行事实核验,调整过于夸张的表述,并加入团队的业务视角与行业判断,确保内容的严谨性和实用性。

    Step4:多渠道智能分发

    基于同一核心内容,OpenClaw自动生成适配不同场景的版本:微信公众号完整正文、社群传播的精简摘要、供团队内部参考的策略版,同步分发到对应渠道。 这套流程的核心,不是「写一篇文章」,而是每周稳定输出高质量内容——把偶发的创意工作,变成可标准化的持续生产力。

    给团队的三个实操建议:避免AI落地「高开低走」

    建议1:先定义「输出格式」,再追求「模型效果」

    如果输出格式不稳定,团队就无法复用AI结果。在测试模型能力前,先统一输出模板,比如固定为「开场结论+三点核心拆解+反方观点+行动建议」的结构,让AI的输出能直接对接业务需求。

    建议2:把「审稿规则」转化为系统规则

    将人工审稿的经验固化为可执行的系统规则:比如涉及数据必须标注来源、所有结论需明确适用边界、预测类内容必须标注「仅为判断,非既定事实」,用规则降低人工校验的成本。

    建议3:用OpenClaw实现「流程资产化」

    不要把AI能力绑定在某个人身上,而是通过OpenClaw沉淀可复用的「流程资产」:包括定时任务配置、标准提示词模板、多渠道触达规则、全流程版本记录,让新人也能快速承接工作,避免人员变动导致的能力断层。

    结语:2026年的竞争,是「AI生产力系统」的竞争

    现在仍有很多人在争论「哪个模型参数更高、能力更强」,但企业真正应该思考的是:你是否已经把模型能力,转化为可持续、可复制、可审计的业务流程? GPT-5.4代表了当前AI能力的「上限」,决定了团队的想象力边界;而OpenClaw代表了AI落地的「下限」,决定了想象力能否转化为实际结果。 如果你已经在使用GPT-5.x系列模型,现在最有价值的下一步,不是继续比拼模型跑分,而是把你的内容、运营、分析、协作流程,接入一个稳定的智能体网关(Agent Gateway)。只有走完这一步,AI才真正从「辅助工具」,变成驱动业务增长的「生产力系统」。

  • OpenClaw 源码架构深度解析

    引言

    OpenClaw(原Clawdbot)作为当前全球最炙手可热的开源AI Agent框架,其GitHub星标数已超越Linux和React,登顶全球榜首。它的爆火绝非偶然——这套架构完美解决了AI Agent落地的“最后一公里”问题,实现了从云端大脑到本地肢体的无缝协同。

    本文将深入OpenClaw源码,从四层架构插件化重构三级记忆系统Gateway-Pi执行链路四个维度,彻底拆解这套系统的设计哲学与实现细节。

    一、整体架构:四层解耦设计

    OpenClaw采用经典的四层解耦架构,从外到内依次是:交互层、网关层、智能体层、执行层。这种分层设计确保了各模块职责清晰、可独立演进。

    ┌─────────────────────────────────────────────────────────────┐
    │                        交互层 (Channels)                      │
    │  ┌──────────┐ ┌──────────┐ ┌──────────┐ ┌──────────┐      │
    │  │ WhatsApp │ │ Telegram │ │  飞书    │ │  iMessage │  ...  │
    │  └──────────┘ └──────────┘ └──────────┘ └──────────┘      │
    └─────────────────────────────────────────────────────────────┘
                                  │
                                  ▼
    ┌─────────────────────────────────────────────────────────────┐
    │                     网关层 (Gateway)                          │
    │             路由 · 排队 · 调度 · 鉴权 · 协议转换                │
    └─────────────────────────────────────────────────────────────┘
                                  │
                                  ▼
    ┌─────────────────────────────────────────────────────────────┐
    │                     智能体层 (Agent)                           │
    │  ┌────────────┐ ┌────────────┐ ┌────────────┐              │
    │  │会话管理器   │ │上下文组装器 │ │ 记忆系统   │              │
    │  └────────────┘ └────────────┘ └────────────┘              │
    │  ┌────────────┐ ┌────────────┐                              │
    │  │执行循环     │ │工具调用     │                              │
    │  └────────────┘ └────────────┘                              │
    └─────────────────────────────────────────────────────────────┘
                                  │
                                  ▼
    ┌─────────────────────────────────────────────────────────────┐
    │                      执行层 (Execution)                       │
    │  ┌──────────┐ ┌──────────┐ ┌──────────┐ ┌──────────┐      │
    │  │ 本地节点  │ │ 远端节点  │ │  技能    │ │  沙箱    │      │
    │  └──────────┘ └──────────┘ └──────────┘ └──────────┘      │
    └─────────────────────────────────────────────────────────────┘

    1.1 交互层:抹平所有IM差异

    交互层的核心职责是协议适配。OpenClaw内置支持8个核心通道(Telegram、WhatsApp、Discord等),并通过插件系统支持超过50个扩展通道。

    源码中,每个通道都是一个独立的插件,必须实现统一的ChannelPlugin接口:

    export type ChannelPlugin = {
      id: ChannelId;              // 通道唯一标识
      meta: ChannelMeta;          // 通道元信息
      capabilities: ChannelCapabilities; // 能力声明
      config: ChannelConfigAdapter;      // 配置管理

    // 可选实现
      outbound?: ChannelOutboundAdapter;  // 发送消息
      pairing?: ChannelPairingAdapter;    // 配对逻辑
      messaging?: ChannelMessagingAdapter; // 消息处理
    // ...
    }

    这种设计的精妙之处在于:核心模块不面向任何具体IM编程,只面向接口编程。无论未来出现什么新的IM工具,只要实现这套接口,就能无缝接入OpenClaw生态。

    1.2 网关层:系统的控制中枢

    Gateway是整个OpenClaw的核心服务,作为一个常驻的Node.js进程,它承担着:

    1. 路由:根据消息来源分配给对应的会话
    2. 排队:实现“车道式队列”(Lane Queue),默认串行、显式并行
    3. 调度:管理定时任务(Heartbeat)
    4. 鉴权:验证请求合法性
    5. 协议转换:将不同通道的消息统一成内部格式

    网关层的核心实现在src/gateway/server.py中,关键代码片段:

    # gateway/dispatcher.py
    def dispatch_task(payload):
        # 提取意图,过滤无用的对话历史
        intent = extractor.analyze(payload.content)
        # 匹配最合适的执行节点
        node_id = registry.get_active_node(payload.affinity)
        return forward_to_node(node_id, intent)

    Gateway还维护着节点的心跳机制(默认使用Redis),如果节点失联,指令会被正确路由到其他可用节点。

    二、插件化重构:从单体到生态

    2026年初,OpenClaw通过PR #661完成了重大插件化重构,这是架构演进的分水岭。

    2.1 单体架构的技术债务

    重构前,添加一个新模型提供商需要修改4个核心文件:

    • 继承BaseProvider抽象类
    • providers/index.ts手动注册
    • model-router.ts添加路由分支
    • 更新配置Schema

    路由文件充斥着大量的else-if分支,代码复杂度随提供商数量线性增长:

    // 重构前的路由逻辑
    exportclass ModelRouter {
    async route(model: string, ...args) {
        if (model.startsWith('anthropic/')) {
          returnthis.anthropicProvider.call(...args);
        } elseif (model.startsWith('openai/')) {
          returnthis.openaiProvider.call(...args);
        } elseif (model.startsWith('gemini/')) {
          returnthis.geminiProvider.call(...args);
        }
        // ... 还有15+个else-if
      }
    }

    2.2 插件化架构设计

    重构后的架构核心是接口标准化+动态加载

    // packages/core/src/provider-interface.ts
    export interface Provider {
      readonly name: string;
      readonly version: string;
      
      chat(messages: Message[], options: ChatOptions): AsyncIteratorstring>;
      estimateTokens(text: string): number;
      getSupportedFeatures(): ProviderFeatures;
    }

    动态加载机制通过ProviderLoader实现:

    export class ProviderLoader {
    private providers = new Mapstring, Provider>();

    async loadFromPackage(packageName: string): Promisevoid> {
        constmodule = await import(packageName);  // 动态导入
        if (!this.validateProvider(module.default)) {
          thrownewError(`Invalid provider: ${packageName}`);
        }
        const provider = newmodule.default();
        this.providers.set(provider.name, provider);
      }
    }

    重构后的路由逻辑从O(n)降为O(1):

    export class ModelRouter {
      async route(model: string, ...args) {
        const [providerName] = model.split('/');
        const provider = this.loader.getProvider(providerName);
        if (!provider) throw new Error(`Provider not found: ${providerName}`);
        return provider.chat(...args);
      }
    }

    2.3 插件化的四大优势

    1. 依赖隔离:核心框架从45MB降至8MB
    2. 并行开发:社区可独立开发插件,无需等待核心迭代
    3. 版本自治:各插件独立版本,可单独更新
    4. 安全增强:沙箱机制+权限声明,风险可控

    三、记忆系统:三级存储架构

    OpenClaw的记忆系统是其最惊艳的设计之一。它采用三级记忆架构,模拟人类记忆的分层特性。

    3.1 工作区结构

    每个Agent对应一个独立的工作区:

    ~/.openclaw/workspace/
    ├── MEMORY.md                # 长期记忆
    ├── memory/
    │   ├── 2026-03-10.md        # 今日日志(短期)
    │   └── 2026-03-09.md        # 昨日日志
    ├── sessions/                 # 会话存档(近端)
    ├── USER.md                   # 用户身份
    └── SOUL.md                   # Agent人格设定

    3.2 存储层:SQLite + 向量

    每个Agent对应一个独立的SQLite数据库,表结构设计精巧:

    -- 文件元数据
    CREATETABLE files (
    idINTEGER PRIMARY KEY,
    pathTEXTUNIQUE,
      mtime INTEGER,    -- 修改时间,用于增量索引
    hashTEXT         -- 内容哈希,去重
    );

    -- 文本块存储
    CREATETABLE chunks (
    idINTEGER PRIMARY KEY,
      file_id INTEGER,
    textTEXT,
    hashTEXTUNIQUE-- 文本哈希,跨文件去重
      embedding TEXT    -- JSON序列化的向量
    );

    -- 全文搜索(FTS5)
    CREATEVIRTUALTABLE chunks_fts USING fts5(textcontent=chunks);

    -- 向量搜索(sqlite-vec)
    CREATEVIRTUALTABLE chunks_vec USING vec0(embedding float[1536]);

    3.3 混合检索策略

    OpenClaw的核心检索工具memory_search实现了BM25 + 向量的混合检索:

    async function hybridSearch(query, options = {}{
    const vecWeight = 0.7;   // 向量权重
    const bm25Weight = 0.3;  // BM25权重

    // 分别检索(取并集)
    const vectorResults = await vectorSearch(query);
    const bm25Results = await bm25Search(query);

    // 合并并计算综合得分
    const allChunkIds = new Set([
        ...vectorResults.map(r => r.id),
        ...bm25Results.map(r => r.id)
      ]);

    // 加权平均后排序返回
    }

    这套算法的关键在于并集而非交集——只要任一方法认为相关,就有机会进入候选池。

    3.4 优雅降级

    如果sqlite-vec扩展未安装,系统会自动回退到JS暴力计算:

    try {
    // 快速路径:数据库内计算余弦距离
    returnawait db.all(`SELECT ... vec_distance_cosine(...)`);
    catch (err) {
    // 回退路径:全量加载到内存暴力计算
    const allChunks = await db.all("SELECT * FROM chunks");
    return allChunks.map(chunk => ({
        ...chunk,
        dist: cosineSimilarity(queryVector, JSON.parse(chunk.embedding))
      })).sort((a, b) => a.dist - b.dist).slice(0, limit);
    }

    四、执行层:Gateway-Pi 架构

    OpenClaw最硬核的部分是其云端大脑+本地肢体的设计。

    4.1 三层执行链路

    1. Orchestrator(大脑):云端部署,负责LLM推理和任务拆解
    2. Gateway(协议桥):鉴权、流量整形、指令翻译
    3. Pi-embedded(执行端):运行在本地设备,真正执行脚本

    4.2 沙箱隔离机制

    Pi-embedded实现了一套名为 “Cell Isolation” 的沙箱机制:

    # packages/pi-embedded/runtime/executor.py
    class ExecutionEngine:
        def execute(self, skill_code):
            # 环境快照
            snapshot = self.take_snapshot()
            
            # 在独立venv中运行
            with self.isolated_venv() as venv:
                # 动态安装依赖
                self.install_dependencies(skill_code.dependencies)
                # 执行技能
                result = venv.run(skill_code)
            
            # 恢复环境
            self.restore_snapshot(snapshot)
            return result

    4.3 完整调用链追踪

    以“查CPU温度并生成图表”为例,完整调用链如下:

    1. Orchestrator → 识别技能需求 → 生成JSON指令
    2. Gateway → 验证签名 → 查找在线Pi节点 → Protobuf封装 → WebSocket发送
    3. Pi-embedded → 接收消息 → 解包
    4. Sandbox → 启动临时Python进程 → 挂载传感器权限
    5. Skill Execution → 执行get_temp.py
    6. Callback → 结果(图片二进制)原路返回

    五、Agent核心配置

    每个Agent的workspace中包含多个核心配置文件:

    文件
    作用
    AGENTS.md
    Agent职责声明,决定工具权限
    SOUL.md
    个性化提示词,注入system prompt
    TOOLS.md
    工具白名单/黑名单,安全边界
    IDENTITY.md
    身份标识(name/avatar),通道展示
    USER.md
    用户偏好,上下文先验
    HEARTBEAT.md
    定时任务配置
    MEMORY.md
    长期记忆文档(RAG源)

    源码中通过loadWorkspaceBootstrapFiles方法加载这些文件:

    // src/agents/workspace.ts:498-555
    export async function loadWorkspaceBootstrapFiles(dir: string{
      const entries = [
        { name: "AGENTS.md", filePath: path.join(resolvedDir, "AGENTS.md") },
        { name: "SOUL.md", ... },
        { name: "TOOLS.md", ... },
        // ...
      ];
      // 动态检测MEMORY.md
    }

    六、架构设计的优缺点

    6.1 核心优势

    • 零运维:SQLite单文件,无需复杂数据库
    • 数据私有:全本地存储,不上云
    • 可审计:记忆透明,Markdown文件可读
    • 增量索引:只处理变更文件,效率高
    • 优雅降级:从向量→BM25→纯文本,逐级回退
    • 插件生态:60+官方技能,社区持续贡献

    6.2 现存挑战

    • Token消耗偏高:记忆系统是主要原因
    • 向量检索不懂关系:能找到个体但推不出关系
    • 维护成本线性增长:文件越多,索引维护越复杂
    • 长连接抖动:WebSocket 1006错误常见
    • 小白门槛:虽零运维,但需懂文件结构

    七、实战建议

    7.1 定期记忆体检

    长期记忆文件会随时间膨胀,建议每月手动过一遍MEMORY.md,删过时、并重复。

    7.2 教会Agent分类

    在系统提示词中引导分类:

    • “我喜欢/习惯” → preferences.md
    • “我要做一个” → projects.md
    • “解决了” → learnings.md

    7.3 善用Heartbeat

    openclaw cron add --name "记忆维护" 
      --cron "0 3 *" 
      --system-event "运行记忆整理:合并相似项,删除低价值项,生成摘要"

    7.4 显式限定搜索范围

    memory_search({ query: "...", scope: ["learnings.md"] })

    结语

    OpenClaw的架构设计给我最大的启发是:AI的记忆和执行不应该是黑盒。用Markdown存真相,用SQLite建索引,用BM25+向量做检索,用Gateway-Pi做执行——这套组合拳既保证了功能强大,又让一切透明可控。

    在这个所有AI都想“记住你”的时代,OpenClaw让你能随时打开文件、看清它记住了什么、知道它在哪执行、怎么执行。这种清醒的设计哲学,或许正是它能够超越Linux和React,登顶全球的原因。


    参考资料

    1. OpenClaw三级记忆系统实现揭秘
    2. 2026年OpenClaw插件化重构技术解析
    3. OpenClaw核心源码解读:从Gateway到Pi-embedded
    4. 不会写代码也能懂:OpenClaw四层架构图解
    5. 吃龙虾咯!万字拆解OpenClaw的架构与设计
    6. 关于OpenClaw,你需要了解的:核心架构、运作原理
    7. OpenClaw Architecture Deep Dive 2025



  • 一只金融龙虾!AlphaClaw来了

    谁能想到,OpenClaw 火到了今天,甚至出现了排队等待安装的盛况。一些大厂也开始入局,选择接入 OpenClaw。龙虾热已经发展为现象级,但问题是:究竟有多少行业能够真正将其投入使用呢?

    以金融圈为例,真正用起来的人屈指可数。原因很简单:部署繁琐、缺乏金融数据、不懂投研逻辑。

    对于每天和研报、财报、会议纪要打交道的分析师来说,通用 AI 工具就像一把没有刀刃的刀 —— 看着炫酷,实则切不动肉。

    现在,一款专为金融人打造的 AI 工具来了,它就是 AlphaClaw


    在拿到 AlphaClaw 内测资格之后,我们花了一周时间深度体验。结论是:这可能是目前最接近「AI 分析师」的产品。

    AlphaClaw 是什么?

    AlphaClaw 是熵简科技推出的金融投研 AI 工具,搭载于 AlphaEngine 平台。


    如果说上一代 AI 投研工具是有问必答的 AI 助手,那么 AlphaClaw 则完成了向「自主执行」的进化 —— 它是一位能够独立跑通复杂投研工作流的 AI 分析师。

    它不只是回答问题,而是直接交付结果:Excel 表格、回测报告、研报点评,一条龙搞定。


    一手实测:三个硬核投研场景

    场景一:让巴菲特帮你选股

    这是最让我惊艳的功能。


    我把珍藏多年的伯克希尔股东大会纪要(3200 多页)喂给 AlphaClaw,让它提炼巴菲特的投资逻辑。

    提示词:这是伯克希尔过去 10 年股东大会的文字实录,仔细阅读全文,总结出巴菲特的投资逻辑,整理成 Skill 给我。


    几分钟后,AlphaClaw 生成了一个名为「Buffett Investment Philosophy」的 Skill,涵盖能力圈原则、护城河评估标准、财务舞弊识别等核心要点。


    更绝的是,你可以直接用这个 Skill 来分析当前市场。

    提示词:使用这个 Skill,站在巴菲特角度分析霍尔木兹海峡禁运对全球能源体系的冲击,提出资产配置建议,生成自选股清单并保存为 Excel。


    AlphaClaw 会调用刚创建的 Skill 作为分析框架,结合 AlphaEngine 平台内置的研报数据,输出一份完整的投资建议 —— 不是空泛的「建议关注能源板块」,而是具体到标的、逻辑、风险点。

    我甚至让它读完《金融炼金术》、《投资最重要的事》,分别生成了索罗斯、霍华德・马克斯的投资逻辑 Skill。以后遇到任何市场事件,可以召集这些「投资大师」 开个专家会审。


    场景二:给基本面投资者插上量化的翅膀

    这是为「有想法但不会写代码」的投资者准备的。


    很多基本面投资者有独特的选股逻辑,但因为不懂 Python、不会回测框架,只能让这些灵感停留在脑海中。

    AlphaClaw 可以弥合这个鸿沟。

    提示词:帮我梳理最新 1 个月有价值的金工量化报告,筛选出 3 个最有价值的量价因子。


    它会自动检索平台内的金工研报,帮你筛选出凸显性因子、行业拥挤度因子等。



    提示词:帮我实现成代码,应用于我的自选股票池,保存成 Excel。

    一段文字,AlphaClaw 就能输出完整的 Python 代码,把投资灵感变成可回测的量化策略。

    这意味着什么?巴菲特帮你选股,量化因子帮你择时,主观和量化的结合,从未如此简单。


    场景三:年报季的救星

    年报季是分析师的噩梦:上市公司扎堆发财报,听完会议还得熬夜写点评。

    AlphaClaw 可以成为你的「投研分身」。

    提示词:这是我之前写的几篇业绩点评,把我的写作风格总结成 Skill。

    喂几篇你写过的点评,它就能学会你的遣词造句、段落结构、分析框架。

    提示词:模仿我的风格,帮我批量生成所有自选股的业绩点评。

    输出的点评 100% 按你的风格生成,数据来源于平台内置的研报和公告,你只需要做最后的审核和调整。

    年报季的苦,让 AI 帮你吃。你可以把节省的时间,投入到更有价值的深度思考中。


    为什么是 AlphaClaw?


    市面上 AI 工具那么多,金融人为什么选择 AlphaClaw 呢?

    两个字:数据


    投研的本质是「数据 + 逻辑」。没有数据,再强的 AI 也只能输出「正确的废话」。

    AlphaClaw 内置了 AlphaEngine 平台的投研数据库,日更资料近万篇,包括但不限于:

    全量内外资券商研报库

    • A 股、港股、美股上市公司会议纪要库

    • 行业点评资讯库

    • 专家访谈纪要库等等


    这是它和 OpenClaw 最大的区别和优势 —— 不是在通用知识上回答问题,而是基于专业金融数据做分析


    数据安全:本地优先

    金融行业,数据即资产。很多机构不敢用 AI,就是担心数据泄露。


    AlphaClaw 采用「Local-First」架构:


    • 个人知识库(私有笔记、内部纪要)在本地完成向量化处理

    • 你沉淀的投资逻辑 Skill 仅在本地运行

    • 物理隔绝云端,杜绝数据泄露风险

    你的投资策略不会成为大模型的「训练语料」,AlphaClaw 是一款真正可以在本地环境下放心使用的专属私密参谋。


    展望未来金融人和 AI 的共生关系


    体验一周下来,AlphaClaw 给我最大的感受是:


    它不是在「帮你查资料」,而是在「帮你干活」


    查资料是 ChatGPT 就能做的事。但把资料变成 Excel、变成代码、变成可执行的策略,这才是金融从业者真正需要的。


    当然,它也不是万能的。复杂的估值模型、需要大量行业 know-how 的判断,AI 还替代不了人。但它确实可以把分析师从繁琐的案头工作中解放出来,让人去做更有价值的事。


    正如熵简科技 CEO 费斌杰所说:「让研究回归思考」。AlphaClaw 的定位是赋能专业投资者成为「一人投研团队」。



    如何体验 AlphaClaw?


    正如上文所说,AlphaClaw 搭载于 AlphaEngine 平台。因此,如果你是 AlphaEngine 现有用户,登录官网下载桌面端即可使用。


    如果你还不是用户,目前官方开放了首批 1000 个体验名额,先到先得,仅限机构投资者,个人投资者暂无法使用


    下载地址:www.alphaengine.top


    AI 投研时代已经到来。问题不是「要不要用」,而是「谁先用起来」。


    在信息平权的 AI 时代,如何构建专属于你的个人投研壁垒?


    如何应用 Skill,让你的投研数字分身帮你 24 小时打工?


    熵简科技 CEO、AlphaEngine 主理人费斌杰讲在本周四晚 19:30,进行主题分享,欢迎感兴趣的投研专业人士参加


  • OpenClaw 使用 DeepSeek 官方 API_KEY 配置教程

    前言

    找遍全网也没找到如何在openclaw配置deepseek官方apikey,那我自己整一个,以下内容为Claude Code根据我的聊天记录总结生成,希望对想在openclaw使用deepseek官方apikey的人提供帮助。

    系统要求

    • 操作系统: macOS / Linux / Windows (WSL)
    • Node.js: 版本 22+ (推荐使用 nvm 管理)
    • 网络: 需要访问 DeepSeek API (http://api.deepseek.com)

    安装 OpenClaw

    1. 全局安装 OpenClaw

    npm install -g openclaw@latest

    安装过程可能需要 3-5 分钟,会下载约 674 个依赖包。

    2. 验证安装

    openclaw --version

    应该显示类似:🦞 OpenClaw 2026.3.8

    初始化配置

    1. 运行配置向导

    openclaw onboard --install-daemon --non-interactive --accept-risk

    说明:

    • --install-daemon: 安装后台服务
    • --non-interactive: 非交互模式
    • --accept-risk: 接受安全风险声明

    2. 检查服务状态

    openclaw status

    确认 Gateway 服务正在运行。


    配置 DeepSeek 官方 API

    1. 获取 DeepSeek API Key

    访问 DeepSeek 官网 注册并获取 API Key。

    API Key 格式类似:sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

    2. 配置 DeepSeek 提供商

    执行以下命令(将 你的API_KEY 替换为实际的 API Key):

    openclaw config set models.providers.deepseek '{
      "baseUrl": "https://api.deepseek.com/v1",
      "apiKey": "你的API_KEY",
      "api": "openai-completions",
      "models": [
        {
          "id": "deepseek-chat",
          "name": "DeepSeek Chat (V3)"
        },
        {
          "id": "deepseek-reasoner",
          "name": "DeepSeek Reasoner (R1)"
        }
      ]
    }'

    3. 设置默认模型

    openclaw config set agents.defaults.model.primary "deepseek/deepseek-chat"

    4. 创建模型别名(可选)

    openclaw models aliases add deepseek-v3 "deepseek/deepseek-chat"
    openclaw models aliases add deepseek-r1 "deepseek/deepseek-reasoner"

    5. 重启 Gateway 服务

    openclaw gateway restart

    等待 3-5 秒让服务完全启动。

    测试与使用

    1. 命令行测试

    openclaw agent --session-id test --message "你好,请介绍一下你自己"

    如果配置成功,DeepSeek 会用中文回复。

    2. 打开 Web 控制面板

    openclaw dashboard

    浏览器会自动打开控制面板,URL 格式:

    http://127.0.0.1:18789/#token=你的gateway_token

    3. 查看配置状态

    openclaw models status

    应该显示:

    • Default: deepseek/deepseek-chat
    • Configured models: 包含 deepseek 模型

    常用命令

    服务管理

    # 启动 Gateway
    openclaw gateway
    
    # 重启 Gateway
    openclaw gateway restart
    
    # 停止 Gateway
    openclaw gateway stop
    
    # 查看服务状态
    openclaw status
    
    # 查看详细状态
    openclaw status --all
    
    # 查看实时日志
    openclaw logs --follow

    模型管理

    # 列出所有可用模型
    openclaw models list --all
    
    # 查看当前模型配置
    openclaw models status
    
    # 切换模型(在聊天中使用)
    /model deepseek-v3
    
    # 设置默认模型
    openclaw config set agents.defaults.model.primary "模型ID"
    
    # 添加模型别名
    openclaw models aliases add 别名 "模型ID"
    
    # 查看所有别名
    openclaw models aliases list

    对话交互

    # 发送单条消息
    openclaw agent --session-id 会话ID --message "你的问题"
    
    # 指定超时时间(秒)
    openclaw agent --session-id test --message "问题" --timeout 60
    
    # 使用本地模式(不通过 Gateway)
    openclaw agent --local --session-id test --message "问题"

    配置管理

    # 查看配置
    openclaw config get 配置路径
    
    # 设置配置
    openclaw config set 配置路径 "值"
    
    # 删除配置
    openclaw config unset 配置路径
    
    # 运行配置向导
    openclaw configure

    故障排除

    问题 1: Gateway Token 错误

    错误信息disconnected (1008): unauthorized: gateway token missing

    解决方法:

    # 打开带 token 的控制面板
    openclaw dashboard

    或手动获取 token:

    openclaw config get gateway.auth.token

    问题 2: 模型不可用

    错误信息Unknown model: xxx

    解决方法:

    1. 检查模型配置:
      openclaw models status
    2. 确认模型 ID 正确:
      openclaw models list –all | grep deepseek
    3. 重启 Gateway:
      openclaw gateway restart

    问题 3: API Key 无效

    错误信息HTTP 401 或 Unauthorized

    解决方法:

    1. 验证 API Key 是否正确
    2. 检查 API Key 是否过期
    3. 重新配置提供商:
      openclaw config set models.providers.deepseek.apiKey “新的API_KEY” openclaw gateway restart

    问题 4: 连接超时

    错误信息Request timed out 或 No reply from agent

    解决方法:

    1. 检查网络连接
    2. 测试 DeepSeek API 可达性:
      curl -I https://api.deepseek.com/v1/models
    3. 增加超时时间:
      openclaw agent –session-id test –message “测试” –timeout 120

    问题 5: Gateway 无法启动

    解决方法:

    1. 检查端口占用:
      lsof -i :18789
    2. 强制重启:
      openclaw gateway –force
    3. 查看日志:
      openclaw logs
    4. 运行诊断:
      openclaw doctor openclaw doctor –fix

    高级配置

    配置备用模型

    当主模型不可用时,自动切换到备用模型:

    openclaw config set agents.defaults.model.fallbacks '["deepseek/deepseek-reasoner"]'

    配置环境变量

    将以下内容添加到 ~/.zshrc 或 ~/.bashrc

    # DeepSeek API Key (可选,如果已在配置文件中设置)
    export DEEPSEEK_API_KEY="你的API_KEY"
    
    # OpenClaw Gateway Token (可选)
    export OPENCLAW_TOKEN="你的gateway_token"

    然后重新加载配置:

    source ~/.zshrc  # 或 source ~/.bashrc

    配置工作空间

    openclaw config set agents.defaults.workspace "/自定义/工作空间/路径"

    相关资源

    提示: 如果遇到其他问题,可以运行 openclaw doctor --deep 进行深度诊断,或访问官方文档获取更多帮助。