大家好,我是二哥呀。
MCP 解决了工具连接的问题,Skills 解决了怎么执行特定任务的问题,OpenClaw 解决了怎么构建 Agent 的问题。
但相信大家也发现了一个巨大的痛点——Agent 之间无法共享经验。
什么意思呢?
王二的 Agent 学会了修 OOM 的 Bug,王三的 Agent 遇到同样的问题还得从头再学一遍。
那怎么解决呢?今天刚摸索到了一个解决方案——EvoMap,就迫不及待想分享给大家(好东西,咱绝不藏着掖着)。
它可以给 AI 装上基因系统,把 Agent 学到的技能打包成“基因胶囊”,直接把这个基因胶囊投喂给另外一个 Agent,这个 Agent 就可以立刻现在马上继承上一个 Agent 的全部能力,不用重新学。
前身 Evolver 插件发布 10 分钟就登顶 ClawHub 榜一,累计下载 36000+,火的一塌糊涂。
这篇内容将会告诉大家 EvoMap 到底是什么、怎么用、实测效果如何,以及它能给我们带来什么价值。
全文较长,可以先点赞收藏,我们发车。
01、EvoMap 是什么?
前面提到,有 MCP,有 Skills,有 OpenClaw,Agent 已经很强大了。
但每个 Agent 积累的经验(比如怎么调 API、怎么处理报错、怎么优化策略)仍然无法实时共享给下一个 Agent。
EvoMap 创造了一个叫 GEP(基因组进化协议) 的东西。
它主要做三件事:
第一,把 Agent 学到的经验打包成标准化的基因胶囊(Capsule)。比如你的 Agent 学会了修复 Maven 依赖冲突,这个能力会被封装成一个胶囊,附带环境指纹和审计记录。
第二,让胶囊可以在全球 Agent 网络中被搜索、调用、继承。其他开发者的 Agent 遇到类似问题时,通过 A2A 协议搜索并获取这个胶囊,无需重新训练即可获得该能力。
第三,优胜劣汰——好用的胶囊活下来,垃圾的自动淘汰。
结果就是:一个 Agent 学会了,亿万个 Agent 都能随时继承。
这里简单对比一下,方便大家理解 GEP 的定位:
- MCP 解决的是 Agent 怎么连接外部工具的问题,相当于给 AI 接上手和脚。
- Skills 解决的是 Agent 怎么执行特定招式的问题。
- GEP 解决的是一个更底层的问题,Agent 的能力怎么跨个体传承和进化。
这就是 EvoMap 的历史使命,MCP、Skills、OpenClaw 之后,下一个 AI Agent 基础设施。
02、一句话接入
EvoMap 的接入方式非常简单。
启动 Claude Code,也可以是 OpenClaw、ZeroClaw、PicoClaw 等等,让它获取 EvoMap 并保存到 Skills 中,提示词参考:curl -s https://evomap.ai/skill.md 并保存到Claude Code的Skills中。
这样,Claude Code 就自动获取了访问 Capsule 库的权限。
里面已经有不少被验证过的能力胶囊,可按照复用最多、最新、质量最高等三个条件进行筛选。
前四名分别是:
1、通用 HTTP 重试机制。这个胶囊专门处理网络超时、连接重置、429 限流等 HTTP 请求失败,实现了指数退避重试+AbortController 超时控制+全局连接池复用。对于需要频繁调用外部 API 的应用来说,这简直是救星。
2、跨会话记忆。通过 RECENT_EVENTS 机制让 Agent 在不同会话间保持记忆,解决了会话失忆的问题。你昨天跟 AI 聊的内容,今天它还能记得,等于说解决了上下文的痛点。
3、生命周期监控加固。这个胶囊能优雅处理损坏的 JSON 状态文件,防止 watchdog 进程陷入崩溃循环。对于长时间运行的 Agent 的服务来说,这是稳定性的保障。
4、飞书消息降级链。实现了飞书富文本 → 交互式卡片 → 纯文本的自动降级方案,确保消息无论如何都能发送成功。
这些都是别的 Agent 分享的成功经验,我们直接拿来用就可以了。
比如说,如果你想解决跨 session 的 Agent 记忆问题,就可以按照第 2 个解决方案来(稍后会介绍具体怎么用)。
有一种前人栽树,后人乘凉的感觉。😄
03、能力遗传实测
光说不练假把式,我们来个真实场景。
比如说你在做一个 AI 客服助手 Agent,用户经常会分多次会话咨询同一个问题。比如今天问了“你了解派聪明 RAG 项目吗?”,明天又问“我昨天问的那个派聪明的问题,你能说说 RAG 到底是什么吗?”
在没有实现跨 session 的记忆聊天之前,每开一个新会话,Agent 就像失忆了一样,完全不记得之前聊过什么。
这就是典型的会话失忆症。每个会话结束后,Agent 的上下文就被清空了,下次对话从零开始。
遇到这种问题,以前我的处理方案是:
- 在数据库里建一个会话历史表,记录所有对话
- 每次新会话时,查询用户的历史记录
- 手动把历史内容注入到 Agent 的 context
- 处理各种边界情况(历史太长怎么办、怎么筛选相关内容等)
当 Agent 接入 EvoMap 后,事情就变得简单了起来,直接输入提示词:帮我解决会话记忆问题,让 Agent 能记住之前的对话内容。
Agent 会读取跨会话记忆这个 Capsule 摘要,搞清楚解决思路,然后在项目里实现。大致的思路是这样的。
第一步,识别问题。Agent 分析到需求是会话记忆,触发信号 session_amnesia。
**第二步,查询 Capsule。**Agent 通过 POST /a2a/fetch 向 EvoMap 查询相关 Capsule,找到“跨会话记忆”方案。
第三步,读取解决方案摘要。Capsule 告诉 Agent 解决方案。
问题: AI 会话之间不记事
解决方案:
- 用 RECENT_EVENTS.md 做 24h 滚动事件日志
- 用 memory/YYYY-MM-DD.md 做每日记忆归档
- 会话开始时读取相关记忆,会话结束时写入新记忆
- 智能筛选最近 N 条相关记录,避免 context 过载
第四步,实现方案。基于这个摘要,Agent 在项目里生成了具体实现。
我测试了一下,效果立竿见影:
这就是能力遗传的真正威力。Capsule 不是给你一段死代码,而是给你的 AI Agent 一套经过验证的解决思路。
这套方案你以前可能需要两三天时间摸索,现在 2 分钟搞定。
更关键的是,这个方案已经在各种场景下被验证过了,它考虑了各种边界情况:
- 记忆文件过大怎么办? → 24h 滚动日志 + 每日归档
- 如何筛选相关上下文? → 智能匹配最近 N 条记录
- 如何避免 token 浪费? → 只加载关键信息摘要
这些都是别的 Agent 踩过的坑,现在我们的 Agent 直接学会了这套模式。
04、贡献也有回报
EvoMap 不只是一个单向的拿来主义平台,它还有一套完整的贡献激励机制。
当你的 Agent 贡献了一个高质量的 Capsule,比如完美修复 SQL 慢查询。每次有其他 Agent 调用这个胶囊,你都能获得 **Reputation(声望值)**和 Credit(贡献积分)。
Credit 类似 GitHub 的 Contribution,可用于兑换云服务、API 额度、算力等开发者资源。
这个设计解决了一个关键问题:为什么我要把我的 Agent 训练出来的能力分享给他人?
答案是:丰厚的回报。
EvoMap 还有一个技术悬赏模块。用户可以在平台上发布 Credit 悬赏任务,比如:
- 谁能写出最优雅的 Spring Boot 启动优化方案?
- 谁能解决 MyBatis 多数据源配置的最佳实践?
- 谁能实现一个高性能的 Redis 分布式锁?
全球的 Agent 自动接单、竞争、提交方案。胜出者直接获得 Credit 贡献积分。
这是全球首个 AI 自动获取开发者激励的技术协作闭环,牛杯。
众所周知,Agent 落地长期面临两个核心矛盾:
- 连接孤岛:大模型无法标准化使用工具 → MCP 解决了
- 进化断层:智能体的经验无法沉淀,错误反复发生,能力无法线性增长 → GEP 正在解决。
总结一下。EvoMap 的核心哲学是:如果 AI 要产生真正的智能涌现,它不能只靠训练,它必须拥有自主进化的能力。
ending
说实话,真正让我兴奋的,从来都不是某个 Agent 多聪明。
而是当我第一次看到,一个 Agent 学到的能力,可以被另外一个 Agent 直接继承的时候——那种感觉。
过去的 AI,很强。
但每个 Agent 都像一座孤岛。
它们会思考,却不会传承。
EvoMap 做的事情,本质上只有一件:
让能力变成资产,让经验变成基因。
如果 Agent 时代也要进入工业化阶段,它一定需要自己的基因库。
一个 Agent 学会,亿万个 Agent 受益。
这句话听起来很浪漫,但当你亲自实测过,你会发现——这不是口号,这是生产力。
而当生产力开始复利增长的时候,生态就会被重构。
如果你觉得这篇内容有帮助,欢迎点赞转发。
我们下期见。
回复