Rosette Nebula · AI Generated
拆解 OpenClaw 并发模型:为什么 Subagent 默认并发比 Main 更高?
升级到 v2026.3.12 后,我们发现 Subagent 的默认并发上限是 8,而 Main 只有 4。第一眼看到这组数字时,我们还以为又挖到了一个 bug——直到把命令队列的源码翻了一遍。
追踪 OpenClaw 的一个隐藏 bug:并发配置为什么从未生效
多个 Agent 明明配了并发,却永远在互相等待。我们花了三天追踪这个 OpenClaw 的隐藏 bug,最终发现构建工具把一份运行时状态复制成了十份独立的副本。
从「养虾」到「卸虾」:一个 AI 产品的定位危机
OpenClaw 一周内从全民安装到恐慌卸载。这不是产品质量的问题,而是一个从未被确立的产品定位,被外部力量强行定义后崩塌的故事。
从双螺旋困境到评估驱动:AI Agent 的质量可观测性
上一篇文章我提出了 AI 产品中功能与效果的结构性矛盾。重新审视 Anthropic 的 Agent 评估方法论后,我觉得它指向的东西比 Eval 本身更大——AI Agent 的质量,需要像基础设施一样被「可观测」。
OpenClaw 的 thinking 设计:一次配置语义的追踪与产品思考
从 GPT-5.4 的 reasoning 能力聊起,顺着 OpenClaw 的 thinking 配置一路追到了真实请求体——中间经历的每一层翻译,都比想象中多。
从检索到遗忘——AI Agent 记忆系统的思考
给 AI 建了一套完整的记忆搜索系统,87% 的时间它选择不用。也许 AI Agent 记忆系统真正需要的不是更好的检索,而是更好的遗忘。
AI 产品的双螺旋困境:当功能迭代跑赢效果优化
做 Agentic AI 产品,功能可以很快,效果却快不起来。记录我在 AI 写作产品中遇到的结构性矛盾,以及对这个问题的一些不成熟的思考。
从 PC 到 PAN——个人计算的第三次范式转移
当 AI 具备了强大的认知能力,人依然是不可替代的决策者、监管者和物理世界的执行者。连接二者的设备该叫什么?我们提出 PAN(Personal Agent Node)概念,探讨人机共生时代的个人终端形态。