从 PC 到 PAN——个人计算的第三次范式转移
AI 负责思考,人负责决策和行动。连接二者的设备,该叫什么?
一、一段对话
今天上午和一位运维同事聊天:
他: 今年估计还得干掉不少人。 我: 嗯,可能就剩下几个小团队了。 他: 运维这边也砍得这么凶……难道用机器人去交付? 我: 说的有道理,带个 AI 助手到内网去做交付。还得带个模型。 他: 为啥不是 AI PC? 我: ……
“为啥不是 AI PC?“——这个问题让我停顿了一下。不是因为答不上来,而是意识到我想说的东西,现有的词汇已经装不下了。
AI PC 是什么?是一台装了 NPU、能跑本地模型的笔记本电脑。本质上还是 PC——人操作机器,只是机器聪明了一点。
但我想象的那个东西,不是”更聪明的 PC”。它是一种全新的关系:你带着它去客户现场,它告诉你该做什么,你负责动手。
这需要一个新词。
二、三次范式

回望个人计算的历史,每一次范式转移都重新定义了”人和计算的关系”:
第一次:PC(1980s-2000s)
计算从机房走进书房。个人第一次拥有了自己的计算资源。人是操作者,计算机是工具。你打开 Word 写文档,打开 Excel 算数据,每一个动作都由你发起,由你完成。
关键词:人操作工具。
第二次:智能手机(2007-至今)
计算从桌面走进口袋。算力变得随身、永远在线。APP 生态爆发,人的生活全面线上化。但本质没变——你还是那个发起动作的人,只是动作从鼠标点击变成了手指触控。
关键词:人操作更便携的工具。
那第三次呢?
我有一个设想。也许并不成熟,但它来自一个真实的场景感受——当我想象带着一个 AI 助手走进客户机房的时候,我发现这个画面和以前”抱着笔记本去现场”的画面有根本性的不同。不同在于:我不再是主导一切的操作者了。AI 在做大量的认知工作——理解文档、分析问题、规划步骤——而我在做它做不了的事情:走到现场、插上网线、和客户握手。
如果这种关系成为常态,那个承载 AI 的设备就不再是”我的工具”,而更像是”我的搭档的身体”。而我,既是这个搭档的合作伙伴,也是它的监管者——我决定它什么时候介入、做到什么程度、哪些事必须由我来判断。
第三次范式:PAN
计算不再等你操作。AI Agent 具备了理解意图、规划步骤、自主执行的能力。设备的角色从”被操作的工具”变成”Agent 的物理载体”。人的角色从”操作者”变成”决策者和执行器”。
关键词:人和 AI 形成共生体。
PAN——Personal Agent Node,个人智能体节点。
这不是一个新品类的名字,而是一种新关系的描述:你的个人 AI Agent 需要一个物理节点来承载它,让它感知世界、接入网络、与你协作。这个节点就是 PAN。
当然,这只是一个设想。PAN 能不能成为真正的”第三次范式”,取决于技术能否跟上想象。但我觉得值得认真想想——毕竟每次范式转移在当时看来都显得”过早”。
三、为什么不叫 AI PC
“AI PC”这个词在 2024-2025 年被各大厂商反复提起。联想、戴尔、高通、Intel 都在推 AI PC 概念。但 AI PC 的问题在于——它的思维框架还是 PC。
| 维度 | PC | AI PC | PAN |
|---|---|---|---|
| 核心隐喻 | 个人计算机 | 更聪明的个人计算机 | 个人智能体节点 |
| 主角 | 人 | 人 | 人 + Agent 共生体 |
| AI 的角色 | 无 | 辅助(Copilot) | 主导认知,人主导执行 |
| 离线能力 | 完整 | 部分(依赖云端) | 必须完整(涉密场景) |
| 本地模型 | 无 | 可选 | 标配 |
| 交互方式 | 键鼠/触屏 | 键鼠/触屏 + 自然语言 | MR + 语音 + 环境感知 |
| 使用姿态 | 坐在桌前 | 坐在桌前 | 随身移动,解放双手 |
AI PC 是”用 AI 增强 PC”,PAN 是”为 Agent 设计物理载体”。方向完全不同。
这就像 iPhone 和诺基亚的区别——不是”更好的手机”,是”手机这个词的含义变了”。
四、这些年 AI 硬件的教训
回顾过去十几年,“AI+硬件”的尝试一直没断过,但成功的寥寥无几:
2013 年,Google Glass。 这是最早的”智能眼镜”尝试,Google 砸了近 9 亿美元。失败原因是多方面的:1500 美元的高价、隐私争议(佩戴者被戏称为”Glasshole”)、以及最根本的——它没有解决任何用户的真实痛点。拍个照片、看个通知,这些手机早就能做了。联合创始人 Sergey Brin 后来反思说,产品必须”完全成熟”才能推向市场,过早的炫技式发布会毁掉一个品类。
2014-2020 年,智能音箱潮。 Amazon Echo、Google Home、Apple HomePod 相继登场。它们是”AI 进入物理空间”的第一次大规模尝试,但最终都卡在了同一个瓶颈——语音助手的智能天花板太低。“帮我定个闹钟""今天天气怎么样”之后就没然后了。用户新鲜感过后,大量智能音箱沦为蓝牙播放器。
2024 年,新一波 AI 原生硬件集体失败:
- Humane AI Pin:投影交互反人类,电池续航灾难,已停产,烧掉超过 2 亿美元
- Rabbit R1:本质是套壳的 LLM 聊天界面,Jony Ive 公开批评”产品做得不好”
- Friend Pendant:录音吊坠,功能太单一,缺乏 Agent 能力
2025 年末,Google 宣布第三次尝试智能眼镜。 搭载 Gemini AI,计划 2026 年发布。能否成功仍是未知数。
这些失败跨越了十几年,但共同的教训惊人地一致:
第一,试图在”替代现有设备”的框架里做 AI 硬件。 Google Glass 想替代手机的通知功能,AI Pin 想替代掏手机的动作,Rabbit R1 想替代打开 APP 的操作。但它们能做的事都比手机少得多。
第二,也是更致命的——AI 脑子不够用。 从 Google Glass 的原始语音指令,到智能音箱的简单问答,再到 AI Pin/R1 的受限 LLM 对话框,每一代产品都卡在”智能程度不够”这个坎上。用户期待的是一个能独立帮你办事的助手,拿到的却是一个反应迟钝的聊天机器人。硬件形态再新颖,脑子跟不上也白搭。
PAN 的思路不同。PAN 不试图替代手机,而是回答一个更根本的问题:
当 AI Agent 足够强大,强大到可以自主完成大多数认知工作时,它需要什么样的物理形态来接入真实世界?
答案不是”一个新的屏幕”,而是”一套感知和执行系统”。
五、PAN 的架构:不是一个设备,是一个系统

PAN 不是某一个硬件产品,而是一组可分离、可组合的组件:
算力核心: PAN 的大脑,也是整个系统里要求最高的部分。PAN 需要的不是”能聊天的 AI”,而是能理解复杂系统架构、分析多层故障、在信息不完整时做合理推断的强推理能力。今天的端侧设备——无论是手机还是大多数笔记本——距离流畅运行这个级别的模型还有相当大的差距。
PAN 真正需要的,不是某个具体参数规模的模型,而是当前效果最好的、真正以完成最终任务为目标训练出来的模型,能够在端侧运行。这可能需要数代硬件和模型架构的共同迭代才能实现。
在那之前,更现实的路径可能是一种端云协同的混合架构:端侧运行一个轻量但可靠的审核模型,接入部署在数据中心的高性能大模型。大模型负责复杂推理和方案生成,端侧审核模型负责对返回结果进行校验和过滤——确保数据中心的模型不会对端侧进行”污染”,比如注入不符合本地安全策略的操作、泄露不该暴露的上下文信息等。
这种”端侧审核+云端推理”的架构,既能利用大模型的强大能力,又保持了端侧的自主性和安全边界。某种程度上,它也是 PAN 从”雏形”走向”成熟”的过渡路径——直到有一天端侧硬件强大到能直接跑顶级模型为止。
**感知交互层:**MR 眼镜是最佳形态——摄像头提供视觉输入,空间感知提供环境理解,叠加显示提供实时反馈。人戴着它工作时,双手是自由的。这不是 AR 信息展示,而是 Agent 和人之间的神经接口。
**Agent 运行时:**软件层面的核心。它理解你的意图,规划执行步骤,调用各种工具,维护长期记忆。到内网环境能接入客户的系统,回到公司能接入云端模型,在家能管理你的日程——同一个 Agent,不同的能力域。
**人体:**是的,人是架构的一部分——而且是最关键的部分。人不只是”执行层”,更是整个系统的决策者和监管者。Agent 的每一个重要动作都需要人的确认或授权。同时,人提供 AI 目前最缺乏的能力——灵巧的精细操作、面对面的社交沟通、自由的物理移动、突发情况的即时判断,以及在 AI 触及不到的地方推动最终目标的达成。在 PAN 架构里,人不是被动的”使用者”,而是共生体的核心。
六、人机关系的反转

这是 PAN 最核心也最具争议的观点:
在 PAN 的工作模式下,到底是人在用 AI,还是 AI 在用人?
仔细想想,这种模式其实不新鲜。外卖骑手每天都在被算法调度——走哪条路、先送哪单、几分钟到达,全是系统算好的,人负责的是骑车和按门铃。仓库拣货员戴着 AR 指引干活,系统说去 A3 货架拿第二层左边那个,人走过去拿就行。
但 PAN 把这种关系推到了更深的程度。
想象你带着 PAN 去客户现场做系统交付。你走进机房的那一刻,Agent 已经把这个客户的所有历史工单、系统架构、已知问题全部加载好了。你看向一排服务器,眼镜识别出型号和编号,Agent 在视野里标注出”这三台需要更新配置”。你伸手去做,Agent 实时验证每一步操作。客户负责人走过来打招呼,你和他聊项目进度,Agent 在后台整理会议纪要。忽然一台机器报警——Agent 三秒内拉出日志分析给你三个可能的原因,你凭经验判断是第二个,Agent 立刻生成修复方案。

在这整个过程里,思考的主体是谁?行动的主体是谁? 边界已经模糊了。
这不是”AI 替代人”的故事,也不完全是”AI 辅助人”的故事。更像是——人和 AI 长在了一起,形成了一个能力远超任何一方的共生体。
你提供的:双手、双脚、一张能和人建立信任的脸、以及最关键的——做不做、怎么做、到什么程度停下来的最终决策权。 AI 提供的:无限记忆、并行分析、不知疲倦、跨领域知识库。
一个人加一个 PAN,可能顶得上原来一个五人团队。不是因为那四个人不重要,而是他们的”认知贡献”被 Agent 覆盖了,剩下的那一个人的”物理贡献”被极大增强了。
七、MR 眼镜:PAN 的关键交互层,也是最大的不确定性

为什么是 MR(混合现实)眼镜而不是手机屏幕?
因为 PAN 的使用场景是”在真实世界中行动”,而不是”坐在桌前看屏幕”。
MR 眼镜解决的核心问题:
-
双手自由——运维现场你可能正在插线、搬设备、接键盘。手机你得掏出来看,眼镜直接叠加在视野里。
-
上下文感知——眼镜的摄像头+空间感知给 Agent 提供实时环境输入。Agent 不只是”听你说什么”,而是”看到你看到的东西”。
-
自然反馈——信息直接叠加在你的视野中。不是”低头看屏幕”,而是”抬头就看到”。操作步骤浮现在你要操作的设备旁边,就像有个隐形的专家站在你身边指导。
-
社交自然——和客户面对面沟通时,你的眼神是看着对方的,不是盯着手机的。Agent 可以在视野边缘提示关键信息,客户毫无察觉。
但必须诚实地说——MR 眼镜是 PAN 架构里发展最慢的环节,也是最大的不确定性。
Meta Orion 原型机是目前最接近理想形态的,真正的全息叠加、轻量化设计,但它还只是原型,离消费级量产有很长的路。Apple Vision Pro 证明了技术可行,但半斤重的头盔不可能戴着去机房干活,三万多的价格更不用说。国内的 Rokid、Xreal 在做更轻便的方案,但能力还停留在”看视频”和”显示提示信息”,和”Agent 的神经接口”之间隔着好几个量级。
MR 眼镜的难点不是某个单一技术突破不了,而是光学、算力、电池、重量、散热需要同时达标——缺任何一个维度,产品体验就会崩塌。这种多维度同时进化的事情,历史上往往比最乐观的预测慢得多。
所以 PAN 在可预见的未来会有一个”不够优雅的过渡期”:算力核心用小型计算盒或高性能手机,交互靠手机屏幕加蓝牙耳机,也许配上一副轻量 AR 眼镜做部分信息叠加。核心的 Agent 架构不变,只是交互层还没到理想状态。
八、杀手级场景:涉密内网
所有关于 AI 终端的讨论都绕不开一个问题:联网还是离线?
对于消费场景,联网是理所当然的——你的 AI 助手连着云端,算力无限,知识最新。但在企业交付场景,特别是涉密环境:
- 客户内网不通外网
- 数据不能出局域网
- 操作必须有人在场
这恰好是 PAN 的杀手级场景。
云端 AI 进不了客户内网,但 PAN 带着本地模型可以。在运维交付这种领域明确、知识边界清晰的场景下,一个针对性微调过的本地模型加上完善的工具链,已经能覆盖相当多的工作。到了现场,PAN 接入客户内网,Agent 开始工作——分析日志、检查配置、生成操作方案——全程数据不出内网。
这不是未来的想象,这是现在就能做的事。如今你把一台 Mac Mini M4 加上 OpenClaw 之类的 Agent 运行时,装好本地模型,带到客户现场——PAN 的雏形就已经存在了。
当然,现阶段的本地模型还撑不起完整的 PAN 体验。复杂推理、多步规划、跨域理解——这些等模型能力和硬件算力进一步跃升后才会真正到位。但在特定领域、特定场景里,“够用”这条线,今天已经摸到了。
九、两个临界点
PAN 什么时候从概念变成现实?取决于两个临界点:
临界点一:端侧能跑真正聪明的模型。 不是”能聊天”级别的聪明,而是”能独立做复杂决策”级别的——当前效果最好的模型,能在端侧流畅运行。这需要端侧硬件的代际飞跃(更强的推理芯片、更大的内存、更低的功耗),也需要模型架构本身的突破。在此之前,端云协同的混合架构(端侧审核+云端推理)是更现实的过渡路径。两个方向都在快速推进,但什么时候交叉到 PAN 的需求线以上?也许两三年,也许更久。AI 领域的发展速度一直在超出预期,但把赌注压在”一定很快”上面不够诚实。
临界点二:MR 眼镜足够成熟。 要轻到能全天佩戴、续航撑住一个工作日、叠加显示在各种光照下清晰可用、价格降到企业能批量采购的水平。目前没有任何一款产品同时满足这些条件。这可能是 PAN 最后到位的那块拼图。
在两个临界点都到达之前,PAN 会以”不完美但可用”的形态存在——特定场景下的本地 Agent + 手机/耳机交互。不够酷,但在涉密内网交付这样的场景里,已经比没有 AI 强得多。
而一旦两个临界点同时到达,PAN 的体验会像 iPhone 初代一样产生质变——之前所有的铺垫突然连成一片,一个全新品类就此成型。
十、重新定义”能力单元”
回到最开始那段对话。“今年估计还得干掉不少人”——这是大多数人的叙事:AI 来了,人要被替代了。
但 PAN 的视角提供了另一种叙事:
不是 17 个人被干掉了,是 3 个人+PAN 的能力组合,覆盖了原来 20 个人的能力范围。
人没有被替代,人被增强了。只是市场需要的”人数”变少了,每个人的”能力密度”变高了。
这不是文字游戏。对于个体来说,区别是巨大的:
- 在”替代”叙事里,你的竞争策略是”让自己不被 AI 替代”——这是一场必输的战斗
- 在”增强”叙事里,你的竞争策略是”让自己和 AI 的共生体更强”——这是一条持续上升的路
PAN 就是这条路的物理载体。
从 PC 到手机,我们用了 25 年。从手机到 PAN,也许 5 年,也许 10 年,中间一定还有我们今天想不到的弯路。
但方向大概不会错——因为当 AI 的认知能力超过大多数人的时候,人和计算的关系就必然要被重新定义。
PAN 是我们对这种新关系的一次命名尝试。名字也许会变,形态也许会变,但人和 AI 从”操作关系”走向”共生关系”这件事——大概是挡不住的。
作者:张昊辰(Astralor)& 霄晗(PAN 原住民)
文章分享
如果这篇文章对你有帮助,欢迎分享给更多人!