告别功能列表!用智能体编排图替代PRD:下一代产品文档长这样

引子:PRD失效的三个真实现场 上周五的某电商中台需求评审会上,一位资深后端工程师第三次打断产品经理:“这个‘智能退款建议按钮’点击后,到底触发哪5个系统?库存扣减在风控校验前还是后?支付网关回调失败时,重试逻辑写在哪一版PRD里?”会议室陷入沉默——那份87页的PRD文档,通篇用“用户可获得更优退款方案”“系统自动决策”等模糊表述,却未定义任何一个状态跃迁条件。 测试同学的反馈更直白:“第3.2.4节说‘支持异常场景处理’,但没写具体有哪些异常、各走哪条路径、预期返回码是多少。我按什么写用例?按你口头说的,还是按上次上线崩掉的版本?” 最棘手的是AI Agent项目。当客服Agent上线首周,用户一句“我刚在APP投诉完,现在想加急处理,但又不想重复描述”,系统竟启动了全新对话分支——而原PRD里连“跨会话状态继承”四个字都没出现。传统PRD的线性功能罗列范式,在面对多智能体协同、状态驱动、实时反馈闭环的AI原生产品时,已不是“不够好”,而是结构性失能。 我们亟需一种新抽象:它不描述“系统应该做什么”,而是定义“系统如何协作着把事情做成”。这个新载体,就是编排图(Orchestration Graph)——一张可执行、可追踪、可验证的状态流转拓扑图。 为什么是“编排图”?从Prompt工程视角解构需求本质 PRD本质是面向人类读者的指令集:模块化、静态、依赖上下文理解。而编排图是面向LLM+Agent系统的领域特定语言(DSL):角色化、状态化、路由驱动。 维度 传统PRD 智能体编排图 核心单元 功能模块(如“投诉提交页”) 角色节点(CustomerServiceAgent) 行为定义 输入→处理→输出(文字描述) 能力接口(.invoke()方法 + tool schema) 流程逻辑 “若A则B,否则C”(自然语言条件句) 带guard函数的有向边(lambda s: "vip" in s.tags) 状态管理 隐含在字段说明中(如“status字段取值为pending/processing”) 显式State Schema(Pydantic模型定义全生命周期字段) 以“用户投诉处理流程”为例: PRD写法(4行文字): 用户提交投诉,系统校验基础信息; 若为VIP客户,优先分配高级坐席; 若含“欺诈”关键词,同步触发合规审查; 审查通过后进入赔付流程。 编排图表达(3节点+2条件边): graph LR A[CustomerServiceAgent] -->|guard: “vip” in state.tags| B[SeniorAgent] A -->|guard: “fraud” in state.keywords| C[ComplianceChecker] 关键洞察:PRD是“告诉人怎么做”,编排图是“告诉机器何时调谁、传什么、判什么”。 每个节点的system prompt必须显式约束其职责边界(如Router节点的prompt强制声明:“仅当state.urgency==‘critical’且无可用坐席时,才调用EscalateToManager工具”),这正是Prompt工程对需求颗粒度的倒逼。 实战:用LangGraph构建可执行的编排图(含完整代码) 以下为可直接运行的最小可行示例(Python 3.10+, langgraph==0.1.44): from typing import TypedDict, Annotated, List, Optional from langgraph.graph import StateGraph, START, END from langgraph.checkpoint.memory import MemorySaver from pydantic import BaseModel # 1. 定义状态Schema(显式契约) class ComplaintState(TypedDict): text: str tags: List[str] # e.g., ["vip", "urgent"] keywords: List[str] assigned_to: Optional[str] escalation_needed: bool # 2. 定义智能体(每个即一个可调用节点) class CustomerServiceAgent: def __call__(self, state: ComplaintState) -> ComplaintState: # 简化版:提取关键词和标签(真实场景调用LLM) state["keywords"] = ["fraud"] if "欺诈" in state["text"] else [] state["tags"] = ["vip"] if "VIP" in state["text"] else [] return state class ComplianceChecker: def __call__(self, state: ComplaintState) -> ComplaintState: # 合规检查逻辑(此处模拟通过) print("✅ 合规检查通过") return state class EscalationRouter: def __call__(self, state: ComplaintState) -> ComplaintState: # Router节点不修改状态,只做路由决策(实际中可调用LLM判断) if "urgent" in state["tags"] and "vip" in state["tags"]: state["escalation_needed"] = True return state # 3. 构建编排图 builder = StateGraph(ComplaintState) builder.add_node("service", CustomerServiceAgent()) builder.add_node("compliance", ComplianceChecker()) builder.add_node("router", EscalationRouter()) # 4. 添加带条件的边(核心!业务规则即代码) builder.add_edge(START, "service") builder.add_conditional_edges( "service", lambda s: "fraud" in s["keywords"], {True: "compliance", False: "router"} ) builder.add_conditional_edges( "router", lambda s: s.get("escalation_needed", False), {True: END, False: "service"} # 非紧急则循环服务 ) # 5. 编译并运行 graph = builder.compile(checkpointer=MemorySaver()) result = graph.invoke({ "text": "VIP用户投诉支付欺诈,要求15分钟内处理!", "tags": [], "keywords": [], "assigned_to": None, "escalation_needed": False }, config={"configurable": {"thread_id": "1"}}) print("最终状态:", result) # 输出: {'text': '...', 'tags': ['vip'], 'keywords': ['fraud'], ...} ✅ Prompt设计意图注释:EscalationRouter节点的system prompt应包含明确约束: “你是一个路由决策器。仅当state.tags包含’urgent’且’vip’时,设置escalation_needed=True;其他情况一律返回原state。禁止生成解释性文本。” 这确保LLM不会“自由发挥”,而是严格服从图结构。 ...

February 21, 2026 · 智通

未来十年没有‘产品经理’,只有‘智能体编排师’:当低代码AI平台让每个人都是PM,真正的壁垒是什么?

引言:一场静默的职业范式迁移 2024年Q2,某东南亚金融科技初创团队完成了一次“非典型”产品迭代:CEO在晨会用37秒语音描述“让菜市场摊主能用方言查昨天收款明细”,19分钟后,一个支持粤语/潮汕话语音输入、自动生成带OCR识别的流水看板、并已部署至微信小程序的MVP已在内部测试群上线。整个过程未产生一行手写PRD、未召开UI评审会、未提交Jira工单——仅在Glide AI中调整了两个约束参数:max_latency_ms=800、allowed_languages=["zh-yue", "zh-chaozhou"]。 这不是孤例。Cursor的“AI Pair Programmer”已支持自然语言生成可运行全栈应用;Microsoft Power Apps + Copilot可在5分钟内将Excel表格转化为带RBAC权限控制的审批系统;Lovable则让设计师上传Figma文件后,AI自动反向推导出业务规则引擎与异常处理流程图。低代码AI平台的爆发,正将“需求表达→可用原型”的链路从“周级”压缩至“分钟级”。 但真正引发震荡的,并非效率提升本身,而是其背后的价值位移:当“把想法变成可交互界面”不再需要跨职能对齐、不再依赖稀缺开发资源、甚至不再需要明确的用户旅程图时,传统产品经理(PM)作为“需求翻译者”与“交付协调者”的存在根基,正在悄然松动。 这并非“工具替代人”的叙事,而是一场价值坐标系的重校准——当执行层自动化成为新常态,职业的核心定义必须向上游迁移:从“确保正确地做事”(do things right),转向“确保做正确的事”(do the right things)。而这一迁移的临界点,已在2024年清晰浮现。 为什么“产品经理”正在失效?——从职能本质解构职业消亡逻辑 要理解PM的“失效”,需回溯其诞生的历史必然性。2000年代初,互联网产品复杂度陡增:前端需兼容IE6,后端数据库需支撑百万级并发,设计需兼顾Web 1.0信息架构与新兴的用户体验概念。此时,“懂技术的业务方”与“懂业务的技术方”之间出现巨大认知鸿沟。PM应运而生,其原始角色是稀缺信息中介(连接技术、设计、市场、法务)与不确定性翻译器(将模糊的用户抱怨“App太卡”翻译为“首页首屏加载>3s导致35%跳出率,需优化CDN策略与图片懒加载阈值”)。 低代码AI平台正系统性瓦解这一基础: 自动化需求解析:LLM可直接分析会议录音(如Zoom转录)、客服工单(Zendesk导出CSV)、甚至用户社群截图,自动提取高频痛点、情绪倾向与隐含约束。例如,一段销售抱怨“客户总问‘能不能不填身份证号’”,AI不仅标记为“隐私顾虑”,更关联《个人信息保护法》第28条“敏感个人信息处理需单独同意”,自动生成合规检查点。 零成本试错:传统A/B测试需数周开发+埋点+流量分配。如今,Glide AI可基于同一段语音描述,实时生成10个交互变体(表单分步vs单页、身份证号字段默认折叠vs显式提示、生物认证前置vs后置),并模拟10万用户路径热力图,5分钟内输出转化率预测矩阵。 跨栈执行闭环:Notion AI模板已证明,描述“创建一个销售线索池,自动抓取LinkedIn新职位发布,匹配公司规模>50人且含‘增长黑客’关键词,推送至Slack并同步CRM”,AI可自主推导出: # 自动生成的伪代码逻辑(由AI生成并验证) if linkedin_job_posted.company_size > 50 and 'growth hacker' in job_title: send_to_slack(channel='sales-leads', message=f"🚨 新线索: {company_name} - {job_title}") upsert_crm(contact={...}, source='linkedin_jobs') ——从UI交互、API调用、数据库Schema到合规审计日志,全程无须人工编码。 当“翻译”与“协调”的中间层被算法穿透,PM若仍停留于PRD撰写与排期博弈,其角色便如蒸汽机时代的马车调度员——不是能力不足,而是历史语境已消失。 “智能体编排师”是什么?——新角色的四维能力图谱 “智能体编排师”(Agent Orchestrator)绝非PM的换皮升级,而是一个全新物种:不生产界面,而定义界面背后的决策逻辑;不管理进度,而管理智能体之间的契约与冲突。其核心能力可凝练为四维图谱: 能力维度 关键动作 真实案例 ① 意图锚点 将模糊目标转化为可计算的因果目标函数 某养老APP不提“优化注册流程”,而设定:minimize(首次任务完成流失率) where age ≥ 65, input_method = voice ② 约束边界 定义智能体不可逾越的硬性规则 某银行信贷系统强制约束:forbid(feature_importance['postal_code']) > 0.01(禁止邮政编码参与决策) ③ 反馈闭环设计 构建让AI自主发现新问题的数据通路 某教育平台设置:if student_video_watch_time > 2x_avg AND quiz_score < 0.6 → trigger_new_intervention('concept_gap_analysis') ④ 伦理涌现治理 预判多智能体协同时的系统性偏见 某招聘AI要求:audit_bias_amplification across [resume_parser, interview_analyzer, offer_generator] ...

February 19, 2026 · 智通