AI 产品设计方法论
你将学到什么
- 5 个 AI 产品设计原则(从任务出发到失败路径设计)
- AI 产品用户研究的 3 种方法(为什么传统访谈不够用)
- Prompt 即产品:4 层 Prompt 质量模型 + 迭代流程
- AI 产品的两种迭代方式和上线决策框架
为什么重要:AI 产品最大的陷阱是"先想 AI 能做什么",而不是"用户需要什么"。掌握正确的设计方法,能帮你在早期就避开最常见的产品失败模式。
AI 产品的 5 个设计原则
原则 1:从任务出发,不从能力出发
❌ 错误思路:"我们有 LLM,能生成文字,做个写作助手吧。"
✅ 正确思路:"用户在什么场景下写作最痛苦?AI 能在那个具体节点帮上什么?"
具体做法:做用户旅程地图,找出"痛苦最高 + AI 最擅长"的交叉点。
原则 2:管理期望,不过度承诺
AI 的输出是概率性的,不是确定性的。产品设计必须帮用户建立正确预期:
- 说"AI 建议"而非"AI 答案"
- 显示来源和置信度,而非只输出结论
- 错误发生时,解释原因而不是假装没有
原则 3:保留人的控制感
自主程度越高的 AI,用户越容易失去信任。
| 自主程度 | 设计形态 | 适用场景 |
|---|---|---|
| 低 | AI 提供选项,人选择 | 高风险决策、用户不熟悉的领域 |
| 中 | AI 执行,人可修改 | 内容生成、信息整理 |
| 高 | AI 自主执行,人事后审核 | 低风险重复任务、用户明确授权 |
常见误区
"全自动"不等于"更好的体验"。给用户更多控制感,往往能建立更强的产品信任度——即使 AI 的实际质量没有变化。
原则 4:让 AI 可解释
用户不需要理解 Transformer,但需要理解"为什么 AI 这样说":
- 引用来源(RAG 类产品必做)
- 展示推理步骤(复杂决策场景)
- 允许追问("为什么这样推荐?")
原则 5:设计失败路径和降级体验
AI 失败不是 Bug,是预期内的正常状态。每个 AI 功能都要设计:
成功路径:AI 输出好 → 用户满意 → 正向反馈
失败路径:AI 输出差 → 清晰提示 → 替代方案(人工 / 重试 / 跳过)经验法则
如果你的 PRD 里只有成功路径,没有失败路径,产品上线后一定会出问题。先把失败路径写清楚,再考虑优化成功路径。
用户研究:AI 产品的特殊之处
为什么传统访谈不够用
传统访谈问"你需要什么"往往得不到真实答案。用户说的和用户做的往往不一样。
AI 产品需要额外的三种研究方法:
1. 情境观察(Contextual Inquiry)
观察用户在实际场景中如何工作,找出他们"将就着用"的低效节点:
不问"你需要 AI 帮你做什么",而是观察"用户在哪一步打开了 ChatGPT 或百度"。
2. 任务完成测试
给用户一个真实任务,让他们用原型完成,记录:
- 在哪里停顿了?
- 哪些 AI 输出被接受 / 被删改 / 被忽略?
- 用户如何判断 AI 回答的好坏?
3. 反馈数据挖掘(上线后)
比访谈更可靠的信号:
| 行为 | 含义 |
|---|---|
| AI 输出被直接使用(无修改) | 完全满意 |
| AI 输出被大幅修改后才用 | 方向对但细节差 |
| 看了 AI 输出直接关掉 | 没有价值 |
互动练习:选择研究方法
场景:你要设计一个"AI 帮 HR 写招聘 JD"的功能,想了解用户的真实需求。
应该用哪种研究方法?为什么?
查看答案
推荐方案:情境观察 + 任务完成测试
原因:
- 情境观察:观察 HR 现在是如何写 JD 的(用哪些参考资料、在哪里卡住、如何反复改)
- 任务完成测试:给 HR 一个真实的岗位需求,让他们用原型生成 JD,看他们会修改哪些地方
为什么不只用访谈:HR 说"希望 AI 帮我写完整的 JD",但实际测试可能发现他们最需要的是"帮我把要点扩展成流畅的句子"——两件事差别很大。
Prompt 即产品设计
对于 AI PM,Prompt 是产品的核心资产之一,和 UI 设计一样重要。
四层 Prompt 质量模型
层次 1:能跑通(最低要求)
→ 模型能理解任务,输出格式基本对
层次 2:质量稳定(中级)
→ 在不同用户输入下,输出质量一致
层次 3:符合品牌调性(高级)
→ 语气、风格、价值观和产品定位一致
层次 4:能处理边界情况(专业)
→ 对异常输入有合理降级,不会"发疯"System Prompt 设计模板
[角色定义]
你是 [产品名称] 的 AI 助手,专门帮助 [目标用户] 完成 [核心任务]。
[能力范围]
你擅长:[列出 3-5 个核心能力]
你不做:[列出明确边界]
[行为规范]
- 语气:[专业/友好/简洁/详细]
- 格式:[纯文本/Markdown/结构化]
- 长度:[约 X 字 / 不超过 X 段]
[输出示例]
用户问:[示例问题]
你回答:[示例回答]
[边界情况]
当用户问到 [不在范围的问题] 时,回复:[兜底文案]Prompt 迭代流程
1. PM 写初稿 Prompt
2. 用 20+ 真实用户问题测试
3. 记录表现差的输入(Bad Case)
4. 分析失败原因(指令不清/缺少示例/格式约束弱)
5. 修改 Prompt,重新测试
6. 对比修改前后的整体分数
7. 达到上线标准后发布关键工具
用 LangSmith、PromptLayer 或 Dify 的 Prompt 管理功能做版本控制,不要把 Prompt 写在代码里。Prompt 变更要像代码提交一样可追溯。
互动练习:评估 Prompt 质量层次
以下哪个 System Prompt 达到了第 4 层(能处理边界情况)?
Prompt A:
你是一个简历优化助手,帮用户改写简历,让简历更吸引人。
Prompt B:
你是一个简历优化助手,专门帮助求职者改写工作经历描述。
规则:
- 使用 STAR 结构(情景-任务-行动-结果)
- 量化成果(如"提升了效率"改为"将处理速度提升 40%")
- 如果用户没有提供数字,询问具体数据后再优化
- 如果用户上传的不是简历内容,回复:"我专门处理简历优化,请粘贴您的工作经历"
查看答案
Prompt B 达到了第 4 层。
分析:
- Prompt A 只达到第 1-2 层:能跑通,但没有处理边界情况(没有数字怎么办?用户发了不相关内容怎么办?)
- Prompt B 达到第 4 层:明确了格式规范(STAR 结构)、处理了"没有数字"的边界情况、定义了超出范围时的兜底文案
AI 产品的迭代节奏
AI 产品有两种迭代方式,速度和风险都不同:
两种迭代方式对比
| Prompt 迭代 | 模型/架构迭代 | |
|---|---|---|
| 速度 | 小时级 | 周级 |
| 风险 | 低,可随时回滚 | 高,需完整评估 |
| 需要发版 | 否 | 是 |
| 适用场景 | 调整输出格式、优化质量、修复 Bad Case | 换模型、优化 RAG 召回、增加新工具能力 |
上线决策框架
评估维度 权重
───────────────────────
核心指标提升 40%
边界 Case 处理 20%
成本变化 20%
延迟变化 20%常见误区
不要只因为"模型指标提升了"就立刻上线。AI 产品的每次迭代都需要同时评估质量、成本、延迟三个维度——三角形不能只看一个角。
检查点
在继续之前,确保你能回答:
- [ ] 能说出 AI 产品的 5 个设计原则
- [ ] 能解释为什么 AI 产品用户研究不能只做传统访谈
- [ ] 能写出一个符合第 4 层标准的 Prompt 草稿
- [ ] 能区分 Prompt 迭代和模型/架构迭代的适用场景
- [ ] 能说出上线决策的 4 个评估维度和权重
📝 PRD 智能生成器
输入产品需求,AI 帮你生成结构化 PRD 文档
🔑 API 配置
💡 配置仅保存在本地浏览器,不会上传到任何服务器
📝 PRD 智能生成器
输入产品需求,AI 帮你生成结构化 PRD 文档
💡 AI 生成的 PRD 是初稿,需要结合实际情况调整和补充细节