AI 体验设计
你将学到什么
- AI 产品的 5 大独特体验挑战(和传统产品的本质区别)
- 等待态设计:流式输出、进度感、预期设置
- 错误态设计:4 类错误的分类处理方法
- 不确定性设计:如何帮用户理解 AI 的置信度
- 信任建立机制:让用户持续信任 AI 的 5 个设计动作
为什么重要:AI 产品的体验问题大多不是 UI 问题,而是"期望管理"问题。理解 AI 体验设计的独特性,才能避免"功能很好但用户不用"的陷阱。
AI 体验的 5 大独特挑战
| 挑战 | 传统产品 | AI 产品 |
|---|---|---|
| 等待 | 加载动画,几秒内完成 | 流式输出,可能 10-30 秒 |
| 错误 | 明确的错误提示 | "回答不好"是模糊的失败 |
| 不确定性 | 结果是确定的 | 相同输入可能产生不同输出 |
| 边界 | 功能范围清晰 | 用户不知道 AI 能/不能做什么 |
| 信任 | 代码行为可预测 | AI 行为难以完全预测 |
等待态设计
AI 生成内容慢,是当前最普遍的体验痛点。
流式输出(Streaming):首选方案
不等全部生成完再显示,而是逐字输出——把等待时间从"感知中的死等"变成"内容正在生成"。
❌ 等待 10 秒 → 一次性显示全文
✅ 0.3 秒后开始输出第一个字 → 逐字呈现(打字机效果)设计要点:
- TTFT(首字时间)< 1 秒是体验基线,超过 3 秒用户会觉得"卡住了"
- 流式输出期间禁用输入框(避免用户在 AI 还在生成时就开始下一个问题)
- 允许用户中途打断(Stop 按钮)
进度感设计
对于不能流式输出的场景(如文件分析、批量生成):
✅ 好的进度反馈:
"正在分析文档结构(1/3)..."
"已识别 12 个知识点,正在生成建议..."
→ 动态状态文案,让用户知道在发生什么
❌ 差的进度反馈:
单纯的 loading 圆圈
"加载中..." 无任何进度信息预期设置
在用户触发 AI 操作前,就告诉他需要等多久:
"生成一份完整分析报告约需 15 秒"
"正在分析您的 JD,请稍候..."错误态设计
AI 的"失败"比传统软件更模糊,需要分类处理。
4 类错误的处理方式
| 错误类型 | 用户感知 | 处理方式 |
|---|---|---|
| 技术错误(API 挂了) | "没有响应" | 明确报错 + 重试按钮 |
| 质量错误(回答差) | "不是我想要的" | 提供修改引导 + 反馈入口 |
| 边界错误(超出能力范围) | "AI 不理解我" | 主动说"我不太确定" + 替代方案 |
| 内容安全拦截 | "AI 不愿意回答" | 解释原因 + 引导换一种问法 |
错误文案设计原则
❌ 不好的错误文案:
- "系统错误,请联系客服" → 用户不知道怎么办
- "AI 生成失败" → 原因不明,下一步不清
- "此内容不符合使用规范" → 让用户觉得是自己的问题
✅ 好的错误文案:
- "网络似乎有点问题,请重试 →" → 给出行动
- "这个问题我不太确定,建议参考 [链接] 或咨询专业人士" → 承认边界 + 给替代方案
- "这个话题我暂时帮不上忙,但你可以试试换个方式描述需求" → 引导而非拒绝
降级体验设计
AI 不可用时,不要让用户"撞墙":
AI 功能不可用
↓
展示静态替代内容(模板/示例)
↓
说明预计恢复时间(如果知道)
↓
提供人工替代路径(如果有)互动练习:改写错误文案
以下错误文案属于哪种类型?请改写成好的版本。
"Error: Request failed with status 500"
查看答案
错误类型:技术错误(API 报错)
改写版本:
"生成遇到了问题,请重试。如果持续出现,请刷新页面后再试。"
改写原则:
- 去掉技术错误码(用户看不懂 500)
- 说明"能做什么"(重试、刷新)
- 语气平和,不让用户觉得是自己做错了
不确定性设计
AI 输出不是"对或错",而是"置信度高低"。产品需要帮用户理解这一点。
显式不确定性
对于可能存在幻觉的内容,主动告知:
✅ 好的做法:
"以下内容基于 AI 分析,建议核实重要数据"
在数字/日期/引用后加 "†来源: [文档名]"
当检索不到相关内容时,说"我没有找到相关信息,以下是基于通用知识的回答"
❌ 差的做法:
把 AI 生成内容和事实信息混排,不加区分
以确定语气陈述 AI 推测的内容置信度视觉化
不一定要显示百分比,但可以通过设计传达不确定程度:
高置信度输出:正常字体,直接呈现
低置信度输出:加"AI 推测"标签 / 斜体 / 不同颜色背景
无法回答:直接说"我不确定",不强行输出能力边界设计
用户不知道 AI 能做什么,会导致两种问题:
- 不敢用(低估能力)
- 失望(高估能力后发现不行)
引导发现
用示例 Prompt帮用户理解能力范围:
页面入口处展示:
"试试这些问法:
• 帮我优化这段简历的工作描述
• 分析这份 JD,告诉我最可能考的面试题
• 用更有力的语言改写这个项目背景"主动说不
当用户问了超出范围的问题,清楚说明比模糊回答更好:
用户:"帮我预测明天的股价"
❌ 差的回应:生成一个看似专业的预测(实为幻觉)
✅ 好的回应:"预测具体股价超出了我的能力范围,我没有实时市场数据。
我可以帮你分析一家公司的基本面或理解财报,需要吗?"信任建立设计
信任不是一次建立的,是通过每次交互累积的。
建立信任的 5 个机制
| 机制 | 做法 |
|---|---|
| 来源透明 | 每个 AI 回答标注信息来源 |
| 过程可见 | 展示 AI 的推理过程(Chain of Thought) |
| 可纠错 | 用户可以标记"这个回答有误",AI 承认并修正 |
| 一致性 | 相同问题的回答风格一致,不出现明显矛盾 |
| 承认局限 | 主动说"我不确定",而不是硬撑 |
信任破坏的时刻
这些体验会让用户永久降低对 AI 的信任:
- AI 自信地给出了错误信息(幻觉但不承认)
- AI 对同一个问题前后给出矛盾答案(被用户发现)
- AI 违反了用户的隐私预期(把 A 的信息给了 B)
- AI 在敏感话题上表现不稳定(今天能答,明天被拦截)
经验法则
一次信任破坏事件,需要多次正向体验才能修复。在设计阶段就把"信任破坏场景"列出来,并设计预防机制,比上线后修复成本低得多。
互动练习:设计不确定性处理方案
场景:你在设计一个 AI 客服,回答用户关于退款政策的问题。偶尔 RAG 召回的文档置信度很低,AI 不确定答案是否准确。
如何设计三层不确定性处理方案?
查看答案
第一层:检测层
- 当 RAG 召回置信度 < 0.7 时,触发不确定性标记
- 技术实现:RAGAS 框架的 Faithfulness 评分
第二层:呈现层
- 回答前加:"根据我们的退款政策文档,..."
- 回答后加:"如需确认具体情况,建议联系专员核实"
- UI 上用淡色背景区分低置信度回答
第三层:转接层
- 连续 2 次用户追问同一问题且未解决,主动提供人工转接入口
- 文案:"看起来我的回答没有解决您的问题,要帮您转接人工客服吗?"
检查点
在继续之前,确保你能回答:
- [ ] 能说出 AI 产品的 5 大独特体验挑战
- [ ] 能解释流式输出的设计要点(TTFT 基线、禁用输入框、Stop 按钮)
- [ ] 能区分 4 类 AI 错误并说出各自的处理方式
- [ ] 能写出"主动说不"的正确文案格式
- [ ] 能设计包含检测层、呈现层、转接层的不确定性处理方案