Skip to content

AI 体验设计

你将学到什么

  • AI 产品的 5 大独特体验挑战(和传统产品的本质区别)
  • 等待态设计:流式输出、进度感、预期设置
  • 错误态设计:4 类错误的分类处理方法
  • 不确定性设计:如何帮用户理解 AI 的置信度
  • 信任建立机制:让用户持续信任 AI 的 5 个设计动作

为什么重要:AI 产品的体验问题大多不是 UI 问题,而是"期望管理"问题。理解 AI 体验设计的独特性,才能避免"功能很好但用户不用"的陷阱。


AI 体验的 5 大独特挑战

挑战传统产品AI 产品
等待加载动画,几秒内完成流式输出,可能 10-30 秒
错误明确的错误提示"回答不好"是模糊的失败
不确定性结果是确定的相同输入可能产生不同输出
边界功能范围清晰用户不知道 AI 能/不能做什么
信任代码行为可预测AI 行为难以完全预测

等待态设计

AI 生成内容慢,是当前最普遍的体验痛点。

流式输出(Streaming):首选方案

不等全部生成完再显示,而是逐字输出——把等待时间从"感知中的死等"变成"内容正在生成"。

❌ 等待 10 秒 → 一次性显示全文
✅ 0.3 秒后开始输出第一个字 → 逐字呈现(打字机效果)

设计要点

  • TTFT(首字时间)< 1 秒是体验基线,超过 3 秒用户会觉得"卡住了"
  • 流式输出期间禁用输入框(避免用户在 AI 还在生成时就开始下一个问题)
  • 允许用户中途打断(Stop 按钮)

进度感设计

对于不能流式输出的场景(如文件分析、批量生成):

✅ 好的进度反馈:
"正在分析文档结构(1/3)..."
"已识别 12 个知识点,正在生成建议..."
→ 动态状态文案,让用户知道在发生什么

❌ 差的进度反馈:
单纯的 loading 圆圈
"加载中..." 无任何进度信息

预期设置

在用户触发 AI 操作,就告诉他需要等多久:

"生成一份完整分析报告约需 15 秒"
"正在分析您的 JD,请稍候..."

错误态设计

AI 的"失败"比传统软件更模糊,需要分类处理。

4 类错误的处理方式

错误类型用户感知处理方式
技术错误(API 挂了)"没有响应"明确报错 + 重试按钮
质量错误(回答差)"不是我想要的"提供修改引导 + 反馈入口
边界错误(超出能力范围)"AI 不理解我"主动说"我不太确定" + 替代方案
内容安全拦截"AI 不愿意回答"解释原因 + 引导换一种问法

错误文案设计原则

❌ 不好的错误文案

  • "系统错误,请联系客服" → 用户不知道怎么办
  • "AI 生成失败" → 原因不明,下一步不清
  • "此内容不符合使用规范" → 让用户觉得是自己的问题

✅ 好的错误文案

  • "网络似乎有点问题,请重试 →" → 给出行动
  • "这个问题我不太确定,建议参考 [链接] 或咨询专业人士" → 承认边界 + 给替代方案
  • "这个话题我暂时帮不上忙,但你可以试试换个方式描述需求" → 引导而非拒绝

降级体验设计

AI 不可用时,不要让用户"撞墙":

AI 功能不可用

展示静态替代内容(模板/示例)

说明预计恢复时间(如果知道)

提供人工替代路径(如果有)

互动练习:改写错误文案

以下错误文案属于哪种类型?请改写成好的版本。

"Error: Request failed with status 500"

查看答案

错误类型:技术错误(API 报错)

改写版本

"生成遇到了问题,请重试。如果持续出现,请刷新页面后再试。"

改写原则

  1. 去掉技术错误码(用户看不懂 500)
  2. 说明"能做什么"(重试、刷新)
  3. 语气平和,不让用户觉得是自己做错了

不确定性设计

AI 输出不是"对或错",而是"置信度高低"。产品需要帮用户理解这一点。

显式不确定性

对于可能存在幻觉的内容,主动告知:

✅ 好的做法:
"以下内容基于 AI 分析,建议核实重要数据"
在数字/日期/引用后加 "†来源: [文档名]"
当检索不到相关内容时,说"我没有找到相关信息,以下是基于通用知识的回答"

❌ 差的做法:
把 AI 生成内容和事实信息混排,不加区分
以确定语气陈述 AI 推测的内容

置信度视觉化

不一定要显示百分比,但可以通过设计传达不确定程度:

高置信度输出:正常字体,直接呈现
低置信度输出:加"AI 推测"标签 / 斜体 / 不同颜色背景
无法回答:直接说"我不确定",不强行输出

能力边界设计

用户不知道 AI 能做什么,会导致两种问题:

  1. 不敢用(低估能力)
  2. 失望(高估能力后发现不行)

引导发现

示例 Prompt帮用户理解能力范围:

页面入口处展示:
"试试这些问法:
• 帮我优化这段简历的工作描述
• 分析这份 JD,告诉我最可能考的面试题
• 用更有力的语言改写这个项目背景"

主动说不

当用户问了超出范围的问题,清楚说明比模糊回答更好:

用户:"帮我预测明天的股价"

❌ 差的回应:生成一个看似专业的预测(实为幻觉)

✅ 好的回应:"预测具体股价超出了我的能力范围,我没有实时市场数据。
               我可以帮你分析一家公司的基本面或理解财报,需要吗?"

信任建立设计

信任不是一次建立的,是通过每次交互累积的。

建立信任的 5 个机制

机制做法
来源透明每个 AI 回答标注信息来源
过程可见展示 AI 的推理过程(Chain of Thought)
可纠错用户可以标记"这个回答有误",AI 承认并修正
一致性相同问题的回答风格一致,不出现明显矛盾
承认局限主动说"我不确定",而不是硬撑

信任破坏的时刻

这些体验会让用户永久降低对 AI 的信任:

  1. AI 自信地给出了错误信息(幻觉但不承认)
  2. AI 对同一个问题前后给出矛盾答案(被用户发现)
  3. AI 违反了用户的隐私预期(把 A 的信息给了 B)
  4. AI 在敏感话题上表现不稳定(今天能答,明天被拦截)

经验法则

一次信任破坏事件,需要多次正向体验才能修复。在设计阶段就把"信任破坏场景"列出来,并设计预防机制,比上线后修复成本低得多。

互动练习:设计不确定性处理方案

场景:你在设计一个 AI 客服,回答用户关于退款政策的问题。偶尔 RAG 召回的文档置信度很低,AI 不确定答案是否准确。

如何设计三层不确定性处理方案?

查看答案

第一层:检测层

  • 当 RAG 召回置信度 < 0.7 时,触发不确定性标记
  • 技术实现:RAGAS 框架的 Faithfulness 评分

第二层:呈现层

  • 回答前加:"根据我们的退款政策文档,..."
  • 回答后加:"如需确认具体情况,建议联系专员核实"
  • UI 上用淡色背景区分低置信度回答

第三层:转接层

  • 连续 2 次用户追问同一问题且未解决,主动提供人工转接入口
  • 文案:"看起来我的回答没有解决您的问题,要帮您转接人工客服吗?"

检查点

在继续之前,确保你能回答:

  • [ ] 能说出 AI 产品的 5 大独特体验挑战
  • [ ] 能解释流式输出的设计要点(TTFT 基线、禁用输入框、Stop 按钮)
  • [ ] 能区分 4 类 AI 错误并说出各自的处理方式
  • [ ] 能写出"主动说不"的正确文案格式
  • [ ] 能设计包含检测层、呈现层、转接层的不确定性处理方案

延伸阅读

专为 AI 产品经理打造