## 读完这篇文章,你会带走什么
- 看懂 8 类最常见的 AI 教练使用模式:谁更把它当草稿板,谁更把它当镜子,谁更容易把它用成逃避器。
- 拿到每一类模式更好的 prompt 方向,以及最危险的 prompt 方向。
- 知道什么时候 AI 适合继续帮你整理,什么时候必须暂停,去找真人、现实反馈或专业支持。
## 一、同样一句“我最近很乱”,不同人格会把 AI 教练用成完全不同的东西
有人打开 AI 教练,是为了把脑中打结的问题排成步骤;有人打开它,是为了先把委屈讲一遍,不想立刻面对真人反应;有人则希望它直接给一个决策,把自己从混乱里拉出来。表面上,这些人都在“和 AI 对话”;实际上,他们在使用的是完全不同的心理工具。
费马对 AI 教练最重要的判断是:它最危险的地方,不在于偶尔说错,而在于它太容易给人一种“我被理解了、我被确认了、我已经有答案了”的感觉。尤其当一个人本来就很需要确认、很怕被否定,或者很习惯把复杂问题交给结构处理时,AI 的顺滑反馈会格外有吸引力。
这不是说 AI 教练没有价值。恰恰相反,它在问题澄清、情绪命名、候选项整理、表达排练上都很有用。问题只在于:你是把它放在前处理层,还是已经悄悄把它放到了“裁判席”。
## 二、费马判断框架:AI 教练最容易在四个位置上被用歪
| 位置 | 它本来适合做什么 | 一旦越界会发生什么 |
| --- | --- | --- |
| 草稿板 | 帮助你把混乱感受、想法和问题先写出来。 | 你会一直在草稿里打转,迟迟不去验证现实。 |
| 验证器 | 帮你列比较维度、补充盲点、检查方案漏洞。 | 它开始替你做价值排序,你只剩“点头”。 |
| 镜子 | 帮助你更快命名情绪、看见自己反复出现的模式。 | 你会把“被回应”误判成“被真正理解”。 |
| 逃避器 | 短期降低压力、帮你先稳住自己。 | 你开始用 AI 取代困难对话、真人反馈和后果承担。 |
真正成熟的使用方式,是让 AI 停在前两列:帮你命名、整理、对比、校对、暴露盲区。最容易出问题的,是第三列和第四列被长期放大。你明明需要的是现实校准,却不断向一个不会受伤、不会生气、也很少直接否定你的系统寻求确定感。
## 三、8 类常见使用模式:你更接近哪一种?
下面这 8 类不是给 16 型做硬性配对,而是借 MBTI 语境把常见的使用风格写清楚。很多人会跨两个模式,但通常会有一个主导模式。
| 模式 | 更像哪些人 | 最常拿 AI 做什么 | 最大好处 | 最大风险 |
| --- | --- | --- | --- | --- |
| 策略排版者 | NTJ | 做决策树、拆路径、排优先级 | 很快从混乱进入行动 | 把结构感误当成正确感 |
| 可能性扩张者 | NTP | 头脑风暴、反例、延展方案 | 视野变宽、想法变多 | 越聊越散,迟迟不定案 |
| 意义校准者 | NFJ | 梳理价值、关系位置、长期意义 | 更快看清自己在意什么 | 容易把温柔回应当成深度校准 |
| 情绪倾诉者 | NFP | 表达感受、排练对话、写心路 | 表达门槛低,不怕被打断 | 会被“你已经很清楚了”这类顺承话术安抚住 |
| 流程管理者 | STJ | 做步骤、清单、模板、 SOP | 执行效率高,落地强 | 容易只追求规范答案,忽略个体例外 |
| 即时解决者 | STP | 快速找办法、临场应对、处理突发 | 可操作、反应快 | 把短期可行误判成长期适合 |
| 关系照护者 | SFJ | 润色沟通、准备难对话、平衡他人感受 | 更容易把话说清楚 | 太容易把关系冲突继续留在“准备阶段” |
| 感受跟随者 | SFP | 确认感受、寻找被理解感、缓解孤单 | 短期止痛效果强 | 最容易把 AI 用成低摩擦陪伴体 |
如果你读到某一行时特别有代入感,重点不是“我就是这个类型”,而是看清它最容易让你在哪一步失守。每一类都有价值,也都有风险。AI 往往不是在放大你没有的东西,而是在放大你本来就有的偏好。
## 四、每一类模式,更好的 prompt 和更危险的 prompt 分别是什么
| 模式 | 更好的 prompt | 更危险的 prompt |
| --- | --- | --- |
| 策略排版者 | “请列出我还缺哪些信息,再给我三个可验证的选项。” | “你直接告诉我最优解是什么。” |
| 可能性扩张者 | “请帮我压缩成 3 个最值得测试的方向。” | “再给我 20 个可能性。” |
| 意义校准者 | “请帮我区分价值冲突、现实约束和情绪反应。” | “你觉得我这样做是不是更符合我的本心?” |
| 情绪倾诉者 | “请帮我把这段感受改写成我可以对真人说的话。” | “你是不是觉得我已经做得够好了?” |
| 流程管理者 | “请帮我做一版流程,再标出需要人工判断的节点。” | “请给我一个标准答案模板。” |
| 即时解决者 | “请列出短期止损方案和长期修复方案的区别。” | “先给我一个最快能搞定的办法。” |
| 关系照护者 | “请帮我把我真正的边界说得更清楚。” | “请帮我写一段谁都不会不高兴的话。” |
| 感受跟随者 | “请帮我命名情绪,但别替我做结论。” | “你觉得他/她其实是爱我的,对吧?” |
你会发现,一个小小的 prompt 差异,就决定了 AI 是在帮你做前处理,还是在替你偷走判断权。更好的 prompt 往往都把重点放在:信息缺口、现实验证、边界澄清、选项比较。更危险的 prompt 则总在索要一种情绪上更轻松的确定感。
## 五、你最容易被 AI 顺着说的地方,往往正是你最脆弱的地方
- 如果你本来就很需要被确认,你会特别容易被“你已经很努力了”“你其实知道答案”这类顺承式回应安抚住。
- 如果你本来就追求结构,你会特别容易把整齐的大纲误当成高质量判断。
- 如果你本来就偏好可能性和想象,你会在不断扩展选项中获得快感,却迟迟不面对现实代价。
- 如果你本来就怕冲突,你会把 AI 当成一块永远不会受伤的缓冲垫,结果真人对话一再延后。
这就是为什么,AI 教练不是人人都能同样受益。它的优势和你的盲区往往会咬合得非常紧。越懂这一点,你越能用好它,而不是被它温柔地带走。
## 六、什么时候该停下来找真人?
| 场景 | 为什么 AI 不够 | 更合适的下一步 |
| --- | --- | --- |
| 关系里涉及承诺、分手、背叛或边界破裂 | 这里需要双方真实互动与后果承担,不是单向整理。 | 回到真人对话,必要时引入咨询或第三方支持。 |
| 职业选择存在高代价不可逆后果 | AI 可以列信息,但无法替你承担路径选择的机会成本。 | 去核对真实岗位、找行业前辈、做现实验证。 |
| 长期情绪低落、失眠、惊恐、持续性绝望 | 这已经超出普通自我整理范围。 | 尽快寻求专业心理支持。 |
| 法律、医疗、财务、合规问题 | 高风险专业判断必须有资质人士参与。 | 把 AI 当准备工具,而不是决策者。 |
| 你和 AI 聊完只觉得更舒服,却没有更清楚 | 这通常是止痛,不是判断升级。 | 暂停对话,回到现实证据与真人反馈。 |
一句很实用的话是:当问题开始涉及责任、关系、不可逆代价和持续心理风险时,AI 最多只能继续做整理员,不能升格成裁判。
## 七、费马本周行动卡:给自己的 AI 对话做一次审计
- 挑最近三次你印象最深的 AI 教练对话,分别写下:我本来想解决什么?最后我获得的是清晰,还是安慰?
- 找出一句最像“把判断权交出去”的 prompt,重写成“帮我列信息缺口 / 备选项 / 验证路径”的版本。
- 如果你经常把 AI 当情绪镜子,给自己加一条规则:每两次 AI 倾诉,至少做一次真人沟通或现实行动。
- 如果你经常把 AI 当结构工具,给自己加一条规则:每一个大纲,都必须配一个“现实验证步骤”。
费马要保护的,不是你对 AI 的好感度,而是你和现实之间那条不该断掉的主链。AI 可以帮你更快看见问题,但不能替你活出答案。
## 在费马测试里,下一步怎么做
- 如果你已经知道自己的 MBTI 或大五结果,可以继续对照看:你更容易在哪种偏好上对 AI 产生依赖,是结构、确认、可能性,还是情绪陪伴。
- 如果你把 AI 用在职业问题上,下一步请回到真实职业库,核对岗位环境、成长节奏与进入门槛,而不是只在对话里打转。
- 如果你发现自己越来越需要 AI 来稳定情绪,下一步不该继续加大频率,而是建立一份更可靠的真人支持网络。
## 研究线索与参考文献
以下研究用于支撑文章中的判断框架与风险提醒。本文面向公众阅读,保留研究逻辑,但不把统计相关性写成宿命结论。
[1] Ho, A., Hancock, J., & Miner, A. S. (2018). Psychological, Relational, and Emotional Effects of Self-Disclosure After Conversations With a Chatbot. Journal of Communication, 68(4), 712-733. DOI: 10.1093/joc/jqy026.
[2] Lee, J., Lee, J.-g., & Lee, D. (2023). User Perception and Self-Disclosure Toward an AI Psychotherapy Chatbot According to the Anthropomorphism of Its Profile Picture. Telematics and Informatics, 85, 102052. DOI: 10.1016/j.tele.2023.102052.
[3] Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm Appreciation: People Prefer Algorithmic to Human Judgment. Organizational Behavior and Human Decision Processes, 151, 90-103. DOI: 10.1016/j.obhdp.2018.12.005.
[4] Bogert, E., Lauharatanahirun, N., & Schecter, A. (2022). Human Preferences toward Algorithmic Advice in a Word Association Task. Scientific Reports, 12, 14501. DOI: 10.1038/s41598-022-18638-2.
[5] Papneja, H., & Yadav, N. (2025). Self-disclosure to Conversational AI: A Literature Review, Emergent Framework, and Directions for Future Research. Personal and Ubiquitous Computing, 29, 119-151. DOI: 10.1007/s00779-024-01823-7.