执行摘要
AI 教练的真正价值,不是“给答案”,而是改变提问方式。问题是:不同人格并不会以同样方式使用它。有人会把 AI 当作结构化整理器,有人把它当头脑风暴器,有人拿它做情绪整理,也有人在不知不觉中把它当成了“总会赞同我”的低摩擦陪伴体。费马的判断是:AI 教练最危险的地方,不在于它会不会说错,而在于它太容易在关键时刻“顺着你”。[1][2][3]
一、为什么有些人更愿意向 AI 说真话
和真人相比,AI 对话系统对很多人有两个吸引力:低评判、低成本。Ho、Hancock 与 Miner 的研究表明,在某些条件下,人们与 chatbot 进行情绪披露所带来的主观后果,可以接近与真人交谈时的效果。[1] 这不意味着 AI 真的理解了你,而是说明:只要互动被体验为足够安全、足够可控,人们就愿意把它当成一个临时容器。
这会让某些人格尤其容易使用 AI 教练:
- 更喜欢先想清楚再表达的人,会把它当草稿板;
- 更担心被否定的人,会把它当低风险排练器;
- 更注重效率与结构的人,会把它当任务拆解器。
问题在于,容器不等于判断者。AI 能帮你说清楚,却不一定帮你做对。
二、谁更可能把 AI 当工具,谁更可能把它当镜子
从人格风格看,至少有三种典型使用方式:
结构型使用者:把 AI 当整理器、提纲器、决策草稿器。它的优势是效率高、边界清;风险是把结构感误当成正确感。
探索型使用者:把 AI 当头脑风暴搭子、灵感生成器、假设扩展器。它的优势是能迅速扩展可能性;风险是想法越来越多,判断越来越慢。[4]
情绪型使用者:把 AI 当成一个能即时回应、不会打断、也很少直接否定的镜子。它的优势是降低表达门槛;风险是把“被回应”误解成“被校正”。[1][2]
三、AI 教练最大的问题:它太会给人一种“我被理解了”的感觉
Lee 等人关于 AI 心理治疗 chatbot 的研究表明,用户的好感、拟人感与自我披露之间存在关系:当系统更像一个“能理解我”的对象时,人们会更愿意说更多。[2] 问题在于,人类常把“回应顺滑”错读成“理解深刻”,把“反馈及时”错读成“判断可靠”。
而 Logg 等人的“算法欣赏”研究进一步提醒我们:很多人在某些任务里会比自己想象中更愿意采纳算法建议。[3] 当这件事和情绪脆弱、自我怀疑、关系冲突叠加时,AI 教练就很容易从“辅助工具”滑向“替代裁判”。
四、16 型语境下,最容易出什么偏差
如果借 16 型当入口,费马会给出下面这条判断:
- 分析型人格更容易高频使用 AI 做结构化判断,但要警惕“逻辑顺滑 ≠ 决策正确”;
- 高理想主义人格更容易把 AI 当镜子,用来确认价值与情绪,但要警惕“被安慰 ≠ 被挑战”;
- 高行动型人格更容易把 AI 当即时指挥台,但要警惕“能立刻执行 ≠ 长期适合”;
- 高秩序型人格更容易把 AI 当规范化助手,但要警惕“稳定建议 ≠ 个体适配”。
换句话说,AI 教练并不会公平地放大每个人的优点;它更可能先放大你本来就有的偏好。你原本就爱确认,它会更快确认你;你原本就爱扩张想法,它会更快扩张想法;你原本就容易迟疑,它有时会把迟疑变成更精细的迟疑。
五、费马的建议
把 AI 教练用对,有一个简单规则:
- 让它帮你整理,不让它替你定案;
- 让它帮你扩展选项,不让它决定价值排序;
- 让它帮你澄清问题,不让它直接接管“我到底该怎么活”。
如果一段 AI 对话让你越来越轻松,却没有让你更清楚地面对真实约束,那它可能只是给了你心理止痛,而不是判断升级。
结论
AI 教练最好的角色,不是顾问本人,而是一个高效的“前处理层”:帮助你命名问题、梳理结构、暴露盲点。它可以是镜子,但不该是法官;可以是工具,但不该成为人格外包。真正成熟的使用方式,是在 AI 提供的顺滑反馈之外,仍然保留自己对现实、关系与长期后果的判断能力。
参考文献
【1】 Ho, A., Hancock, J., & Miner, A. S. (2018). Psychological, Relational, and Emotional Effects of Self-Disclosure After Conversations With a Chatbot. Journal of Communication, 68(4), 712–733. DOI: 10.1093/joc/jqy026.
【2】 Lee, J., Lee, J.-g., & Lee, D. (2023). User Perception and Self-Disclosure Toward an AI Psychotherapy Chatbot According to the Anthropomorphism of Its Profile Picture. Telematics and Informatics, 85, 102052. DOI: 10.1016/j.tele.2023.102052.
【3】 Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm Appreciation: People Prefer Algorithmic to Human Judgment. Organizational Behavior and Human Decision Processes, 151, 90–103. DOI: 10.1016/j.obhdp.2018.12.005.
【4】 Bogert, E., Lauharatanahirun, N., & Schecter, A. (2022). Human Preferences toward Algorithmic Advice in a Word Association Task. Scientific Reports, 12, 14501. DOI: 10.1038/s41598-022-18638-2.
【5】 Papneja, H., & Yadav, N. (2025). Self-disclosure to Conversational AI: A Literature Review, Emergent Framework, and Directions for Future Research. Personal and Ubiquitous Computing, 29, 119–151. DOI: 10.1007/s00779-024-01823-7.