Insights

你的性格如何塑造你对人工智能的态度:从好奇、焦虑到算法信任

人们对 AI 的看法并不只取决于技术知识,也与稳定的人格倾向、风险知觉和对控制感的需求有关。本文用人格研究解释:为什么有些人把 AI 当作效率杠杆,有些人却更先看到失真、替代与依赖风险。

你的性格如何塑造你对人工智能的态度:从好奇、焦虑到算法信任

人们对 AI 的看法并不只取决于技术知识,也与稳定的人格倾向、风险知觉和对控制感的需求有关。本文用人格研究解释:为什么有些人把 AI 当作效率杠杆,有些人却更先看到失真、替代与依赖风险。

Published: Apr 18, 2026

Updated: Apr 18, 2026

人工智能与人格人格心理学AI算法信任AI 焦虑

执行摘要

围绕人工智能的争论,表面上像是一场关于技术的争论,实质上往往是一场关于人格、控制感与风险解释方式的争论。有人把 AI 看成生产率工具,有人把 AI 看成认知外包装置,还有人对它保持持续警惕。费马的判断是:这种差异,不只是“懂不懂技术”,也不是“乐观还是悲观”那么简单,而更接近一种稳定的人格—决策风格差异。[1][2]

现有研究已经显示,大五人格、AI 焦虑以及人口学变量,会共同影响人们对 AI 的总体态度。其中,尽责性更容易与“把 AI 当作效率增强器”的使用方式绑定;高神经质更容易与不确定性放大、错误预期和失控焦虑相关;而开放性并不一定自动通向“技术拥抱”,反而可能导向更强的批判性审视——也就是:越有想象力和反思力的人,越不愿意把 AI 轻易当成无害工具。[1]

一、为什么“喜欢 AI”不是一个单一问题

传统讨论喜欢把人分成两类:支持 AI 的人,和反对 AI 的人。但从行为科学角度看,这种分法太粗。更有解释力的方式,是把“AI 态度”拆成三层:

第一层是功能判断:它能不能让我更快完成任务? 第二层是控制判断:我是否仍然掌握最终决定权? 第三层是价值判断:它是否侵蚀了创造、责任与真实性?

对尽责性更高的人来说,AI 首先被放进“效率与组织”框架里:如果它能减少重复劳动、提升输出稳定性,它就更容易被接受。[1] 对高开放性人群来说,问题往往不是“它新不新”,而是“它正在替代什么”。这类人更容易追问:当文字、图像、判断都能被机器大规模生成时,原创性、作者性与品味还有什么剩余空间?这也是为什么“创造者未必是最乐观的 AI 用户”。[1]

二、算法信任并不是线性的

关于“人到底更信人还是更信算法”,研究并不支持一个简单答案。Logg、Minson 与 Moore 提出“算法欣赏”现象:在一些预测任务中,普通人会比预期更愿意采纳算法建议。[2] 但这并不意味着人会无限度地信任算法。Bogert 等人的研究表明,在涉及联想、创意和模糊判断的任务里,人们对算法建议的采纳具有明显条件性:他们会使用它,但同时会保留修正空间,且这种“使用中的保留”非常常见。[3]

对费马来说,这个发现很重要:真正成熟的 AI 使用方式,不是“完全依赖”或“完全排斥”,而是把 AI 放在一个被监管的位置上——它可以提供候选答案,但不能自动占据最终解释权。

三、为什么有些人更愿意和 AI 聊天

一部分人会把 AI 当工具,另一部分人会把 AI 当“低风险对话对象”。这是另一个重要区别。关于 chatbot 的研究显示,人们与 AI 对话时可能表现出与人际披露相似的心理后果:包括更容易表达敏感内容、减轻即时压力,甚至产生被理解的主观感受。[4][5] 这并不代表 AI 真正“理解”了人,而是说明:当系统表现出足够的社会临场感、可预测性和低评判威胁时,用户会把它当作一种可用的情绪容器。[4][5]

问题在于,这种便利也会带来边界风险。对需要外部确认、又希望保持控制感的人来说,AI 可能是一种高频、低摩擦、可持续“回声墙”。它能快速给建议,却不一定能承担建议的后果。因此,费马不主张把“AI 很会回应我”误解成“AI 很适合替我判断”。

四、费马的判断

如果你对 AI 持强烈乐观态度,你需要问的不是“它还能帮我做什么”,而是“我把哪些判断外包得太快了”; 如果你对 AI 持强烈警惕态度,你也需要问“我担心的是风险本身,还是不愿意失去熟悉的控制方式”。

人格不会替你决定要不要用 AI,但人格会显著影响你如何界定风险、如何分配信任、以及你愿意把多少“思考主权”交出去。真正重要的,不是你属于哪一派,而是你是否知道自己为什么会相信、为什么会怀疑,以及你是否保留了最后一道判断权。

结论

AI 不是单纯的技术问题,而是一面放大人格差异的镜子。它会让高尽责的人更高效,也会让高警觉的人更焦虑;它会让一部分人更快行动,也会迫使另一部分人更认真地讨论真实性与边界。费马更关心的不是“你喜不喜欢 AI”,而是:你是否有能力在使用 AI 时,仍然保留你的判断力、责任感与长期职业护城河。

参考文献

【1】 Kaya, F., Aydın, F., Schepman, A., Rodway, P., Yetişensoy, O., & Demir Kaya, M. (2024). The Roles of Personality Traits, AI Anxiety, and Demographic Factors in Attitudes toward Artificial Intelligence. International Journal of Human-Computer Interaction. DOI: 10.1080/10447318.2022.2151730.

【2】 Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm Appreciation: People Prefer Algorithmic to Human Judgment. Organizational Behavior and Human Decision Processes, 151, 90–103. DOI: 10.1016/j.obhdp.2018.12.005.

【3】 Bogert, E., Lauharatanahirun, N., & Schecter, A. (2022). Human Preferences toward Algorithmic Advice in a Word Association Task. Scientific Reports, 12, 14501. DOI: 10.1038/s41598-022-18638-2.

【4】 Ho, A., Hancock, J., & Miner, A. S. (2018). Psychological, Relational, and Emotional Effects of Self-Disclosure After Conversations With a Chatbot. Journal of Communication, 68(4), 712–733. DOI: 10.1093/joc/jqy026.

【5】 Papneja, H., & Yadav, N. (2025). Self-disclosure to Conversational AI: A Literature Review, Emergent Framework, and Directions for Future Research. Personal and Ubiquitous Computing, 29, 119–151. DOI: 10.1007/s00779-024-01823-7.

This content is for self-discovery and educational use, not medical or legal advice.
你的性格如何塑造你对人工智能的态度:从好奇、焦虑到算法信任|FermatMind | FermatMind