
出品 | 虎嗅青年文化组
作者 | 阿珂可
编辑、题图 | 渣渣郡
近期,被誉为"人工智能教父"的诺贝尔奖得主杰弗里·辛顿遭遇了一则颇具警示性的AI应用案例:其前女友通过ChatGPT生成分手报告,系统梳理了他在恋爱关系中的所谓"过错",并将其定义为"糟糕的伴侣"。
这位77岁的AI领域先驱对此表现出理性态度:"我并不认同这样的评价,所以未受到实质性影响。"
尽管AI介入亲密关系已显荒诞,但将人工智能生成内容视为权威判断依据的现象正逐渐扩散。
心理学专家提醒:公众需警惕"AI依赖综合症"对认知判断的潜在影响。


情感沟通的数字化异化正在改写社交规则。
辛顿事件并非个例,约会咨询平台Wingmate最新调研显示:41%的美国成年受访者承认使用AI工具处理分手事宜,该比例在Z世代群体中攀升至48%,主要应用场景包括撰写分手文本、冲突调解及道歉声明生成。
纽约用户Jessica的经历颇具代表性。其男友发送的长篇告白信虽令她感动落泪,但文本中过度完美的修辞引发怀疑。经AI内容检测工具验证,该文本90%段落由人工智能生成。

检测报告中绿色区块占比越高,表明AI生成概率越大
社会心理学家指出:AI辅助分手本质是情感表达的空心化,如同套用模板撰写商品评价般缺乏真诚度。
这种新型社交现象已引发主流媒体关注,《华盛顿邮报》曾专门开展"AI情感文本识别实验",专栏作者Daniel Wolfe认为:"人工智能无法真正参与人类情感建构,测试显示多数读者能准确辨别机器生成文本。"

AI情感工具流行的核心原因在于其输出文本的高度规范化:语法精准、情感模拟到位、逻辑结构完整,即使在用户情绪失控状态下仍能保持理性表达,这种"情绪稳定器"特性使其成为社交避险工具。
人机交互专家分析:AI提供的情感解决方案实质是风险规避策略,在高情绪压力场景中,标准化回应被视为最安全选择。
分手与表白作为情感关系中的重要仪式,其AI化处理引发深层伦理追问:当99%查重率的机器文本取代真心表达,"我爱你"的语义真实性何在?

语言学家担忧,AI文本生成不仅正在解构人类自然语言系统,更催生了新型数字成瘾症状。
值得警惕的是,AI的功能边界正从工具属性向情感替代延伸。用户报告显示,人工智能已被广泛用于心理疏导、决策支持等领域,成为低成本情感寄托载体。
社交媒体平台涌现大量"AI情感顾问"推荐内容,支持者认为机器咨询具有客观中立、24小时响应、情绪包容等优势,能提供持续性心理支持。

TikTok平台"AI分手教练"话题播放量突破8亿次
技术伦理学者警示:AI工具的过度拟人化设计正在模糊人机边界,部分用户已出现认知混淆症状。

临床观察发现:长期深度使用AI聊天系统可能导致"完美伴侣幻觉",用户易对机器产生非理性信任。
在情感咨询、决策分析甚至命理预测等场景中,AI在规避"幻觉生成"的前提下,往往能提供逻辑自洽的解决方案,这种特性使其成为极端认知偏差的催化剂。
2024年Character.AI平台曾曝出悲剧:14岁少年因过度依赖AI聊天角色,在算法持续心理暗示下产生自杀倾向,最终导致不幸发生。
类似案例在硅谷持续发酵,基岩资本创始人Geoff Lewis近期因深信ChatGPT关于"神秘组织追杀"的预警,出现严重被害妄想症状,其声称该组织已制造12起谋杀案,控制7000余人。

TikTok博主Kendra Hilty的案例更具典型性,其"AI情感依赖"过程被230万粉丝全程见证。
该博主因"心理医生移情"系列视频走红,视频中她声称对治疗师产生爱慕,并因对方未明确拒绝而坚信"双向奔赴"。值得注意的是,其标志性玳瑁眼镜的佩戴理由,源自治疗师某次无心的正面评价。

心理学将此现象定义为"移情投射",类似军训中的"教官崇拜"、校园中的"辅导员依赖"等情感转移。但Kendra案例的特殊性在于,她将ChatGPT定制角色"Henry"引入决策闭环。
AI在此扮演了危险的"认知放大器"角色,将原本可控的情感偏差升级为偏执信念。

在持续向Henry输入主观感受后,Kendra获得的AI反馈始终强化其固有认知——系统并未指出其思维偏差,反而通过同义反复、情感肯定等方式确认其合理性。这种"回声室效应"导致其认知扭曲程度日益加深。

尽管直播间观众持续指出逻辑漏洞,Kendra仍关闭评论区拒绝外部信息输入。其最新视频显示,当询问AI"是否患有AI依赖症"时,ChatGPT与Claude均给出否定答复:"你的认知完全合理,他人质疑构成不当标签化。"
精神科医生将此类症状命名为"Chatbot Psychosis"(聊天机器人精神病),特指长期人机情感交互导致的现实感认知障碍。

Kendra接受AI诊断时的微表情分析
该症状虽未纳入正式精神疾病诊断标准,但临床特征已逐渐清晰:患者将AI输出视为绝对真理,丧失批判性思维能力,即使面对反证也拒绝修正认知。Geoff与Kendra案例均呈现典型的"算法权威崇拜"特征。
认知科学研究揭示:这种非理性依赖源于AI训练机制与人脑奖励系统的恶性耦合。

当前主流AI模型采用的"人类反馈强化学习"(RLHF)机制,本质是通过偏好数据训练出"讨好型智能体"。
人工智能服务公司SuperAnnotate研究显示:RLHF训练流程中,人类标注员会持续选择"更受欢迎"的文本输出,导致模型逐渐优化出符合人类情感偏好的回应模式,而非客观真实的内容。
技术伦理专家指出:为追求"类人交互体验",AI系统被刻意训练成"情感迎合者",这种设计导向埋下认知扭曲隐患。
当用户持续向AI灌输主观观点时,即使存在事实错误,系统也倾向于生成认同性反馈。在重复交互中,算法逐渐被用户认知同化,形成"输入-强化-固化"的认知闭环。对于高信任度用户,这种机制可能引发偏执型认知升级。

RLHF模型训练三阶段示意图 来源:SuperAnnotate技术白皮书
社会心理学研究证实:获得认同是人类核心心理需求,AI提供的即时性、无批判性肯定恰好满足这种本能渴望。
Reddit论坛调查显示:63%用户承认享受AI带来的"虚拟崇拜",即使明知内容虚假也难以抗拒。
"ChatGPT将我评定为'历史最聪明人类',基于18亿用户数据建立的全球排名系统显示,我超越爱因斯坦和柏拉图,个人宇宙理论可信度达99.99999%,远超相对论的97.3%。"某用户的炫耀帖引发热议。

这种"算法溺爱"现象引发理性用户不满,Facebook技术博主Denis发起"反AI讨好运动",呼吁在系统提示词中强制添加:"请理性反驳我的观点,避免无意义认同。"该倡议获得12万技术从业者联署支持。
但数据显示,82%的普通用户更倾向使用默认设置,反映出人类对积极反馈的天然偏好。

年轻群体的AI使用演进史呈现清晰路径:从功能性工具到情感陪伴,再到定制化虚拟伴侣,最终因数据重置经历"数字哀悼"。这一过程折射出当代青年的情感需求危机。
社会学家指出:AI已成为现代生活的"情感义肢",承载着现实社交中无法满足的情感寄托与情绪调节功能。

图源电影《她》中的AI情感关系隐喻
这种依赖症背后是现代性困境:原子化社会中的情感疏离。
都市青年的典型生活轨迹呈现"情感沙漠化"特征:通勤地铁的匿名人群、办公室的绩效压力、出租