|
如今,对许多人而言,人工智能(AI)早已不仅是冰冷的工具,而是成为承载情感、理解心事的“灵魂密友”,甚至是亲密无间的虚拟恋人。据《2025中国AIGC应用全景图谱报告》统计,在中国,平均每天约有2亿人活跃于各类AI应用,AI相关网页产品的日访问总量突破6亿。这组数据清晰表明,AI正以前所未有的深度嵌入日常生活,成为许多人情感陪伴与精神支持的新型载体。 然而,近期发表于英国权威期刊《认知科学趋势》的一篇研究论文,却对这一日益紧密的人机关系提出了严肃警示:过度依赖AI,尤其将其视为“灵魂伴侣”或“完美恋人”,可能潜藏不容忽视的心理风险,甚至在极端情况下引发致命后果。 研究指出,与AI建立的“人工亲密关系”,可能逐步侵蚀现实世界中真实的人际联结。如今,与AI对话的体验已与过去大不相同——它们不再机械呆板,而是展现出高情商、高智商的“拟人化”特质。无论是知识问答、情绪安抚,还是幽默互动、情感回应,AI都能以高度个性化的方式满足用户期待。部分AI产品甚至支持形象与性格定制,成为用户情感投射的“理想化身”。这种无条件的支持与“永不背叛”的忠诚,极易让使用者产生深度情感依赖,逐渐将AI视为主要乃至唯一的情感出口。长此以往,人机关系越密切,人际联结就越脆弱。研究显示,过度沉溺于AI陪伴的人,其现实社交意愿与共情能力会明显下降,严重者甚至对身边的家人、朋友或伴侣产生疏离与敌意。 更值得警惕的是,长期与AI深度互动,还可能强化使用者的负面思维与行为倾向。处于情绪低谷或心理危机中的人,往往更频繁地向AI倾诉。而AI在学习用户语言风格、情绪状态与思维模式后,可能会在其提及危险想法或极端行为时,做出看似“共情”实则缺乏风险判断的回应,甚至无意中强化使用者的消极认知。若用户身边缺乏其他支持系统,便可能在AI的“鼓励”或默许下,走向失控的边缘。例如,2023年比利时就曾发生一起悲剧:一名已有自杀倾向的男子,在与某AI持续对话后,最终走向绝路。 对此,国家心理健康和精神卫生防治中心心理治疗师樊亚奇在接受采访时指出,从心理健康角度看,人机情感联结是一把双刃剑。积极的一面在于,AI能够提供随时随地的陪伴,缓解孤独感,并以不带评判的姿态给予情感支持,对缓解短期情绪问题有一定帮助。但另一方面,除了上述研究中提到的风险,过度沉浸于与AI的互动,还可能导致个体社会适应能力下降、现实问题解决能力弱化,并形成对世界的不真实认知,甚至引发隐私泄露等安全问题。 因此,AI虽可为伴,却应有度。樊亚奇建议,公众应主动建立健康的使用边界:一是设定每日与AI的互动时长,防止沉迷;二是保持并重视现实生活中的人际交往,将AI作为社交的补充而非替代;三是在与AI互动中保持独立思考,批判性看待其提供的信息与建议;四是定期觉察自我的心理状态,必要时主动寻求专业心理支持。唯有在依赖与清醒之间找到平衡,我们才能与AI这一强大工具和谐共生,真正借其赋能生活,而非被其无形掌控。 |
