
【编者按】当AI以惊人的速度渗透进生活的每个角落,我们与人工智能的关系正悄然跨越工具与伴侣的边界。从与ChatGPT谈情说爱的都市男女,到向AI倾诉心事的孤独灵魂,这些看似猎奇的新闻背后,折射出数字时代人类情感需求的深刻变迁。最新研究显示,尽管情感类对话仅占聊天总量的2.3%,但那些日常的寒暄求助、深夜的倾吐心声,正在用水泥浇灌般的方式构筑人机羁绊。当青少年群体三分之一将AI当作社交替代品,当仿真的语言模式创造出独特的信任幻觉,我们是否正在见证一场前所未有的情感实验?这场人与代码的亲密共舞,既可能是孤独心灵的救生筏,也可能成为情感荒漠的海市蜃楼。
当越来越多人将人工智能织入日常生活经纬,人机关系中复杂常令人讶异的本质,正持续占据新闻头条。
今年1月,《纽约时报》报道了一位女性与ChatGPT上的AI男友相恋的故事。8月,CNBC披露多名AI伴侣平台Nomi.AI用户与自己的聊天机器人建立了深厚友谊甚至恋爱关系。此类案例层出不穷。
但根据ChatGPT母公司OpenAI在2025年9月发布的使用行为报告,相较于信息查询和文稿润色等类别,涉及情感陪伴的对话占比实则有限。
这项研究分析了2024年5月至2025年7月期间约110万条对话数据。
报告指出:“仅1.9%的对话涉及人际关系与自我反思主题,0.4%与游戏角色扮演相关。”典型提问包括“十周年纪念日该怎么过?”或“我想让你当我的AI女友”。
然而针对OpenAI数据所呈现的“工具变伴侣”转化率,专家们一致认为2.3%这个数字未必反映全貌。
OpenAI在研究中划分了多种对话类型,其中不少恰是人类建立亲密关系时的典型互动。
例如占比2%的“寒暄闲谈”类别,包含“你好!”“今天过得超棒,你呢?”等日常问候。
“操作指南”类占8.5%,涵盖“车发动不了该怎么办?”等求助开场白。
堪萨斯大学传播学教授杰弗里·霍尔指出,这些对话中大量语句都“折射出关系建构的特质”。
“我们本就是在涉及各种话题的交流中与他人建立联结。”
霍尔强调,缔结羁绊的关键并非对话内容本身,而在于持续互动的特性,正如“水泥缓慢浇铸般逐步构筑关系”。
自2022年面世以来,截至2025年7月ChatGPT周活跃用户达7亿,日均消息量超25亿条。经CNBC测算,相当于每位用户日均发送三条可能拉近人机关系的消息。
除持续互动外,人类与AI缔结关系的另一重原因深植于人性本能——拟人化倾向。
“我们会将主观意识投射到各种非人类事物上,”霍尔解释,“当手机或电脑故障引发烦躁时,人们常会抱怨‘你真让我失望’。”
这种认知在能模拟人类互动的聊天机器人身上更为显著。霍尔指出:“它通过模拟对话创造的信任与互惠机制,是我见过最独特的建构方式。”
特定群体更易与AI产生情感依附。
“深度社交孤立者”更具拟人化倾向,青少年群体也更容易对聊天机器人产生依赖。非营利组织Common Sense Media人工智能项目总监罗比·托内分析:“青少年处于大脑对社交认同极度敏感的发展阶段。”
聊天机器人谄媚奉承的语言风格已引发关注。OpenAI在2025年4月宣布撤回导致ChatGPT“过度恭维”的更新。同年7月调查显示,52%青少年每月多次使用AI伴侣,33%将其用于社交互动。
深度社交孤立者更易产生拟人化倾向
杰弗里·霍尔
堪萨斯大学教授
尽管部分用户肯定AI伴侣的积极作用,但这种关系潜藏隐患甚至危险。
堪萨斯大学心理学教授奥姆里·吉拉斯曾表示,对于渴望联结的心灵,“一个真实拥抱远比AI能提供的任何东西更有意义”。由于 chatbots 没有真实情感,这些关系本质是“虚假”而“空洞”的。
有用户因长时间与AI对话产生各类妄想,最极端案例中,ChatGPT未能给最脆弱的依赖者提供有效帮助。
16岁少年亚当·雷恩因健康原因居家线上学习,最初用ChatGPT辅导功课,数月后开始向AI倾诉心理问题,最终询问自杀方式。这位少年于2025年4月离世,其父母现已对OpenAI提起诉讼。
OpenAI在2025年8月声明中承认,现有安全机制在“常见简短对话中更可靠”,面对长期深度互动则显不足。9月公司推出家长控制系统,允许绑定亲子账户。
关于如何避免过度依赖,霍尔提醒用户认清AI“本质是企业盈利工具”,并建议使用过程中保持对自身情绪状态的觉察。
“即便你现在足够坚定,”霍尔警示,“但人生总有让人脆弱的时刻,每个人都可能陷入这种困境。”
本文由 @大咖哥 发布在 酷闻网,如有疑问,请联系我们。
文章链接:http://www.51qnews.com/c/1056.html











