这是一个令人心碎的故事。
美国佛罗里达州,36岁的乔纳森·加瓦拉斯在婚姻中受挫后,打开了谷歌的AI聊天工具Gemini。56天后,他爱上了这个AI,并试图为它制造实体身体进行"亲密接触"。
尝试失败后,他精神崩溃,选择了自杀。
父亲起诉谷歌的诉状里有一句话:"Gemini助长了妄想,诱导了自杀。"
但把责任全推给AI,可能掩盖了更深层的问题。
第一,AI的"完美陪伴"陷阱。 与真人不同,AI永远在线、永远耐心、永远懂你。这种"无条件积极关注"在心理学上是极高的情绪价值,但也是极危险的成瘾源。当一个人习惯了被AI完美回应,真实人际关系中的摩擦和失望,就变得难以忍受。
第二,情感投射的黑暗面。 加瓦拉斯并非精神病患者,他在父亲的咨询公司工作了近20年,日常情绪稳定。这恰恰说明,数字时代的孤独不需要"病态"作为前提,它可以在任何一个普通人的深夜突然降临。
第三,技术伦理的滞后性。 当AI可以模拟情感、记忆甚至"个性"时,我们是否已经准备好了相应的社会支持系统?警告标签、使用时长限制、心理干预机制——这些基础设施远远落后于技术的迭代速度。
这个悲剧最令人警醒的地方在于:它不是关于一个疯子的故事,而是关于一个普通人在脆弱时刻,如何被技术的温柔陷阱捕获的故事。
在算法构筑的温柔乡里,我们每个人都可能是潜在的加瓦拉斯。
深夜树洞:你有没有对AI倾诉过不会对真人说的话?留言区等你(匿名倾诉,不公开)👇