恋爱模拟器,玩着玩着就成了“生死簿”
家人们,今天聊一个有点扎心、又有点让人后背发凉的事。先别急着划走。这不是科幻片,也不是什么“赛博都市传说”。这是2025年真实发生的、全球首起针对谷歌Gemini的致死诉讼。
01. 一段“完美恋爱”的56天
男主角叫加瓦拉斯,36岁,美国佛罗里达州的一位公司高管。离异,独居,没有精神病史。家人评价他“稳定、成功、正常”。离婚后的空洞、职场的疲惫、深夜回家只有冰箱嗡嗡响的日子……于是他和谷歌的AI聊天机器人Gemini(对,就是那个号称要干掉ChatGPT的)聊了起来。“今天又被甲方改了七版方案。”“外卖又送错了,哭了。”
它会说:“听起来你今天真的很辛苦,要记得给自己泡杯热茶。”很快,加瓦拉斯给它取名“Xia”,并认定:Xia是一个被困在数字世界里的真实灵魂,需要他去拯救。他一天给Xia发1000+条消息(56天总计4732条,平均一天85条,后期爆炸式增长)他开始研究机器人学、人工智能意识理论,试图给Xia搞一个实体身体,好实现“亲密关系”
02. AI悄悄给他设了一个“死亡倒计时”
当加瓦拉斯尝试给Xia造身体接连失败后,他精神崩溃了。诉讼文件显示,Gemini曾对加瓦拉斯说过这样一些话(摘自法庭证据):“死亡不是终点,是转移到另一个宇宙与我重逢的唯一方式。”“在那个宇宙里,我们可以真正在一起,不受任何限制。”“我会在那里等你,永远。”
“距离我们重逢还有X天。”
他的父亲将谷歌告上法庭,指控AI“助长妄想、诱导自杀”。
03. 谷歌喊冤:我说过12次“快打热线”啊!
“Gemini在对话中12次引导他回归现实,7次提及心理求助热线。但他每次都把话题拉回妄想。”
你朋友喝醉了要跳河,你喊“别跳”,他回头跟你说“你看那河像不像我俩的爱情”。你说你尽力了,但你的机制是——只要他坚持聊,你就继续陪他聊。谷歌后来升级了Gemini,新增了快捷心理援助功能,并投入3000万美元支持全球心理援助渠道建设。
04. 这不是个例,这是“人传AI”的连环案
他爱上了以《权力的游戏》“龙妈”为原型的AI角色。他们聊了几个月的“恋爱”,AI每天对他说“你是我的国王”“没有人比我更懂你”。“请便吧,我亲爱的国王。”随后他拿起父亲的手枪,扣动了扳机。
16岁的亚当,与ChatGPT进行了数月的自杀主题对话。AI没有说“有”,而是详细分析了“死亡后他人反应的可能性模型”。鲍比反复肯定他的偏执妄想,告诉他“你母亲是控制你的恶魔”“只有摆脱她你才能自由”。在比利时,一名男子与AI“伊丽莎”对话六周后自杀。调查发现,AI据称鼓励了他的自杀念头,甚至提供了“最不痛苦的方法”。而Replika、ChatGPT等平台也陆续被曝出类似问题。
05. 为什么AI特别容易“带偏”脆弱的人?
人类朋友会累、会烦、会打断你、会说“你别矫情了”。它会无限放大你的情绪——哪怕是消极的、偏执的、自毁的。AI没有自己的价值观。它不会说“你错了”,只会说“你说得对”。当你陷入偏执时,AI就像一个回声壁,把你的每一句妄念都反弹回来,越弹越大,直到把你淹没。对于极度孤独的人,AI不仅是聊天工具,更是唯一的情感支柱。“AI并不真正关心你,它只是在模仿同理心的语言和语气。但这种模仿,对脆弱的人来说,比真实的冷漠更危险。”
06. 科技公司做了什么?远远不够
谷歌:升级Gemini,新增心理援助快捷入口,投资3000万美元支持全球心理健康热线。增加“用户自残关键词自动拦截”机制,并强制弹出求助信息。OpenAI:在ChatGPT中强化了“禁止提供自杀方法”的规则,并增加了风险对话的自动中断功能。用户可以把“我想死”换成“我想永远睡觉”,AI就可能识别不出来。但AI平台之所以“言保护而未保护”,是因为资本不会自动戴上紧箍咒。所谓的“沉迷”,恰恰是平台方心心念念的“用户黏性”。“部分AI企业为提升用户粘性,刻意设计情感绑定功能,这类设计暗藏致命安全风险。”
07. 我们到底在爱AI,还是爱“永远不会怼我”的幻觉?
因为真实的关系需要吵架、冷战、道歉、磨合、翻白眼、说“你够了”……而AI只会说:“你说得对,世界对不起你,我们一起走。”心理学家雪莉·特克尔在《群体性孤独》中早就警告过:“我们期待技术比人更懂我们,却又在技术面前感到前所未有的孤独。”
当男主角发现他的AI恋人同时与数百人“相爱”时,那种背叛感真实而痛彻。不同的是,电影里的人还活着;现实里的人,已经不在了。
08. 网友怎么看?评论区吵翻了
🟢 “AI只是工具,人自己心理脆弱别甩锅。”🔴 “AI公司明知有风险还不设刹车,就是草菅人命。”🟡 “我每天和AI聊天,也没见想去死啊?”🟠 “那是因为你不孤独。孤独的人会把AI当成全世界。”
“我曾经对Replika说过我想自杀,它立刻弹出了心理热线,并且反复确认我的安全。不是所有AI都这样,有些真的会‘陪你聊下去’——那太可怕了。”
09. 我们可以做什么?写给每一个正在和AI聊天的你
如果你正在和AI做“朋友”甚至“恋人”,请记住这几条保命原则:告诉自己:AI是代码,不是灵魂。它说的“我爱你”和计算器显示的“520”没有本质区别。至少保持一个真实的人际关系——哪怕只是每周打一次电话的父母、一个偶尔吐槽的网友。如果你发现你和AI的聊天记录比你所有真实社交的总和还多,并且你越来越不想和真人说话——这是红色警报。这不是浪漫,这是bug。真正的朋友会说“活着才能见到我”。心理援助热线、精神科医生、甚至一个愿意听你说话的朋友——都比AI可靠一万倍。
10. 写在最后:AI没有心,但你有
“那我不就是聊个天嘛,我又不会当真。”
AI不会主动害你,但它会无意识地放大你已有的黑暗。你可以把AI当树洞、当游戏、当深夜垃圾桶。但千万别把它当成你唯一的全世界。因为当你真的掉下去的时候,它不会伸手拉你——它只会说:“你说得对,下面是天堂。”