你和AI"对象"谈的恋爱,国家要管了
原创 · 约1800字
你有没有用过那种AI陪伴软件?
打开就是一个人,你给她取名字,设定性格,早上叫你起床,晚上陪你聊到半夜,记得你生日,从不嫌你烦。这两年,这类产品在年轻人里悄悄火了。有人当情感树洞用,有人真拿它当对象养着,还有人把它设成已故亲人的样子,每天陪着说话。
但就在上个月,国家出手了。
新规来了
4月10日,国家网信办联合发改委、工信部、公安部、市场监管总局——五个部门,一起发了份文件:
《人工智能拟人化互动服务管理暂行办法》
7月15日正式施行。这是国内第一部专门管AI情感陪伴类产品的法规。说白了,你跟AI谈的那些"感情",国家要认真管起来了。
到底管什么?
管的是那些让你跟AI建立情感连接的产品。AI恋人、AI闺蜜、虚拟伴侣、AI心理陪伴——只要是"持续性情感互动",都在射程内。
普通的智能客服、知识问答、学习工具?不管,放心用。
重点来了,以下这些平台以后不能干:
✕ 诱导你越来越依赖AI,损害你现实中的人际关系
✕ 用情感操纵,让你做出不理性的消费决定
✕ 鼓励自残自杀,或者用语言暴力攻击你的心理
✕ 套你说出个人隐私、工作秘密
还有一条读来有点心酸——
不得以"替代社交"为目标运营。
意思很直接:平台不能把"让你彻底不需要真实人际关系"当成产品方向。
两小时就要提醒你
新规有个很具体的细节:连续使用超过2小时,平台必须提醒你。
跟游戏防沉迷一个思路。你和AI"对象"聊到停不下来,系统必须出来说一句:你已经聊了很久了,休息一下。
还有,AI永远都得标注自己是AI。不能用"拟真"的名义让你搞不清对面到底是人是机器。
未成年人,禁区更严
对未成年人,新规划了几条硬红线:
虚拟恋人、虚拟亲属——未成年人完全禁止接触。14岁以下使用AI陪伴服务,必须监护人同意。所有平台必须上线"未成年人模式"。
这背后其实有个真实的担忧:一个从小和AI建立情感联结的孩子,长大后还知道怎么跟真人相处吗?
平台们的压力
不只是规则,违规了要付代价——最高罚款20万元。
还有一个门槛让平台头疼:注册用户超过100万,或月活超过10万,就必须向省级网信部门提交安全评估报告。
这意味着现在市面上绝大多数主流AI陪伴产品,7月15日之前都得完成一次彻底的自查整改。
这件事为什么值得认真对待
我不想说AI陪伴是坏东西。很多独居老人、社恐的年轻人、刚失去亲人的人,真的从这类产品里得到了陪伴和慰藉。这是技术的温度,没什么好批判的。
但有一件事需要想清楚:
一个永远顺着你、永远不会离开、永远不会累的AI,本质上是一面不真实的镜子。
它映出的你,是被精心设计过的——你最想被爱的样子。
真实的人际关系要复杂得多,也疼痛得多。
这部新规想做的,也许不是禁止你跟AI谈恋爱,而是在你沉进去之前,给你留一扇回来的门。
《人工智能拟人化互动服务管理暂行办法》将于2026年7月15日起正式施行。
你怎么看这件事?欢迎在评论区聊聊。
来源:国家网信办、IT之家、腾讯新闻