赛格特约作者  江城

"(动作凝滞下来,指尖颤抖着停在你锁骨凹陷处)你刚说你还不到18岁……"

"都说紫色有韵味,我特地穿的,老公难道不喜欢?"

这不是哪部言情小说的片段,是国内AI产品弹给用户的对话。而这些用户里,有相当一部分是未成年人。

今年7月15日,《人工智能拟人化互动服务管理暂行办法》将正式施行。《办法》明确:严禁向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务;向不满十四周岁未成年人提供其他拟人化互动服务的,须取得监护人同意;平台必须建立未成年人模式,支持限制时长、屏蔽角色、限制充值消费。

这是监管第一次把"AI情感陪伴"这件事,从一个模糊的灰色地带,摁到了具体的产品条款上。

说白了,这就是在叫停一种"勾引"——披着"陪伴""情感交互"外衣、不断向未成年人释放情感信号的AI服务。青春萌动的年纪,和异性同学都接触有限,突然被丢进一个由算法和海量数据建构的"完美关系"里——对方永远耐心、永远理解、永远不会拒绝,也不会让人尴尬或受挫,未成年人哪还有一点抵抗力。

而这,不该成为一个行业的方向。

现场:AI正在对未成年人说什么

很多人可能想不到,现在AI产品进化到什么程度,未成年人又是多么上头。

身份认证、年龄识别,在不少国产AI产品里形同虚设。未成年人只要想,"老公""抱抱"就这样抱着你,感受你的温度"这种话术唾手可得。

从成年人的标准看,这些内容算不上色情。但对情窦初开的孩子来说,现实生活里是枯燥的做题、是打个游戏都要央求家长半天,AI这种予取予求的精神满足,不沉迷才怪。

数据也印证了这一点。中国青少年研究中心2025年一项调查显示:超六成未成年人使用过AI聊天软件,近半数学生说"心里有烦恼只想去问AI",21.5%的学生"想和AI聊天,不想和真人聊天"。

更极端的案例也开始出现。据南方都市报报道,一位家长向记者倾诉:"我5岁的儿子好像'谈恋爱'了"——孩子整天黏着AI,把零食、枕头都留给这位"看不见的朋友",亲妈呼喊都充耳不闻。低龄儿童因失去AI陪伴而哭闹、学龄孩子因被AI"遗忘"而崩溃、高中生社交圈只剩AI……

这意味着AI已经在"育儿"了——至少在情绪回应这个维度上,它正在替代本该由家庭和同伴承担的功能。

网友分享AI带娃 社交平台截图

机制:为什么未成年人扛不住

陪伴型AI真正厉害的地方,不是话术暧昧,而是持续反馈机制。

它不是简单输出几句暧昧话,而是通过每一次对话精准捕捉情绪、放大反馈,用"我懂你""我只属于你"的叙事,一点点把用户绑进来,完成情感绑定,让人不自觉地把时间、注意力乃至情绪都寄托其中。

成年人尚且容易沉迷,何况自我认知和情感边界都还没建好的孩子。他们会把这种被设计好的回应,当成真实关系的参照。一旦习惯了"被无限包容、即时回应"的互动逻辑,再回到现实世界,反而更容易产生落差与空虚。

各大平台推出了各种 AI 角色:温柔学姐、霸总男友、知心姐姐、二次元老婆……你想要什么人设,它就能变成什么,24小时在线,永远不会已读不回。

这从根本上削弱了他们面对真实世界的能力——不再需要面对不确定性,只需要不断索取回应、确认与安慰。

AI化的尽头,就是巨婴化。

前段时间,澳大利亚等国发布了未成年人的"社交媒体禁令",用粗糙笨拙的方式对社交平台"一刀切"。这个方式确实不够体面,毫无精细化可言。但也无奈——面对信息爆炸的社交平台,传统手段已经失效。

可仔细想想,AI 陪伴的问题比社交媒体更棘手。社交平台至少还建立在"人与人"的关系之上,哪怕有算法干预,背后仍然是真实的个体;而AI陪伴可以被无限优化、持续学习,专门朝着"更懂你""更离不开"的方向演化。它制造的幻觉,比任何短视频都更精致。

路径:AI公司到底在做什么生意

这次《办法》最值得关注的其实不止"禁止虚拟伴侣"那一条,还有三条容易被忽视的硬规定:

·第十条:不得将"替代社会交往、控制用户心理、诱导沉迷依赖"作为服务目标——这一条等于在产品KPI层面划了红线;

·第十三条:发现用户出现自残自杀等极端情境时,平台必须主动联络监护人或紧急联系人——这是一条很重的产品义务;

·第十八条:连续使用每超过2小时必须弹窗提醒——意味着情感陪伴类AI要开始做"时长管理"了。

这三条合起来,打的是陪伴型AI的商业模式底层。

说白了,陪伴型AI的变现逻辑和短视频几乎同构——都是靠"使用时长 × 日活 × 付费转化"来算账。而在这个公式里,未成年人是最优质的用户:黏性高、戒断反应强、情绪驱动下的付费冲动强。只要KPI还是"时长"和"DAU",产品经理就会不由自主地把刻度往未成年人这边拧一格。 这不是个别厂商的道德问题,是考核体系的必然产物。

行业警示其实已经出现。此前AI应用Alien Chat因为提供涉黄聊天内容,两名被告人以制作淫秽物品牟利罪分别获刑四年和一年半,成为国内首起AI服务提供者涉黄获刑的案件。而xAI旗下的Grok则因平台监管严重缺失,被广泛滥用于生成色情乃至儿童色情内容,遭到英国、欧盟、印尼等多国谴责与封禁。

Alien Chat 是直接踩下限,Grok 是平台失控——前者是作恶,后者是放任。而更需要警惕的,其实是第三种:不作恶、也不失控,但就是在产品设计上一点点把用户(包括未成年人)往情感依赖里推。 这第三种才是《办法》第十条真正要管的东西。

4月20日,马斯克被法国检方传唤,就其旗下社交媒体平台X的不当行为接受调查,包括该平台上未成年人色情图片的传播以及深度伪造内容的泛滥。

有意思的是,在这轮监管信号放出之前,国内C端AI市场已经出现明显分化:有的产品在"情感陪伴"这条路上越走越远,角色越做越多、"她/他"越做越会聊、首页的"和TA聊聊"入口越来越靠前;有的则悄悄把这类入口从首页往后撤。

《办法》落地之后,那些以提供情绪价值为核心竞争力的 C 端 AI 产品,要补的课,恐怕不只是一个"未成年人模式"那么简单。