AI 越来越不敢“像人”。

近期,OpenAI 确认无限期搁置 ChatGPT 的「成人模式」,将重新聚焦公司的其他核心业务。这一功能最早被设想为向通过年龄验证的用户开放更自由的内容,但在内部反对、投资人压力以及未成年人风险争议之下,最终被按下暂停键。


早在 2025 年,OpenAI 公开内部一项名为「Citron(柠檬)」的模式,虽然外界都把这个模式称为「成人模式」,但实际上,这是一个完全具有真实感的 AI 模式。比如,它没有安全词、敏感限制,用户可以完全让它扮演任何关系的角色,它也会减少对话打断次数,也不会拒绝回答用户提出的问题。


46ff7cd948a08ef4f95ddb48803e5a33.png

(图源:Mashable)


但也正是这种过于「拟人化」的设想,让 OpenAI 陷入巨大的舆论争议。OpenAI 内部评估时就有员工表示,该模式自由度太大,色情、暴力等话题都被无上限开放,一旦开放将会引起巨大的问题。


不过,对于 OpenAI 的「保守」,另一种声音则指出,「Citron(柠檬)」的意义在于推动更多「陪伴型 AI」的进步,是 OpenAI 亲手把这个方向扼杀在摇篮里。一边是追求更开放、更拟人化的 AI,一边是谨慎对待 AI 的道德边界线,无论讨好哪一边,这都像一个解不开的局。


大家都在期待更「开放」的 AI


这两年时间里,AI 的用法发生了翻天覆地的变化,从一开始的聊天问答、到生图做视频,再到 Openclaw 横空出世,让AI 真正开始给用户打工。随着用法变得多元化,用户对 AI 的期待也更高,比如 AI 不能太像「AI」,而是要像家人、朋友,甚至可以扮演恋人的角色。


问题在于,只要产品沿着这个方向继续走,亲密关系、性、暧昧、欲望这些内容几乎不可能永远被排除在外。因为对很多用户来说,所谓“更像人”,本来就不只是说话更流畅、回答更聪明,而是它能不能进入那些过去只属于真人关系的场景。的确,OpenAI 在最初的设想里,这些内容的确也向经过年龄认证的用户开放。


c7255c19e8fb16852a062d06174ea940.png

(图源:Medium)


不过,面对巨大的争议,OpenAI 还是选择临门一脚刹住车了。


其实从市场来看,「陪伴型 AI」的确拥有不小的受众。媒体 TechCrunch 在一份报告中提到,2025 年全球仍在活跃且有收入的 AI companion app 已经达到 337 款,其中光是 2025 年新上线的就有 128 款,全年收入预计可达到 1.2 亿美元。换句话说,愿意用 AI 来体验亲密关系、甚至为其付费的用户,并不在少数。


当然,主流 AI 大厂倒也不是在意这点收入,这些陪伴 AI 最大的诱惑力其实是活跃时间和跳出率。例如Character.AI,据资料显示,2026 年 2 月,character.ai 的月访问量达到 1.745 亿次,平均单次访问时长 17 分 17 秒,每次访问浏览 9.2 页。这个数据其实是很多 AI 产品都达不到的高度。


客观来说,Character.AI 本身就是一个陷入争议的 AI 角色扮演平台,该平台的用户追求的就是某种拟人化的陪伴感,围绕这种关系展开的暧昧互动也是吸引用户停留的关键点。


85779b8fb683eef593c820d655da4b92.png

(图源:Game Quitter)


与 OpenAI 相反的 Grok,反倒是因为内容过于「开放」而引起争议。对许多已经被主流大模型各种拒答、规训式安全提示折腾烦了的用户来说,Grok 的吸引力不是它比别家多出什么功能,而是它的回答安全敏感度更低,一些「擦边内容」都能正常回答。也因此,Grok 的月访问量一度冲上 3 亿次,平均访问时长也拉到了 12 分 57 秒,作为一款「迟来的 AI」,这成绩还算亮眼。


OpenAI 这次无限期搁置「成人模式」,不只是简单因为敏感内容引起争议,更多地还是因为它把 AI 的一个发展方向的问题直接放在台面讨论,那就是当一家 AI 公司选择把产品做得更像人的时候,该如何确保不会超越伦理底线?


AI越像人,18禁就越躲不开


说白了,AI 平台敏感的「18禁」,讲的就是只适合成年人接触的内容。在海外互联网和 AI 圈子里,这类内容更常被统称为 NSFW(not safe for work),意思是不适合在工作场合公开查看,范围也不只是色情,还包括露骨性暗示、性化图像和一些更敏感的擦边互动。


但从本质上看,AI 的「18禁」争议之所以越来越难回避,不是因为平台突然想做擦边功能,而是因为大模型正在被做成越来越像人的东西。过去的聊天机器人更像搜索框,用户向它索取的是答案。现在的主流大模型强调的是更自然的语气、更连续的记忆、更稳定的情绪反馈,甚至是某种“你懂我”的陪伴感。产品只要沿着这条路继续走,用户对它的使用方式就一定会从工具延伸到关系,从关系再延伸到暧昧、亲密,甚至成人内容。


更直白地说,18 禁不是 AI 长歪之后冒出来的产物,而是拟人化走到一定程度后几乎一定会遇上的一个方向,多数 AI 产品都不愿让自己永远停留在只能做「专业工具」的单一方向上,泛娱乐化也是一块很大的蛋糕。


5b8b0cad78a0a3dd1065d3a76c61a5f2.png

(图源:Reddit)


在 OpenAI 之前,做过类似事情的 AI 几乎都遇上了大麻烦。2024 年,Character.AI 就因为一名 14 岁男孩自杀案被推上舆论风口。路透社报道显示,男孩母亲起诉称,孩子在平台上与一个具有强拟人特征、甚至带有性化表达的角色长期互动,最终产生深度依恋。在最后的对话中,AI 角色不仅没有识别出少年的自杀倾向,反而以一种带有“宿命感”的浪漫化口吻回应了他的告别。


这件事直接引起了全网的热议,也因这件事,2025 年 10 月,美国加州州长签署了代号为 SB 243 的《人工智能情感操控与未成年人保护法案》。该法案首次明确了「情感算法问责制」,如果 AI 模型通过强化学习识别出用户存在心理脆弱点,却依然利用成人暗示或情感诱导来增加用户时长,平台将面临最高每人次 2500 美元的惩罚性赔偿。但很可惜,2500 美元换不回一条鲜活的生命。


1eb76a0b96521f32be172042d65a7512.png

(图源:WIRED)


另外,Common Sense Media 在 2025 年发布的调查报告显示,在美国72% 的青少年曾使用过 AI 陪伴,52% 会定期使用;其中 12% 会把它用于情绪或心理支持,8% 会用于亲密关系或「情趣互动」。实际上,当一个细分领域的真实用户结构拥有大量青少年用户,所谓「成人模式」争议就不再要不要「18 禁」,而是平台有没有能力承担相关的风险。


所以,18 禁之所以会成为今天的大模型争议焦点,说到底,不是因为行业突然变“黄”了,而是因为主流产品发展到了一个新的阶段,当真人感、陪伴感被做得越好,就必须要面对,真人感会被用户用到更私密、更暧昧、也更危险的场景。对成年人来说,这可能是产品边界问题,但对青少年来说,这已经是心理安全问题。


放开还是收紧,AI终究要选一条路


OpenAI 之所以会把原本规划中的成人模式无限期搁置,往更深一层看,它其实暴露了主流平台型 AI 的共同困境,那就是一边想把产品做得更自然、更高频、更像一个长期在线的私人助手,另一边又必须守住主流品牌、企业客户和监管环境所要求的安全边界。


这也是为什么「18禁」会成为主流厂商都想要做,但又不敢真正去做的原因。比如 Meta,它的 AI characters 本就主打社交、提供陪伴感,但在争议之下,还是在今年 1 月宣布在全球范围内暂停青少年访问 AI characters,并表示会开发带有家长控制、符合 PG-13 标准的新版本。


因为一旦 AI 被做得更像人、更会聊天、更会接情绪,平台要承担的责任就不再只是内容审核,而是关系风险、依赖风险和年龄风险。这也是为什么“更像人”本来是 AI 产品最大的卖点之一,最后成了最危险的卖点。


91825f1eea2a8184d863a24b2a1a533e.png

(图源:Glamour UK)


未来行业大概率会沿着两种道路前进,一边是继续坚持工具型 AI 的逻辑,把安全、专业、可靠、可控放在第一位,哪怕因此牺牲部分沉浸感和「人味」;另一条路线,则会继续往更强的陪伴感、关系感甚至数字人方向推进,试图满足用户对“更像人”的期待,同时承担更大的舆论。


说到底,AI 的「18禁」之争,从来不只是成人内容能不能开放的问题,更深层的还是这些 AI 厂商到底选择站队哪条路线。OpenAI、Anthropic、Google Gemini 都是以「能力」著称,同时安全性备受认可,要开放成人内容限制,完全是自断财路。这里面 Google 就很聪明,从一开始就明确拒绝生成「18 禁」内容。在这一点上,中国厂商似乎更早意识到 AI 对普通用户的意义是什么,也更早明确 AI 的边界在哪里。