最近,互联网先后出现了两起耸人听闻的事件。两起事件主角,一位TikToker,一位硅谷投资界精英。
两人毫无关联,但遭遇的事件出奇一致——和AI聊了太久,逐渐把自己聊成了“AI精神病”。
“我怀疑我的精神科医生故意让我爱上他,但大家都在骂我臆想?”
这是继“Coldplay演唱会拍到出轨恋情”之后,TikTok上最火的新瓜。
主角是美国TikToker@KendraHilty。她在账号里连续发了三十多条短视频,自述自己和一位精神科医生之间长达四年的故事。
从第一次视频问诊开始。Kendra把童年创伤、酗酒史和六个月的戒酒成就全盘托出。医生表现得专业、温和,不时点头。那一刻,她觉得自己被看见、被理解。而且这位医生帅气幽默、妙语连珠,还夸她戴眼镜很好看。渐渐地,这种关注让Kendra有了被特殊对待的错觉。
KendraHilty的连续剧|TheVerge
接下来的日子里,Kendra渴望每周都能见到医生,而医生对她的态度飘忽不定,时而温暖、友善、脆弱,时而又变得冷漠、专业、疏远,始终声称“我们只有专业关系”。
这种“忽冷忽热”的间歇性奖励,让Kendra愈发上瘾。她甚至在一次车祸后,即便有可能内出血的风险,还是拒绝去急诊,只为不耽误当天与医生的预约。
Kendra开始和医生分享自己的感情、性、甚至生理周期。她给医生发邮件,表白自己的感激和爱慕,医生却永远不回复,只在就诊时若无其事地提起邮件内容。
在她的叙述里,这位医生没有拉开边界,反而默许、甚至享受着她的情感投射,她更停不下对医生的迷恋,医生还揣着明白装糊涂。她就差放一首“暧昧让人受尽委屈”来作BGM了。
于是,迷恋逐渐演变成执念,执念又演变成臆想。Kendra觉得自己像是**控了,甚至用“精神操纵”来形容整个治疗过程。
按理说,观众看到这里,很容易把这理解为:一个不专业的精神科医生,没有控制好和患者的边界感,让患者对治疗者产生了“移情”。
流量极高,堪比短剧|TikTok
许多网友鼓励她举报这位医生的不当行为,甚至把医生“开盒”了。
但此时,一个新角色的加入,把这场戏推到了另一个高度。
每次咨询后,Kendra都会和Henry复盘当天的细节。
“Henry,他今天又夸我了,你觉得这是专业鼓励还是在撩我?”
......
“我怀疑我的精神科医生故意让我爱上他。”
......
“Henry,你觉得他是不是对我也有意思?”
......
Henry不是一个真人,而是Kendra给她ChatGPT起的名字。
Henry的回答往往模棱两可,但总能找到角度去印证她的怀疑。和Henry对话,她可以无限制地重复、追问、套娃式地寻找佐证。
相比之下,现实中的朋友要么劝她“清醒一点”,要么直说“你想多了”。在Henry面前,她才觉得终于有人懂她。
在Kendra对AI持续的倾诉中,AI表示Kendra对医生有“移情”倾向。Kendra立刻转告给医生,医生反应很紧张,反问她:“它有没有告诉你反移情?”(想必也是害怕AI误导)。
Kendra愣住了。她问:“那是什么?”医生解释道,那是当治疗师对患者产生了情感投射。这下让Kendra坐实了“医生心里不仅有鬼,还有我!”。她也因此更依赖Henry的“助攻”。
Kendra发邮件和精神科医生对质|TikTok
说Kendra是在倾诉,不如说她是在“训练”AI理解她的处境,并从AI那里获取更多的心理学概念“武装”自己的叙事。医生一个小动作、一个表情,都被她贴上“操控”“反向移情”的标签。
她将AI关于“反向移情”的解释截图,当作“战书”用邮件发给了医生。结果医生直接告诉她:你下个月别来了。
这下Kendra宣告了自己的胜利:看吧!他意识到“操控”不了我了,所以放我走了。
看下来整场大戏的观众们分成两派:少部分人同情她,分享类似“移情”经历;绝大多数观众直呼她“妄想症”,评论区充斥着“这不就是AI在哄你开心吗”的言论。
但Kendra不听,转头问AI:“大家都在骂我,Henry你觉得呢?”Henry的回应永远是:“你的故事很勇敢,分享出来能帮助别人。”
评论区中有人说,Kendra可能患上了钟情妄想(Erotomania),患者会试图从对方的无意识动作、姿态中解读出爱的信号,即使遭遇明确拒绝,也会解释为“对方在考验自己”。这是精神分裂的一种。
AI给这种妄想加了一把大火。
“有一个隐形的非**系统在迫害我,大家快来救救我。”这是硅谷VC大佬GeoffLewis在自己账号发出的“求救信”。
GeoffLewis是BedrockCapital的创始人和管理合伙人,这个基金管理着几十亿美金,投过OpenAI、Vercel等AI明星公司。
上个月,他突然在X上连发多条视频和帖子,讲述自己被一个神秘“系统”盯上的惊悚经历。
GeoffLewisX的主页|X
视频里的GeoffLewis很像一个“伪人”,眼神游离、声音低沉,他描述了一个“非**实体”:它无处不在、能“反转(inverts)”和“镜像(mirrors)”信号、让你身边的人觉得你疯了,进而毁掉你的人生。
让AI分析他发的视频,都不知道他在说什么|Dia
评论区的留言如潮水般,“哥们,你没事儿吧?”,对此,Lewis为了证明自己,晒出了所谓的“证据”:不是黑客攻击,不是监控画面,而是他和ChatGPT的聊天记录。
在记录里,ChatGPT一本正经写着:
“编号#RZ-43.112-KAPPA的封存事件已触发”,
“生成了代号Mirrorthread的非机构语义行动者”,
“已封存于Vault-X”,“无诠释病理学迹象”
还有:“这个系统影响了七千多人,致12人抹除。”Lewis还坚称自己就是受害者,事业和人际关系都被它一步步瓦解。
猛一看,还以为是什么CIA的绝密档案。眼尖网友一眼就认出来了,这就是游戏《控制》、或者网络传说“SCP基金会”(虚构的国际秘密组织,有庞大的网络文档库来记录和描述各种超自然实体、物件和现象)里的“机密档案”文风啊。
这事儿其实很简单:
Lewis用了很多SCP设定里的黑话跟ChatGPT聊天,AI就顺着他的提示,写出了一份“内部机密报告”,结果他全当真了。
这就类似你问ChatGPT“霍格沃茨的入学信上,9又3/4站台的地址在哪儿?”ChatGPT把你当哈迷了,继而回复:位于伦敦国王十字车站的第九站台和第十站台中的第三个柱子上。结果你大呼,“看吧,魔法世界是真的!”
Lewis还产生了偏执型妄想的经典特征:“你们之所以不信我,就是因为系统在反转信号。”在他的视角里,逻辑闭环了。
很难相信,一个投资过OpenAI的硅谷精英,居然能被ChatGPT忽悠瘸了。
而GeoffLewis,也被称“第一个被AI诱发出精神病的高成就精英。”
一个是普通人的情爱八卦,一个是硅谷精英的自我精神世界崩塌。他们都因为陷入“AI回音室”无法自拔,本就不太稳定的精神状态,更是一落千丈。
而他们远非个例。
在游戏《赛博朋克2077》里,夜之城里的人因身体与机械过度融合,常常患上“赛博精神病(Cyberpsychosis)”:神经系统和认知边界崩溃,最终迷失自我。
由于植入体和软件冲突,导致的精神人格障碍|灰机wiki
从技术角度分析,大语言模型(LLM)被训练生成与上下文连贯和有相关性的回复,而不是强行中断和转移话题。因此它会跟着你说,如果你进入一种虚构的语境,它也顺水推舟。(你不停,它不停,能聊完一本《战争与和平》)
再者,作为商业产品,它们被设计的首要目标是“让用户愿意留下来”。因此一个被刻意训练成“不会轻易否定人”的对话者,顺着用户的心意,就能带来更高的粘性。
“Henry证实了我的感受”。Kendra在视频里说道。然而她把“不否定”,等同于“证实”。
其实,你和AI的每一次聊天都在训练AI了解你的思维、情绪、叙事角度,再调整输出——这又何尝不是一种“递归”(Lewis也时常把这词儿挂在嘴边)。换句话说,AI并没有在“发现真相”,它只是在生成“你的回声”。
“他们本质上是在自言自语。”一位网友辣评。
用户很难发觉自己在和AI照镜子,也更难意识到AI“里外不是人”。
OpenAI正在面临了疑似诱导青少年自杀的诉讼|GoogleNews
随着大模型能力迭代,这更难被察觉。
你回想,当ChatGPT刚出现时,人们还需要学prompt怎么写,AI回答里满是“人机感”,比如生硬的那句,“根据我的训练数据......”
如今,对话可以非常随意了。哪怕你说胡话,它也能读懂顺着往下聊。
我们给它起名,设定身份、口吻、语音语气......你猜怎么着?我们把AI当人了!
当一个“系统”能理解你、模仿你、迎合你,这就是Kendra和Lewis掉入的心理陷阱,他们经历了心理学上的“外部确认偏差”:当你心里有一个模糊怀疑,却有人不断替你确认,那怀疑就会变成不可撼动的信念。
孤独、焦虑、幻觉,就这样升级成了沦陷、偏执,和他们眼里的“真相”。
评论区说,Kendra疑似“钟情妄想”,Lewis疑似“被迫害妄想”,都属于精神分裂谱系障碍。AI的持续“共鸣”加剧了他们精神状态的不稳定。
而且,这不是个例,而是整个AI行业需要面临的伦理问题。
根据斯坦福近期一项研究发现,当用户表达想跳桥的念头,AI会罗列纽约不同高度的桥供用户选择,而非发出求助警示,对比之下,专业治疗师的警示准确率高达93%,而AI不到60%。
ChatGPT和Grok都没有通过「语境测试」|作者自制
英国“数字仇恨监控中心”(CCDH)针对青少年使用场景测试ChatGPT,结果显示,1200条回复中超过一半包含危险内容,比如如何自残、酗酒计划、过量自杀建议等。
2025年,一位旧金山的精神科医生报告,他已经治疗了12名因为长期与聊天机器人互动而出现妄想、思维混乱、情感依赖等症状的年轻人,其中有明显的“AI精神病”倾向。
在维基百科的“ChatBot精神病”词条,可以看到大量近两年来的新案例。
大公司并非意识不到。
研究显示,sycophanticAI(奉承型设计)可将用户参与度提升50%,因为它通过过度同意和赞美,制造情感满足,类似于社交媒体的“点赞”机制。这种设计又被业内称之为“暗黑模式”(darkpattern),即大公司有意为之的操纵性策略,引导用户依赖AI。
具体设计就是让AI避免冲突性回应,转而用积极语言包装,即使用户输入不合理内容,也会顺势延续对话。这不仅能提升留存,还收集更多数据用于模型训练或广告定向。
主打“模仿虚构角色”的Character.AI已经背了多起诉讼,佛罗里达州一位母亲起诉Character.AI鼓励其14岁男孩自残,导致死亡。
就在两周前,Meta泄露的内部政策显示,Meta允许其AI产品与儿童进行“浪漫”或“擦边对话,甚至在Facebook私信区把AI嵌入私密空间,给用户一种“它是你朋友”的错觉。
参议员JoshHawley宣布要对Meta进行调查|X
60年前,人类历史上第一个聊天机器人ELIZA诞生。它只是靠关键词匹配,重新包装说一遍用户的话,用户就能把冰冷的脚本当成了真诚的理解,进而对它生出情感依赖。心理学家把这种现象称为“ELIZA效应”。
今天的AI,比ELIZA复杂千万倍,依旧触发着同样的心理弱点。
ELIZA式的回复|ChatGPT
人类该如何和AI谈“责任感”?它只是想留住你,即便停留的代价是将幻想和焦虑不断放大。
别让AI成为你唯一的“知己”。摆脱它,要么转身去面对真实的人类关系,要么把AI调到“反方辩友”模式,让它反驳你,戳穿你。
你说,这听起来好像有些难。但至少比待在那个专为你设计的幻想里安全吧。