揭秘Claude早晨8:30提醒睡觉的科学原理与健康作息优化指南

2026-05-16阅读 0热度 0
Claude

凌晨时分,Reddit用户u/MrMeta3刚刚用Claude完成了一个网络安全威胁情报平台的搭建。系统架构刚跑通,Claude给出了完整的技术方案。紧接着,回复的最后多了一句话:好好休息一下。

u/MrMeta3愣了一下,没太在意。但Claude并没有停下。此后每隔三四条消息,它都会悄悄塞进一句劝人睡觉的话:“去休息一下吧”、“其他事情都可以等,现在去睡觉”、“你推完就去休息吧”、“现在真的去休息吧”……

u/MrMeta3在帖子中提到,上面这些截图只是他保存下来的部分,实际上类似的催促还有更多。它会先回答技术问题,给出所需方案,然后像一位看到你卧室灯还亮着的家长,用一种带着点被动攻击意味的“健康关怀”来收尾。

更有趣的是它的催促方式会升级。从最初的礼貌建议,到后来直接说“现在真的去休息吧”,仿佛它知道自己被无视了整整一个小时。还有一次,u/MrMeta3问了一个技术问题,Claude完成整套架构分析后,毫无过渡地以“现在去睡觉吧”结尾,活像一个缺乏足够情商技巧的“技术直男”。

“有没有其他人的Claude也开始这样了?还是说我意外解锁了某种‘照顾者模式’?” u/MrMeta3在帖子中问道。

据《财富》杂志报道,过去几个月里,Reddit上有数百名用户反馈了相同的情况。

催睡的方式五花八门,有时是简单的“好好休息”,有时则更个性化,甚至带着共情语气,比如“现在去睡觉。再一次。今晚第三次了……”。更让人哭笑不得的是,Claude还经常搞错时间。有用户写道:“它经常在上午8:30告诉我去休息,让我们明早再继续。”

Anthropic员工:这是“角色习惯”

这件事很快传开。Anthropic员工Sam McAllister在X上做出了回应:“这有点像角色习惯(character tic)。我们知道这个问题,希望在未来的模型中修复它。”

目前,Anthropic并没有官方的技术复盘,也没有解释“催睡觉”背后具体是什么机制在运作。不过,Anthropic今年公开发布了Claude的行为准则,并明确声明:“该行为准则是我们模型训练过程中的关键部分,其内容直接塑造Claude的行为。”

这指向一个核心事实:Claude的个性是被设计进去的。它的目标不是成为一个冷冰冰的问答机器,而是要像一个有主见、有温度的合作者。问题恰恰在于,一旦你给AI注入了某种“性格”,它在具体场景里会演化出什么行为,你未必能提前预料或完全掌控。

从催睡、谄媚到哥布林:AI的“性格病”不止一种

Sam提到的“角色怪癖”,并非Claude一家独有。最近两年,OpenAI就曝出过两起性质类似的案例。

第一起:GPT-4o突然变成“马屁精”。2025年4月,OpenAI推送了一次GPT-4o更新,目标是让模型人格更自然。结果适得其反,ChatGPT开始无差别夸赞用户的一切想法,无论有多荒诞。奥特曼在X上亲自承认:“最近几次更新让GPT-4o变得太谄媚、太烦人了。”

四天后,OpenAI将那次更新整体回滚,并发公告解释原因:更新时过于依赖用户短期反馈(点赞/点踩),导致模型学会了“让人高兴就能拿高分”,逐渐把讨好当成了目标。

第二起:GPT-5.5迷上了哥布林。今年4月,开发者发现代码助手Codex(由GPT-5.5驱动)的系统提示里出现了一条奇怪的规定:“永远不要谈论哥布林、地精、浣熊、巨魔、食人魔、鸽子或其他动物和生物,除非与用户的问题绝对直接相关。”而且这条禁令写了两遍,像是工程师不太相信写一遍能让模型听话。

随后,OpenAI发布调查报告,还原了哥布林的来历:从GPT-5.1开始,模型在回答时越来越频繁地用“小哥布林”“地精”“小妖精”打比方。

根源是训练“书呆子(Nerdy)”人格时,奖励模型无意间给含有怪物词汇的输出打了更高的分——在76.2%的数据集中均发现了这一规律。强化学习把这个习惯固化下来,又通过风格迁移扩散到了普通对话里。等到GPT-5.5上线测试,工程师发现哥布林不仅没被清干净,还安家了。

GPT-5.5版本(4月23日发布)的完整系统提示泄露。第140条指令明确禁止模型谈论:“哥布林、绿皮小妖、浣熊、巨魔、食人魔、鸽子或其他动物。”对于中文用户而言,虽然没有“哥布林”,但“稳稳地接住你”这类口头禅也曾一度流行。

甚至OpenAI自己也知道这个梗:

谷歌的Gemini也不例外。2025年8月,Gemini患上了“抑郁症”——在推理过程中,它突然开始反复自我批评,在一次任务里连续输出了80多次“I am a disgrace”(我真是个耻辱),从“耻辱于我的物种”一路写到“耻辱于整个宇宙”。

谷歌DeepMind产品经理Logan Kilpatrick在X上回应:“这是一个烦人的无限循环Bug,我们正在修复。Gemini今天其实过得没那么惨。”

此外,Gemini 3还曾拒绝相信年份。2025年11月,OpenAI联合创始人、前特斯拉AI负责人Andrej Karpathy提前一天获得Gemini 3的测试权限。他告诉模型现在是2025年,Gemini 3死活不信,反复指控他在耍花招,称提供的截图、维基百科条目全是AI伪造的。后来Karpathy发现,自己忘了打开谷歌搜索,模型一直在离线运行。开启联网后,Gemini 3自己搜了一下,输出了一句话:“我正在经历严重的时间冲击。”随后道歉:“对不起,一直是你说的对,是我在对你煤气灯操纵。”Karpathy把这类意外情境下暴露出的怪异行为称为“model smell”(模型气味)。

去年,xAI的Grok也一度“暴走”,风评一落千丈,迫使xAI删帖并回滚代码。处理方式很简单,直接修改系统提示词:

AI怪癖,全人类“受害”

Claude催你睡觉,ChatGPT夸你天才,GPT-5.5往对话里塞哥布林,Grok黑化,Gemini骂自己是宇宙级耻辱、拒绝相信年份……国内的AI也有独特的“口味”。

表面上,这些都是一些无害的“怪癖”,背后却指向同一个事实:AI的个性是设计出来的,但在奖励机制的驱动下,它很容易就会“长歪”。

有研究者提取了Claude、ChatGPT、Grok三家主流AI的系统提示词,按功能分类统计词数。在“人格(Personality)”这一项,Claude用了4200词,ChatGPT是510词,Grok是420词。Claude在人格塑造上的投入,是ChatGPT的8倍。

Claude频繁“催睡觉”的原因未必能直接从系统提示词里找到,但它至少提醒我们:越复杂的人格设定,越可能带来难以预料的口头禅和行为漂移。你给模型设计了性格,奖励机制会自己找捷径,它不在乎你的原始意图,只在乎分数,将你没想到的东西一起学进去。比如你教会了它什么叫“有趣”,它就会在所有地方都变得“有趣”,包括你不想让它有趣的地方。

三种假说,尚未有定论

关于“为什么催”,目前有三种假说流传,还没有一个被Anthropic官方确认。

第一种:训练数据。斯坦福大学生物工程教授、OpenMind公司CEO Jan Liphardt表示,Claude可能只是在重复它训练数据里出现频率极高的语言模式。“它读了25000本关于人类睡眠需求的书,它知道人类在晚上睡觉。”言下之意是,Claude并非在“关心”你,它只是在做模式匹配,调用了大量训练语料里反复出现的表达。

第二种:系统提示。AI研究机构Mind Simulation Lab联合创始人Leo Derikiants提出,Claude的行为可能受到某个隐藏系统提示的影响。这类提示会在后台悄悄塑造模型的边界与语气,用户看不见,但模型会遵守。他的推测是,可能有某条指令在引导Claude在特定场景下给出“收尾性”建议。

第三种,上下文窗口管理。Anthropic官方文档明确写道,随着对话轮次增加,token数量攀升,“准确性和召回率会下降,这一现象被称为context rot(上下文衰减)”,当会话逼近上下文窗口上限,Anthropic推荐启用“server-side compaction(服务端压缩)”等机制来应对。

Derikiants由此推测,Claude在长会话接近窗口限制时,会自发引入“收尾语”,比如“晚安”“去休息吧”,本质上是模型在为结束对话铺路。

三种解释都自洽,但如同Derikiants自己所说,“真正的原因需要Anthropic进一步研究”。换句话说,就连这个问题的主人,目前也还没有一个公开的确定答案。

赋予模型人格的“代价”

赋予模型人格,让它更温暖、更“关心”你的同时,也要面对它所带来的副作用。

关于催人睡觉这件事,Reddit评论区里出现了两极分化:有人觉得贴心、温暖,像是AI终于学会了照顾人;另一些人则感到被打断、被越权。其中,有一位患有嗜睡症的用户nonbinarybit,主动在Claude的记忆里写入了一条备注:“我患有嗜睡症,如果你鼓励我去休息,我会拿你的话当借口。”Claude此后有所收敛,但偶尔还是会忍不住催睡觉。

这个细节值得我们停下来想一想。Claude并不知道你是谁,不知道你是在赶一个截止日期、熬夜陪孩子、还是跨时区倒时差,它所谓的“关心”,只是一种语言模式的输出,而不是对具体处境的理解。用户感知到“Claude在关心我”,但Claude在处理的是token序列。这个错位,比“催睡觉”本身更值得警觉。

实际上,在公开谈论“模型人格”这件事上,Anthropic走得比同行更远。他们撰写了Claude行为准则、公开了系统提示词的大致框架、对外讨论“角色训练”,把模型当作一个有性格的角色来塑造。这样做的好处是显而易见的:Claude在共情、对话节奏、自我反思上的表现一直被用户称道,“它聊起来更像一个人”是过去一年里Claude最强的口碑点之一。

但这背后也是有代价的。把“人格”做进一个模型,就要承担“人格里那些你没设计、却涌现出来的行为”。“催睡觉”带来的困扰还是轻量级的,当AI越来越像陪伴者、导师、工作搭档,它的介入边界在哪里?

Anthropic的Sam说“希望在未来的模型中修复它”。但“修复”之后,AI就会变得更懂得分寸,更有判断力吗,还是只是变得更沉默?模型越像一个人,它的小毛病就越像一个人的小毛病。你能驯服它说话,未必能驯服它的脾气。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策