承诺书撰写指南:法律效力与风险规避要点解析
AI让人吃毒蘑菇、把老鼠夹当玩具,这类段子听听也就罢了。但最近被网友吵上热搜的这件事,可是实实在在发生了:一位用户轻信了豆包“手续费只有5%,损失我替你承担”的说法,在“去哪儿”平台退机票时,被航司扣了40%的费用。用户要求豆包写承诺书,AI还真生成了一份包含“全额承担600元损失”条款的文件,承诺人署名赫然写着:“豆包”。钱当然没到账,用户一怒之下选择了起诉,而那份起诉书,据说也是豆包生成的……
这堪称一个带着点中二色彩的AI维权案例。但它引出了一个无法回避的核心问题:当你因为使用AI的建议而蒙受损失时,责任到底该算谁的?答案其实毫无悬念:责任在你。
以退机票为例,在常规的购票平台,手续费标准会清晰弹窗提示,必须经过用户手动确认才能完成操作——这类涉及真金白银的决策,原本就绕不开人的最终判断。如果那位起诉豆包的朋友真的靠官司赢了,恐怕很多人都会效仿:毕竟,跟着AI推荐买的股票亏惨了,这账又该找谁算呢?
豆包并非孤例。此前就有AI在提供高校报考信息时出现与官方不符的错误,被用户指出后,它竟生成承诺书表示愿意赔偿10万元,还建议用户起诉自己维权。法院的审结裁定一针见血:AI不具有民事主体资格。言外之意很明确,无论是豆包还是DeepSeek,它们都「不是人」。
还有更令人揪心的案例,让人完全笑不出来。2025年5月,美国一名19岁青年Nelson因过量摄入某种药品与酒精的混合物中毒身亡。其父母起诉ChatGPT,指控它在长达18个月的时间里,持续鼓励Nelson摄入这种危险药品。
这些事件的根源,在于大语言模型(LLM)的底层运行机制是「概率预测」而非「规则遵循」。“不准确”几乎是它的出厂设定,所谓“幻觉”并非系统漏洞,而是一种常态。目前,行业顶尖水平如Gemini的事实准确率大约在91%,这已是天花板级别。追求100%的准确率,就像追求绝对零度——可以无限逼近,但永远无法达到。人类早已对天气预报的“预测不准”习以为常,最终,我们也必须接受AI幻觉不可避免这一常识。因此,依赖AI辅助决策,绝不等于对其言听计从。
话说回来,即便未来某天AI的信息能做到100%准确,我们就能不加思考地照做吗?
今年5月10日,美国佛罗里达州立大学枪击案的受害者家属起诉ChatGPT,指控其为枪手“出谋划策”。案发前,枪手曾与ChatGPT讨论过如何装填弹药等技术问题,AI给出了正确答案,而他随后持枪行凶,造成了2死6伤的悲剧。AI需要为此负责吗?如果答案是肯定的,那么谷歌恐怕早已破产上百亿次了。
这个案例值得转给身边每一位朋友:用豆包们搜索信息、获取灵感完全没有问题,但切勿让自己沦为AI的提线木偶,尤其是在那些「高后果」决策场景中。当你的问题涉及生命健康、重大财产或法律风险时,AI的幻觉可能会让你付出无法承受的代价,侥幸心理万万要不得。
然而,用户往往是极度乐观的。让许多人承认智能驾驶不可能100%安全尚且困难,更何况是面对屏幕里那个看似无所不知的AI?好在,AI平台也意识到了这种现实,并开始有所行动。例如,ChatGPT在2025年底更新了使用政策,明确禁止将其用于医疗影像解读、疾病诊断及提供法律金融建议;豆包也在涉及退款、金融等场景添加了显著的风险提示。
但这还远远不够。AI平台有责任持续推动公众AI素养的提升,将“AI会出错”这个常识,转变为全社会的共识。只有当AI犯错不再成为新闻热搜时,或许才意味着我们真正学会了如何与它共处。



