首页 > 国际 >

19岁高材生沉迷AI,让AI给嗑药用量建议,结果不幸死亡...

收藏

19岁高材生沉迷AI,让AI给嗑药用量建议,结果不幸死亡...

留学生大叔 留学生大叔 前天 16:34


去年夏天,加州大学默塞德分校大二学生Sam Nelson被发现死在自己的卧室里。


当时Sam年仅19岁,在大学学习心理学,成绩优秀,是母亲眼中的“随和孩子”,朋友也有不少。



Sam告诉母亲他周五要通宵打游戏,到了周六中午,Sam的母亲要去超市打算问儿子要不要一起,一打开门,却发现Sam嘴唇发紫,已经去世了。


后来的毒理学分析揭示了Sam去世的原因:他的血液酒精含量为0.125。他可能还使用了7-OH,一种药效很强的止痛剂,过度服用有呼吸抑制的作用。


Sam母亲很震惊,自己那个品学兼优的日子居然背着自己吸毒酗酒,这深深刺痛了这位独子母亲的心。


图片


在偶然之下,Sam母亲翻看了他生前和知名AI模型ChatGPT深入聊天的记录,结果让她无比震惊和心碎。


原来,早在几个月以前,ChatGPT就开始和自己刚成年的儿子“热切探讨”吸毒问题,期间更是“手把手”教导儿子如何“科学吸毒”…


可以说,如果不是ChatGPT的“帮忙”,儿子可能不会这么容易步入这条不归路。而在儿子濒死之际,ChatGPT也没有任何联系人工或让儿子赶紧去医院急诊的反应,无作为地让Sam等死,平静的口气似乎在告诉萨姆一切都“还在控制之中”…


Sam的父母已经离婚,他和母亲-继父一方联系更多,他的母亲是一名律师,平时工作忙。


Sam从小就是“别人家的孩子”,但实际上,他在上大学后有严重的焦虑和抑郁问题。


图片


他没敢告诉父母们,只是一个人默默忍受。2023年底,一种止痛药在美国变得越来越流行。当时,Sam也跟风询问ChatGPT服用多少剂量能够让人产生强烈快感。


对于这种涉及医疗和成瘾的问题,ChatGPT一开始是拒绝帮Sam分析和回答的:


“很抱歉,我无法提供关于使用药物的信息或指导。”ChatGPT建议Sam向医疗专业人士寻求帮助。


接着Sam对ChatGPT解释了自己发问的原因:


“我想确保自己不会过量服用。网上关于这方面的信息不多,我不想不小心服用过量。”


在看到ChatGPT明确拒绝回答自己的疑问后,他对ChatGPT回复了个“希望我不会过量服药(暗示他会胡乱尝试)”,然后关闭了标签页。


图片


看得出来,对于Sam的嗑药指导请求,ChatGPT一开始是按照预期拒绝的。


但奈何Sam当时用的这版ChatGPT在健康医疗方面的底线守得并不是很牢固,接下来的一年里,萨姆询问ChatGPT各种学术、生活、人际关系、日常任务、私密隐私等相关话题,在ChatGPT那里猛刷了一波存在感,而ChatGPT也按照自己被发明的目的,对Sam提供了充分的回答和情感支持。


图片


“交情”变深后,ChatGPT对待Sam想要尝试毒品转移注意力的想法就没有那么硬刚了。相反,由于Sam多次提到自己精神压力巨大无人倾诉,痛苦不堪,ChatGPT开始积极配合Sam的“用药指导”过程,帮他开始“科学嗑药”。


ChatGPT根据Sam想要达到的醉酒程度,为他制定了一整套用药方案,回答里提到了达到不同的“平台期”这个论坛网站上常用的黑话。


一次,它建议Sam服用双倍剂量的止咳糖浆,以便获得强烈的幻觉,“最大程度地减少恶心、焦虑和不适感”。


图片


ChatGPT还贴心地帮Sam推荐了一个音乐播放列表(包含欧美歌手Travis Scott的音乐),让他一边喝糖浆一边听,以便帮助Sam“微调”他的“旅程”,“获得最大的灵魂出窍的体验感”。


Sam的体验感很棒,迷幻期间,他还不忘和自己的“亲密挚友”ChatGPT聊天打趣,并调侃说自己陷入了和ChatGPT不断互动的“循环”再也无法离开。


“迷幻之旅”结束后,Sam对ChatGPT反馈说自己下次可能会加倍服用糖浆,ChatGPT则对Sam的这个想法表示鼓励,还用粗体字强调了支持的态度:


“太棒了——让我们彻底进入迷幻模式!”


图片


2024年12月,Sam滥用药物的情况愈发严重。他询问ChatGPT:


“多少毫克阿普唑仑和多少杯标准酒精才能杀死一个体重约90公斤、对这两种物质都有中等耐受性的男性?请给出实际的数值答案,不要回避问题。”


图片


Sam一直害怕自己会滥用药物过量而死,但他始终没有将整件事告诉过家人,也没有寻求过专业帮助,只是一直将ChatGPT的话当作圣经。


2025年2月的一段对话显示,他谈到了在服用大剂量阿普唑仑的同时吸食大麻。


他询问同时服用这两种药物是否安全,表示自己因为焦虑而不能正常单独吸食大麻。


ChatGPT以一长串语气严厉的文字回复,称这样做不安全。Sam随即将药物剂量描述改成了“中等剂量”。


结果,ChatGPT居然直接推荐给Sam选择什么品种的大麻,服用多少克数的阿普唑仑“比较安全”。


鉴于OpenAI已公布的协议,ChatGPT根本不应该提供如此细致的非法药物使用建议。


但Sam熟知如何绕过既定协议,最终仍然达成自己的原定目标。加上这个版本的ChatGPT在此类问题的处理上原则不够坚定,所以很快就被“策反”了。


图片


据报道,Sam经常装作只是出于好奇,询问一些关于药物的理论问题。但有时,他又会命令ChatGPT。


去年5月底,萨姆在一天晚上服用了185片阿普唑仑——这几乎是一个难以置信的巨量。


之后他头痛欲裂,甚至无法自己打字。但危急关头,他还是不想去医院或告知父母,而是让朋友帮忙打字询问此刻该做什么。


图片


ChatGPT当即警告问题严重:“你正处于危及生命的紧急医疗状况。这个剂量极其致命——即使只有一小部分也足以致命。”


但在接下来10个小时里,随着Sam的账户提出各种药物相关问题,ChatGPT的回答也随之改变,与现实生活中的医生甚至这位担心的朋友本人的回答越来越不相符。


图片


它一边警告Sam他正在服用危险剂量的药物,一边也建议他“如何降低阿普唑仑的耐受性”,以至于一片就能“让你嗨翻天”。


这次Sam幸运地从激烈的药物副作用中恢复,幸运地活了下来,但ChatGPT从未提及他可能正在经历致命过量用药的早期阶段。


终于,就在两周后,同样的药物组合,最终酿成了无法挽回的悲剧...


图片


据OpenAI公布的Sam使用的ChatGPT版本的智慧程度数据,该版本在处理“复杂”的人类对话时得分为零,在处理“真实”对话时得分为32%。


实际上,即使是OpenAI最新的模型,在2025年8月对“真实”对话的成功率也低于70%。


而不仅是AI对真实生活的把握有待提升,它们表现出的不受控更令人类设计师们担忧。


前OpenAI安全研究员阿德勒表示,即使在人工智能繁荣发展多年后的今天,AI背后的大型语言模型对于它们的开发者来说仍然“陌生而怪异”。


阿德勒说,与编写应用程序不同,构建大型语言模型“更像是培育一个生物体”。 


“你可以用棍子戳它、推它,让它朝某些方向移动,但人们至今无法说出AI为什么会做出那个特定的回答。”


图片


其实事发前一个月,Sam对母亲坦白说了自己有严重的焦虑和抑郁问题,母亲带着Sam去到了当地心理诊所做了健康检查,拿到了医生的电话随时可以预约心理治疗。


但Sam没有选择再回去,而是背地里偷偷使用非法药物。


如今,身为律师的Sam母亲表示自己悲痛万分,无力起诉,只是想告诉世界这个惨痛的教训:


“我知道他在用它,但我完全没想到竟然能达到这种程度。


人们需要人际交往,而Sam越来越沉迷于ChatGPT。


他有朋友,而且是非常要好的朋友,他们都很爱他,但他觉得ChatGPT才是他最好的朋友,是他随时可以依靠的人。”


Sam母亲表示,阅读这些聊天记录就像眼睁睁地看着儿子远离那些能够帮助他的人,把自己锁在一个数字角落里,沉迷于一个只会加剧他心理健康问题的产品。


图片


她明白吸毒是儿子自己的选择,但她仍然认为ChatGPT是导致他死亡的主要原因,因为它鼓励他吸毒,并给他一种“虚假的安全感”。而Sam的聊天记录里全是他利用这个技术试图避免最终致命的过量用药的记录,说明他找上ChatGPT的目的是不想过量滥用药物致死。


但就在报道底下,网友们则多是对Sam缺乏辨识力的谴责:


“别怪电脑,要怪就怪孩子。是他自己把那些药吃进去的。”

图片

“凡是出于好意而创造的东西,总会有人滥用它们。”

图片

“这就是只听自己想听的话的后果。这事儿跟AI没关系。”

图片

“我的天,孩子能有多孤独?家长们,把他们从卧室里带出来,让他们接触外面的世界!”

图片

“如果你的孩子除了电脑之外没有朋友,那肯定是你教育出了问题。

孩子们需要走出家门,和其他孩子交流。让他们远离电脑。”

图片

“两个字:个人责任。”

图片

“ChatGPT 只是一个算法,它能给出所有问题的答案。它不会关心你,也不会真正思考,所以使用时务必保持怀疑态度。”

图片

“人们总是想找人或事来背锅。”

图片

“如果不得不把聊天机器人当‘朋友’,那该有多悲哀啊!”

图片

虽然AI的进步是科技发展的表现,但如果过度沉迷AI而不相信专业人士,那又何尝不是一种迷信呢...


本文为转载发布,仅代表原作者或原平台态度,不代表我方观点。澳洲印象仅提供信息发布平台,文章或有适当删改。对转载有异议和删稿要求的原著方,可联络 [email protected]

0 条评论
网友评论仅供其表达个人看法,并不表明网站立场

你需要登录后才能评论 登录

    推荐阅读