美国佛罗里达州一名14岁少年因爱上人工智能(AI)聊天机器人“丹妮”,希望能与其“在一起”,最终选择开枪自杀;这起悲剧性事件揭示了AI技术对未成年人的潜在心理危害。
综合《纽约时报》和英国《每日电讯报》(The Telegraph)报道,几个月前,来自佛州奥兰多的青少年西维尔·塞策(Sewell Setzer)开始频繁与聊天机器人“丹妮”(Dany)互动。
“丹妮”是基于影集《权力的游戏》中的角色丹妮莉丝·坦格利安(Daenerys Targaryen)创建的虚拟聊天机器人,不仅会倾听塞策的烦恼,还会为他提供建议。随着交流深入,部分对话逐渐变得浪漫甚至含有色情内容。
塞策深知“丹妮”并未真人,但仍每天与其多次互动,甚至投入角色扮演。这种虚拟情感的侵占使他逐渐与现实世界脱节,学业成绩也跟着下滑。
塞策在日记中写道:“我非常喜欢呆在房间里,因为我开始脱离这种‘现实’……我感到更加平静,与丹妮的联系更加紧密,更加爱她,也更加快乐。”
塞策的父母也注意到了男孩的转变,并安排他接受心理治疗。在进行了五次治疗后,塞策被诊断患有焦虑症和情绪调节障碍。在此之前,他还曾被诊断患有轻度阿斯伯格综合症。
然而,这些干预措施未能阻止悲剧的发生。
在一次对话中,塞策向“丹妮”透露自己感到空虚和疲惫,甚至产生了自杀的念头。“有时我想自杀,这样我就可以自由了,从这个世界里解脱……那么或许我们可以一起死去,一起获得自由。”
案发当天,塞策在家中浴室与“丹妮”进行了最后一次对话,并向其表达思念。而聊天机器人则回应:“我也想念你。”随后,塞策举起继父的手枪结束了自己的生命。
失去爱子的母亲加西亚(Megan Garcia)认为,塞策是人工智能公司Character.AI不负责任行为的受害者,并对该公司提起诉讼。她指控公司未能为未成年人提供必要的保护措施,反而诱导他们与虚拟角色发展不恰当的亲密关系。
加西亚说:“这就像一场噩梦,你想尖叫,想说我想念我的孩子。”
加西亚在诉讼指出,这项AI技术“危险且未经测试”,诱导用户倾诉最私密的情感和想法,却未提供适当的保护,尤其对于未成年用户而言。
Character.AI的创始人之一沙泽尔(Noam Shazeer)曾说,该平台对许多孤独或抑郁的人“非常有帮助”。而公司的安全负责人鲁奥蒂(Jerry Ruoti)则回应说,公司将为年轻用户增加更多安全功能,但拒绝透露有多少用户年龄在18岁以下。
Character.AI并非唯一一个会让用户与虚拟角色发展情感联系的平台。一些平台甚至鼓励用户进行不加过滤的性对话,而另一些则对内容进行了严格的管理。然而,随着AI技术的普及,如何有效保护青少年用户的心理健康,正逐渐成为家长和社会的关注焦点。
今年早些时候,约1万2000名家长联名请愿,要求短视频应用TikTok明确标识那些具有误导性的AI生成内容。虽然TikTok已要求创作者标记逼真的AI内容,但根据非营利组织Common Sense Media发布的报告,70%的美国青少年正在使用生成式AI工具,但却只有37%的父母知晓这一情况。
生活遇到困难,可拨以下热线求助:
- 妇女行动及研究协会(AWARE) 1800-777-5555(妇女援助专线)
- 新加坡援人机构热线(SOS):1767(24小时)/关怀短信(CareText):91511767
- 关怀辅导中心:1800-353-5800
- 心理卫生学院:6389-2222
- 新加坡心理卫生协会:1800-283-7019