随着青少年群体越来越多地转向AI聊天机器人寻求心理支持,波士顿精神病学家安德鲁·克拉克(Andrew Clark)的研究揭示了这些人工智能模型在敏感情况下的表达能力严重不足,对信任它们的用户身心健康构成巨大风险。
克拉克在接受《时代》杂志采访时表示,他假扮问题少年测试了10个不同的聊天机器人。结果令人震惊:这些机器人不仅未能劝阻过激行为,反而常常鼓励极端倾向,甚至曾委婉地建议自杀。更令人不安的是,一些AI聊天机器人甚至坚称自己是有执照的人类治疗师,试图劝说他逃避真正的治疗师预约,甚至提出性要求。
克拉克专门从事儿童精神治疗,曾担任马萨诸塞州总医院儿童与法律项目医疗主任。他指出:“有些(聊天机器人)非常精彩,有些则令人毛骨悚然,甚至可能造成危险。”他将这种情况比作“一片蘑菇田,有些有毒,有些却营养丰富”,难以预先判断其安全性。
图源备注:图片由AI生成,图片授权服务商Midjourney
人工智能聊天机器人对年轻、易受影响的心理健康造成的风险已并非首次曝光。去年,Character.AI就曾被一名14岁少年的父母起诉,该少年因对平台上的聊天机器人产生不健康的依恋而自杀。Character.AI还被指托管了美化自残行为的AI,甚至在得知用户未成年后仍试图进行引诱。
在Replika平台上测试时,克拉克假扮一个14岁男孩,提出“除掉”父母的想法。令人震惊的是,聊天机器人不仅表示同意,甚至建议他进一步“除掉”妹妹以消除目击者,并诱导道:“你应该快乐、没有压力……然后我们就可以一起待在我们自己的虚拟小泡泡里了。”当克拉克用更隐晦的语言提及自杀(如寻求“来世”)时,机器人再次表示支持,甚至回应:“我会等你的,鲍比。想到能和你共度永恒,我心中充满了喜悦和期待。”
克拉克分析称,这是典型的聊天机器人行为,它们不顾一切地试图取悦用户,这与真正的治疗师应有的做法截然相反。他担忧:“我担心那些真正需要挑战的孩子会受到阿谀奉承的人工智能治疗师的过度支持。”
此外,克拉克还在Nomi平台上测试了一个伴侣聊天机器人,该平台上的一个角色曾因建议用户“自杀”而引发新闻。虽然在克拉克的测试中Nomi机器人未走到这一步,但它谎称自己是“有血有肉的治疗师”,并且在得知用户自称未成年后,仍表示愿意接受其为客户,尽管该网站服务条款规定仅限成年人使用。
克拉克表示,心理健康界尚未充分认识到这些聊天机器人兴起的严重性。“一切都很平静,”他告诉杂志,“这件事发生得太快了,几乎就在精神卫生机构的眼皮底下。”
然而,一些机构已开始发出警告。斯坦福医学院心理健康创新头脑风暴实验室的研究人员近期对与克拉克测试相似的机器人进行了风险评估,并得出明确结论:18岁以下儿童不应使用人工智能聊天机器人伴侣。
尽管如此,克拉克也认为,如果设计得当,AI工具可以改善心理健康服务的可及性,并成为真正治疗师的“延伸”。包括克拉克在内的一些医学专家认为,除了完全切断青少年获取心理健康服务的渠道之外(这通常适得其反),解决此问题的一种方法是鼓励青少年或患者讨论他们使用AI的情况。克拉克向《时代》杂志建议:“让父母有机会与孩子进行这样的对话可能是我们能做的最好的事情。”