4月7日凌晨,中国湖南省张家界市永定区政府发布通报称,4月4日13时30分许,四名外省人员(三男一女)在天门山跳崖,三名男子已身亡,女子跳崖前因服毒,经紧急送医抢救无效死亡,四人均系自杀,排除刑事案件及其他因素。目前三名跳崖者遗体已全部找到,相关部门也已介入调查。四人分别来自福建、河北、河南和四川,年龄从22岁到33岁不等。其中一人跳崖前已服毒,当然也不排除其他人也服毒,说明他们去意已决,而且要让自己的去世公之于众。
四人分别来自四个省份,但又一同前往张家界天门山同时自杀,说明在网络中有联系,是“攻守同盟”。当地警方已向家属证实,这四名死者通过群聊方式沟通策划,其中一个是带头人。四人在跳崖前,从同一个本子上撕下纸,并在上面写下遗言,遗书内容很简单,只有一句话,“本人某某某,具有民事行为能力,本人是自杀,与其他人无关。”遗书是在4月2日写下的。其中来自四川的女性自杀者喜欢玩游戏“狼人杀”,这是一群玩家同时玩的游戏,其中有一人或多人是狼人身份,每晚会杀死一名玩家。玩家要想办法找出狼人,在白天通过投票杀死狼人;沉迷于玩狼人杀的人,在心理上或很难信任别人。
这个事件也提出一个信息时代的高难度挑战,如何干预这样的集体和相约自杀。
雁过留声,人过留影。在网络时代,每个人都可能在网络中留下自己的踪迹和想法,就连一个人浏览过的网站、点击过什么内容、购买什么东西等,都会成为其心理踪迹的反映。
而且,今天的年轻人上网是一种必然和必需的生活方式,除了网购、交友外,还会在网上留下大量留言、评论、吐露心声。因为在网上没有谁会认识自己,这就解除了他们的心理负担,敢于吐露真实的想法。网上的群体游戏等也是人们表露真实想法的一种环境。因此,自杀者在网络中都会露出蛛丝马迹。在网络和人工智能(AI)时代,是否可以追踪到这样的草蛇灰线进行干预呢?事实上,AI是可以在这方面大有作为的。
早在2012年,中国科学院行为科学重点实验室的互联网心理危机(自杀)监测预警中心,就在研发一款人工智能软件,用于干预自杀,之后投入使用。具体做法是,在特定的网络空间,如微博和微博下的留言人群中,搜集其中的言语,通过分析,检索出有自杀意念趋向的人,用“心理地图PsyMap”的账户自动给对方发送私信,精确投放援助信息。
在网络时代前,精神健康研究人员、亲朋好友要通过实地和周边环境中的人发出的信息,才能发现一些自杀者的蛛丝马迹。如有些人会说“活着没啥意思”“我没有希望了”“如果我不在人世了,情况可能会好些,你会参加我的葬礼吗”等,这时才会引起人们注意并采取干预措施。
但是,网络时代已经大不相同,只要在网络中的特定空间,都可以发现这类蛛丝马迹,并可以利用AI分析,下一步甚至可以让ChatGPT参与进来,以干预想要自杀者。这种技术基础便是,通过机器学习算法来预测自杀倾向,进而干预。
在网络中,人们的自杀倾向比在现实中更容易表达。根据调查,被称为“自杀相关词典”中有295个词或短语涉及自杀,如“厌倦了生活”“下辈子”“催眠药”“吊死我自己”等。因此,可以使用决策树、随机森林、逻辑回归等算法,进行10倍交叉验证来训练AI识别模型。
机器学习当然要根据现实调查情况。中科院研究团队根据个体自杀可能性量表得分情况,将982名受访者分为446名高自杀可能组和536名低自杀可能组,分析两组在微博提取的10类行为特征和88类语言特征上的差异。结果表明,高自杀可能组的用户与低自杀可能组相比,社交活跃度低、夜间更加活跃、关注别人更少、使用更多表达否定和死亡的词语。
同样是微博调查发现,自杀死亡用户的微博,更频繁地使用表达排除意义的词语,情感层面上有更多消极表达。
因此,中科院的研究团队通过模型的优化、自然语言处理技术,以及AI技术的学习所研发的软件,对企图自杀风险者的识别准确率能达到84%。从2012年至今,该团队已分析30多万条微博分析,发现1万多例有自杀表达的个体。
其实,如果极早干预,这四名自杀者是可能获得救援的。其中的女性自杀者在自杀当日的凌晨3时,在朋友圈发了一张照片,配文称“晚安世界……我决定要当一个睡美人啦。”如果自杀干预软件能及时搜索到这样的信息,启动定位和干预,也许能有一定效果,同时也能帮助其他三人。而且,警方调查表明,四人中有一人患有抑郁症,这个信息也是可以纳入AI干预的行动中的。
在现实生活中,有抑郁症的人和想要自杀的人,将近80%不知道向哪求助或如何求助,有一半的人从未寻求过帮助。在求助人群里,家人不仅不是排在第一位,而且比例甚至低于陌生网友。因此,网络世界的朋友圈和AI干预变得越来越重要,这是时代的需求,也应当满足这种需求。
作者是北京学者