编者按:本文来自“界面科技”,记者 |柯晓斌 孙文豪,编辑 |文姝琪,36氪经授权发布。
“太阳好大只是透不进来,我还是觉得有点冷,能不能给我一点温度。”
这条微博留言发布于2019年12月7日下午3点,情绪有些消沉,而这条留言回复的是一条发布于2012年3月18日的微博,博主叫“走饭”,她是一名抑郁症患者。
7年前,走饭在微博给这样一个世界留了最后一句话,而后选择了离开。虽然微博里写着“不必在意我的离开”,但至今,平均每天有约2000条新留言出现在评论区里,其中有约500-600条留言透露着抑郁与绝望,微博总留言数已经逼近了200万条。
此后,这条微博成为负面情绪的“树洞”。 每一条微博评论背后,都藏匿着一个真实的、可能需要外部救援的生命。
世界卫生组织(WHO)于2015年公布中国罹患抑郁症人数约5400万,约占总人口数的3.8%。而中科院心理研究所的朱廷劭团队调研显示,在网络上表达绝望情绪的人,有79%认为获得求助“并非没有必要”,但“从未寻求过帮助”的人占据50%以上,尚有超过60%的人从没有接触过自杀预防的相关知识。
这在某种程度上预示着,在互联网这个巨大机器中,有大量潜在自杀倾向的人,他们往往具有隐蔽性,在真实的生活中难以被发现 。随着AI的发展,让语义有了被分析的可能,也让这部分人群的网上自杀行为有了被发现的可能。
但如何找出这一部分人群,并对他们进行提前有效的心理疏导,从而对自杀行为进行救援,依然是一个难题。
通向救援之路
“我当时已经走到江边了,我就想跳。”
今年十月的一个深夜,树洞救援团团长黄智生收到了一条消息,这条消息的发送人是一个刚被志愿者们救下来的武汉女孩,“站在江边的时候,一下子来了三十几个陌生人关心我的短信,我以为我的死没有人关心,我站在江边就看一条,就哭一次,哭了三个小时。最后我放弃了,还是回来了,因为我看到了生活里面的另一个希望,还是有很多人在乎我。”
这是树洞救援团一次成功的自杀干预,至今树洞救援团已经发送了逾3000条短信,阻止了超过1000次自杀行为。
黄智生是树洞救援团团长,同样也是阿姆斯特丹自由大学教授。2018年4月,黄智生开启了用人工智能技术进行自杀干预的“树洞计划”,并组织了一个20余人的志愿者团队。同年7月,他上线了自己编写的人工智能语义分析系统,取名为树洞机器人,树洞机器人可以对微博特定评论区的留言做多元化的分析、筛选,而后团队进行人为的自杀干预介入。
“我们的树洞机器人锁定了10个分级标准,比如说10级自杀正在进行中,9级自杀方式已经确定,最近这一两天可能会发生。”黄智生向界面新闻记者介绍,树洞机器人可以在挑选出有自杀风险的微博留言后,自动进行危险等级分级,5级以上会进行人工干预。
树洞机器人上线一年多以来,已经从001号进化到了006号,其语义分析准确率达到82%。
“现在我们每4个小时进行一次搜寻,一天总共搜寻微博的范围大概有4000多条,其中一两百条有必要进行人为干预。发现这一部分人群后,志愿者会持续跟进,对他们进行陪伴式心理疏导。”
目前,他们团队和新浪微博已经合作一段时间,据黄智生介绍,新浪微博允许他们通过AI的方式去抓取新浪微博上相关数据,他称,正在和新浪微博探讨建立人工智能联合实验室的可能性。
相较黄智生团队,朱廷劭显得更为谨慎,虽然他展开自杀救援比黄智生还要早两年,但团队一直只有20余人。
“大量不专业的志愿者进行自杀干预容易对轻生者造成二次伤害。”目前,朱廷劭团队中,直接和具有抑郁症患者沟通的志愿者都需要持有心理咨询师三级资格证以上。
同时,和黄智生团队持续性跟进疏导不一样,为了保护用户的隐私,他们不会让志愿者用个人账号去发送私信,也没有在线上建立社群,也不做长期追踪,只会做不定期的随访。
朱廷劭认为,自杀是一个非常复杂的行为,过度地干预也许会造成二次伤害。
需要更多专业力量加入
“有一个女孩自杀了8次,都被我们劝了回来,但最后她说,求求我们放她走吧,最后她还是走了。”这是一次让彭玲觉得无力的救援,彭玲是树洞救援团里湖北地区的总负责人。
目前树洞救援团的救助范围正在扩大,救援团的人数也从起初的20多人发展到现在的近600人。但这600多人大多是志愿者,其中较为核心的80个志愿者是较为专业的心理咨询师,他们担任全国各个地区救援小组的具体负责人。
加入树洞救援团的门槛并不高,不需要技术和心理学专业的相关知识,只要动机单纯就能够最终靠面试。这使得救援团志愿者素质参差不齐,不时会给工作带来麻烦。“我们确实是一个松散的组织。”对此黄智生也感到几分无奈,但他现在每个星期都组织志愿者通过线上、线下两个轨道参加培训。
“确实有的志愿者感到疲惫,他们有些在救助过程中想要放弃,有些也会陆陆续续地离开团队。”彭玲认为,高密度的负面信息和高强度的工作,让许多本来就不专业的志愿者难以承受。
更为重要的是,作为一个松散的组织,如何确保这部分人群的隐私,是一个急需解决的难题。
“有一次,一个志愿者把救助微信群里的记录泄露了出去,其中有一个被救助人看到了就来问我为何需要议论她,其实我们在讨论救助她的方案。”黄智生回忆起一次涉及隐私泄露的事情,“我在群里问谁泄露的,大家都不说。我就只能一个个去审查,那时候已经有一两百人了,最后我定位是某个人,他自己也承认了,最后把他给清除出团队了。”
这在某种程度上预示着当被救助者隐私遭泄露时,黄智生并没有很好的解决方案。“不得不用这种逐个盘问的方式寻找不守规矩的志愿者,而如今团队已经发展到了600人,这样费力的方法再难以应对以后类似的隐私泄露问题。”他坦言。
为了保护这部分人群的隐私,朱廷劭团队显得克制一些。黄智生认为,让非专业心理咨询师的志愿者直接和抑郁症患者联系,的确会有患者隐私被泄露的问题,但相较于此,他更不愿意看到生命的消逝。“人太多了,根本跟踪不过来。”
“我们在微博中看到了你的评论,你现在还好吗,情绪状态怎么样?”被确诊为抑郁症的何宁(化名)在2016年收到了微博名为“心理地图PsyMap”的短信,短信提供了何宁所在地区的心理危机干预电话。
“心理地图PsyMap”是朱廷劭主持创立的团队,和树洞救援团不同的是,朱廷劭坚持用官方账号联系有异常的微博用户,而不是首先借助志愿者私下联系,并且引导其联系所在地的心理救助机构。
“目前我们对自杀干预的方法有点过于自信,其实目前效果没有达到这么好。”朱廷劭认为对于主动进行自杀干预,从技术到人工上都必须非常小心,否则很容易对轻生者造成二次伤害。
基于AI深度学习技术,朱廷劭研发的系统对于自杀表达语言的分析准确率已达到了85%,但他认为自杀表达反映出的问题要比人们想象的复杂得多。
朱廷劭向界面记者介绍,一般自杀行为有90%都是因为长期的精神疾病所致,但在中国可能只有50%多,有差不多一半的人并没有严重的心理疾病,而是因为来自家庭、工作、学业等各种突发的问题选择了极端行为。
“每个人负面情绪都有特殊性,不能简单地用精神疾病疗法加以干预,应该慎重对待每一人的生命。”朱廷劭表示,很多时候抑郁情绪发酵只是因为没找到出口,而他们帮助抑郁群体找到一个释放的出口。
共情困局
根据世卫组织2017年的数据,全球范围内抑郁症人数达到了3.5亿,但超过90%的人都不自知。
大众的普遍失焦,来自于社会对于精神健康问题的漠视,这使得抑郁群体像是漂浮在大洋上的一座座孤岛,甚至找不到逃离的出口。
北京大学心理与认知科学学院的研究生李铭(化名)告诉界面新闻记者,在对于抑郁群体的观察和访谈中,这些人最常对他说的一句话是“你不会做到感同身受的”。
抑郁群体对周遭环境的不信任,可能会同样映射在人与技术的连接上。
王一冬(化名)是清华大学电子系的博士毕业生,在校期间,他主持研发了“人工智能心理状态量化评估与精神干预”的技术设备。
这套设备底层技术获得了国家专利,拿到了500万的天使轮融资,并被王一冬从校园带向了市场,但却在推广时遭遇到了不小的困难。
“阻力很大,”王一冬向界面新闻记者坦言,“当我回到清华做心理普测回访时,很多学弟学妹们都会问,凭什么要拿这个测我,机器存储的信息会不会对我以后造成影响?”
另一方面,成本也是无法解决的问题。王一冬说,“目前能谈到的设备价格是55万一台。” 这样的价格不仅令市场很难接受,更让500万的融资显得捉襟见肘。
王一冬在进行下一轮融资时,更是遭遇了不少冷眼,投资人直言,“心理健康领域国内还没有漂亮的商业模式”。
对于这些尖锐的问题,王一冬承认,技术和市场尚不成熟是一个根本原因,但是大家对于心理健康问题的认知也存在很大的偏差。
此外,由于精神障碍群体受到歧视,精神健康领域的从业者连带遭受到了社会排斥。“身边的同事找不到对象是经常的事。”吴英(化名)显得有几分无奈,他在互联网精神健康医院工作从业超过十年,对此也深有体会。
精神障碍群体的高隐蔽性、社会对从业者的歧视、专业技术人员的缺乏和高昂的技术成本,都让现在专注于精神健康领域的机构与企业举步维艰。
朱廷劭的办公室里陈列很简单,两张桌子,几张待客用的木凳,唯一显眼的是一台健身单车,他说这是他解压用的工具。“很多时候抑郁情绪发酵只是因为没找到出口,而我们帮助抑郁群体找到一个释放的出口。”
“我们一定要拼命活下去。”这是何宁被“心理地图PsyMap”救助后,收到的来自病友们一条新年祝福。被救助者们生的希望让朱廷劭感受到肩上的重量,“关乎生死,每条生命都很重要。”