社交网络每天都在「吞噬」用户的时间和生命,现在,社交霸主 Facebook 要用技术来拯救用户的生命了。近日,Facebook 在公司博客宣布,将在全球推广其「主动识别」技术,用来辨别有自杀倾向的用户,并在第一时间为后者提供帮助。截至目前,急救人员已经根据 Facebook 的监测,接触有自杀倾向的用户超过百次。
根据世卫组织报道,全球每 40 秒钟就有人尝试自杀;在 15 到 29 岁的青少年人群中,自杀已经成为第二大致死原因。作为全球最大社交网站,Facebook 的「自杀预防」方案可能会为更多想不开的人提供急需的帮助。
用 AI 扫描自杀倾向
根据官方博客介绍,Facebook 采用主动检测技术,扫描用户在 Facebook 上的文字和图片信息,用来分析用户是否符合「自杀倾向」的模式。虽然 Facebook 并没有透露软件如何定义什么样的信息会被判定为「自杀倾向」,但是其页面中如果有「你还好吗?」、「我能帮助你吗?」之类的短语,将会让用户成为工作人员的「重点照顾对象」。
当 Facebook 的系统认为用户有自杀倾向时,会向负责审核内容的工作人员发送报告,相对于上传到网站的暴力或者裸体内容,「自杀」类报告将获得更高的优先级,提醒工作人员进行优先处理。工作人员会根据情况采取不同措施:直接联系用户、联系用户的相关亲朋好友、尽快通知当地急救人员。
目前,「自杀检测」功能已经在美国进行了几个月的试验,根据 Facebook 的报告,急救人员已经接触了相关用户超过 100 次。在博文中,Facebook 产品管理副总 Guy Rosen 称「拯救自杀倾向人士最重要的就是速度」,自动检测功能可以提高「自杀倾向人士」获救的速度。
Facebook 视频直播端的帮助页面 图片 | Facebook
7500 人的审核团队
去年 Facebook 开始试水视频直播功能,在提高网站各项数据同时,也遇到了巨大挑战——相继有网友通过 Facebook 视频直播自杀甚至谋杀行为。由于这些事件往往实时发生,较难进行控制,而相关事件对于 Facebook 品牌则产生巨大负面作用。为了控制类似事件,今年 3 月 Facebook 推出了针对「自杀直播」用户的特殊工具。
当看到有人正在做有「自杀倾向」直播时,用户可以将情况报告给 Facebook,在报告页面有不同选项,可以为用户提供救助方式、急救热线或者联系其他好友等方法。「自杀倾向」用户直播的页面也会出现「联系好友/家人」和「求助热线」等选项。为什么 Facebook 不直接关闭自杀者的直播?答案是,关闭直播反而切断了自杀者的求助之路,很多自杀者渴求更多的是亲朋好友的关心,相比之下前者带来的危险性更大。
Facebook 也为此加强了队伍建设,在原本的 4500 名审核人员基础上,多加了 3000 名新生力量,Facebook 称其为「社区帮助」(Community Help)。为了能让当地急救人员第一时间救助相关人士,Facebook 尝试让这些全球「社区帮助」工作人员能用当地语言联系急救人员。
不大不小的问题
今年 7 月,Facebook 的月活突破 20 亿大关,要实时对用户上传的海量数据进行审核,实在不是一件容易的事。用 AI 技术来预测人们的自杀倾向并提供帮助,是非常有意义的事,但同时也触动了用户在隐私方面的神经——如果 Facebook 能扫描并推断用户是否有自杀倾向,那么这个「老大哥」还能推断出什么其他信息?此前,Facebook 曾经推出过相关审核功能,当检测到涉及儿童色情等对话内容时,Facebook 会通知相关机构进行处理。
当被问到用户能否选择拒绝「自杀倾向」的扫描时,Facebook 给予了否定的答案——这可能是为什么 Facebook 不能将这项服务推向欧洲市场,因为后者在用户隐私方面有十分严格的政策。
Facebook 并不是唯一一家向有自杀倾向人士提供帮助的互联网公司,搜索巨头谷歌就在用户搜索自杀相关词汇时,会在页面显示求助热线。相对于 Facebook 的主动扫描,谷歌的被动式呈现显得比较低调。毕竟,投向用户的关切凝视,如果处理不当,也可能变成可怖的监视。
网站上出现的 Google 广告
P.S. 由于用 Google 搜索了和自杀(Suicide)相关的信息,结果现在记者浏览网站的页面马上出现了线上心理治疗课程的广告:如果你正在挣扎之中,可以考虑报一个XXX牌线上心理治疗课程,你值得拥有。
还有比这更讽刺的吗?