当家长和老师发现LGBTQ(女同性恋者Lesbian、男同性恋者Gay、双性恋者Bisexual、跨性别者Transgender、酷兒Queer或对其性別认同感到疑惑的人Questioning)青少年陷入困境,并由于各种原因无法进行及时干预时,谷歌能帮上忙吗?
预防自杀“守门人”的角色通常由社区成员组成。当发现有人有自杀倾向时,他们会提供帮助。这是一个松散的组织,通常包括教师、家长、教练和年长的同事,但当意识到有人要自杀时,他们都有某种权威和干预能力。
谷歌能担任这样的角色吗?当用户搜索与自杀方法相关的关键词时,谷歌的结果突出显示了全国自杀预防生命热线的号码。但这个系统并不是万无一失的。谷歌不能编辑网页,只能编辑搜索结果,这意味着互联网用户可以很容易地通过链接或论坛找到如何自杀的信息,根本就不需要搜索引擎。同时,一个机器可能无法理解自杀者是真诚的求救还是在开玩笑。而且,当人们用英语以外的语言搜索自杀时,谷歌人工智能的反应低效得多。
五月,科技巨头拨款150万美元的Trevor项目是一家位于加州的非营利组织,通过电话(TrevorLifeline)、短信服务(TrevorText)和即时通讯平台(TrevorChat)为LGBTQ青少年提供危机咨询。该项目的负责人希望通过机器学习来提高TrevorText和TrevorChat的自杀风险预测的准确性。Trevor的咨询都是从一个简单的问题开始的:“你怎么啦?”
Trevor项目主任萨姆·多里森(SamDorison)说:“我们想要确保以一种中立的方式与他们谈论自杀的话题”“让他们来引导谈话,看什么对他们最有帮助。”
Trevor的平均等待时间不到5分钟,有时甚至以秒计算。Trevor希望最终人工智能能够通过来电者对第一个问题的回答来识别高风险者,并立即将他们转接给咨询师。将使用两个数据点对谷歌的人工智能进行培训:一是青少年与咨询师的对话,二是咨询师在与他们交谈后完成的报告。其想法是,通过观察初始反应与最终风险的比较,训练人工智能根据最早的反应来预测自杀风险。
算法在识别看不见的模式方面有着巨大的潜力,但要成为一个好的“看门人”,关键在于干预,一旦发现问题,就挺身而出并介入其中。这就是Trevor项目的来龙去脉。最终,这个非盈利组织的领导者们想要用一个人工智能系统来预测年轻人需要什么资源:住房、出柜帮助、治疗,所有这些都是通过扫描聊天中最初的几条信息来实现的。长期而言,他们希望进化AI,使其能够看到聊天信息背后的东西。例如,如果人工智能能够从信息中判断求助者阅读或教育水平,它能否推断这些构成因素对自杀风险的影响?遵循一个简单的“if.than”语句拯救一个人的生命似乎不可能,但很快,它可以。
本文译自 The Atlantic,由译者 Mork 基于创作共用协议(BY-NC)发布。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )