自杀是美国15-34岁年轻人死亡的第二大原因,而临床医生只能使用有限的手段来识别那些具有自杀倾向的人。今日发表在《自然人类行为》的一篇论文中记录了一种新型机器学习技术,该技术可帮助识别那些有自杀想法的人。
研究人员对34名年轻人进行了调查,有自杀倾向的参与者和实验对照组各人数占一半。每个实验对象都经过功能性磁共振成像(fMRI)检查,并给出了三个包含10个单词的列表。所有词汇均与以下三个方面相关,自杀(如“死亡”、“痛苦”或“致命”)、积极影响(“无忧无虑”、“善良”、“天真”)或消极影响(“无聊”、“邪恶”、“内疚”)。研究人员还使用了之前绘制的神经信号图,这些信号可显示大脑的情绪模式,比如“羞耻”和“愤怒”。
五个大脑定位,连同六个单词,被发现是区分自杀患者和对照组的最佳标志。利用这些位置和词汇,研究人员训练了一种机器学习分类器,它能够正确识别17名自杀者中的15名有自杀倾向参与者,以及17名对照受试者中的16名无自杀倾向参与者。
随后,研究人员将自杀的患者分成两组,一组有过自杀经历(9人),另一组没有自杀经历(8人),并训练了一种新的分类器,它能够正确识别17名患者中的16名患者。
结果显示,心理健康的参与者和有自杀想法的人对单词的反应明显不同。例如,当有自杀倾向的参与者看到“死亡”这个词时,他们大脑中的“羞耻”区域比对照组中参与者的大脑相应区域亮的多。同样,“麻烦”这个单词也会在“悲伤”区域引发更多的脑部活动。
这是旨在将人工智能引入精神病学的最新尝试。研究人员正在研究机器学习项目,从分析核磁共振波谱到预测重度抑郁症,再到从人们的说话模式中识别创伤后应激障碍(PTSD)。
今年早些时候,《连线》杂志曾报道过一些研究人员,他们建立了一个系统,可以通过分析健康记录来标记有自杀风险的人,准确率在80%到90%之间。Facebook正在使用文本挖掘技术来识别面临自杀或自残风险的用户,然后将其指向心理健康资源(见“Facebook的自杀预防工具的几大问题”)。
人工智能已经在医学领域掀起了波澜。有一些算法非常善于检测肿瘤和CT扫描中出现的其他问题,而杰弗里·新敦告诉《纽约客》,放射科医生最终将会失业。他是 学习领域最重要的研究人员之一。事实上,他说,“他们现在应该停止培养放射科医生。”
在这种情况下,这项研究更有可能激发出新的人类驱动的治疗方法,而不是让一整个领域的医生失去工作。这篇论文指出,识别不同的模式和区域可以为大脑刺激技术开发新的领域。确定对自杀相关术语的特定情绪反应,也可用于心理治疗师治疗患者。
- 蜜度索骥:以跨模态检索技术助力“企宣”向上生长
- 华为MatePad Pro 12.2英寸流金典藏版(SIM卡版)发布,带来专业户外创作体验
- AI修图让出片更有趣 华为nova 13系列打造年轻人的“表情管理大师”
- 华为nova 13系列亮相原生鸿蒙之夜,全新洛登绿格纹设计引领美学新潮流
- 华为WATCH Ultimate非凡探索焕新推出“绿野传奇”,引领高尔夫智能体验
- 中国循环经济协会:我国每年产生超4亿部废旧手机,只有约5%被回收处理
- 苹果AI发展遭内部质疑,被认为落后行业巨头两年以上
- iPhone 16系列遭遇新挑战:用户反映随机死机和自动重启问题
- 印度计划大幅削减笔记本电脑进口量,力推本土制造
- IDC:联想moto成为全球竖折叠手机市场第一名,份额30.8%
- 荣耀新机官宣10月25日开售,X60系列及平板新品发布会亮点抢先看
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。