大流行期间的日常生活意味着远离社会,并寻找新的方式与朋友,家人和同事进行远程联系。 根据康奈尔大学的最新研究,当我们在线和通过文本进行交流时,人工智能可以在保持对话顺畅的过程中发挥作用。
一项发表在周刊《人类行为与计算机》[1]的最新研究《人机交互中的道德困境》[2]表明一部分与他人沟通困难的人认为人工智能的自动回复比起人类更值得信任。
信息科学领域的博士杰斯·海恩斯坦[3]说“我们发现如果人类之间交流出现了问题,人们更倾向于把责任推给负责中间工作的AI而不是本应承担责任的对方”。我们有一个算法可以通过双方的用语识别出事情是否正在朝着不好的方向发展并提出解决方案。我们正在研究所有的对话方式,并期望智能回复一类的AI的参与可以改变人类的交流方式。研究人员说虽然AI建议的回答可能与您想说的不完全一样,但是这不光可以节省您的打字时间,还可能从根本上改变您的谈话过程以及您的人际关系。
科学刊的助理教授杨[4]说“人际交流对于我们形成对他人的印象,形成稳定的关系,和共同完成工作都有至关重要的作用。人们的目光大多数都在研究一个新的系统设计如何与人交互而不是AI如何影响人与人之间的沟通。"
除了研究人们是如何和AI交互以外这项研究还为人们借助AI沟通提供了新的思路。海恩斯坦和杨表示他们正在探索AI是否能充当“道德缓冲区”[5]。海恩斯坦说“汽车前方有一个部件可以在发生冲撞的时候吸收一部分冲击力,在这里我们发现AI可以承担人与人间道德责任”
该研究得到了美国国家科学基金会的部分支持。
原文:https://www.sciencedaily.com/releases/2020/03/200331162237.htm
译者注:
[1]:《Computers in Human Behavior》
[2]:《Moral Crumple Zones: Cautionary Tales in Human-Robot Interaction》
[3]: Jess Hohenstein
[4]: Malte Jung
[5]: Moral Crumple Zones,直译为道德缓冲区,查了一下具体意思大概是比如有火车困境,而控制扳手的变成了AI而不是人,因为AI不需要承担道德责任,AI就成为了道德缓冲区帮人来吸收责任,虽然AI的算法是人写的。或者自动驾驶事故的时候讨论承担责任的应该是AI还是人。相关论文为[2]
文章来源:康奈尔大学提供的材料。 原文由Melanie Lefkowitz撰写。
译者感想:
这篇文章看着还挺有意思,AI不光承担了运算之类的工作,现在还能作为一种解决道德困境的方法。以后会有会有AI背锅大法?
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )