因为相信ChatGPT,纽约律师在法庭上引用了不存在的案例

一位纽约律师在引用一些不存在的案例后,被发现使用人工智能聊天机器人ChatGPT进行了法律研究,因此面临法官的责难。

在一起涉及一家航空公司被控因个人伤害而被起诉的案件中,原告律师提交了一份简要陈述,其中列出了几个案例作为法律先例。不幸的是,后来在一份宣誓书中承认,以下案例“被发现不存在”:

Varghese v. China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019)
Shaboon v. Egyptair 2013 IL App (1st) 111279-U (Il App. Ct. 2013)
Petersen v. Iran Air 905 F. Supp 2d 121 (D.D.C. 2012)
Martinez v. Delta Airlines, Inc, 2019 WL 4639462 (Tex. App. Sept. 25, 2019)
Estate of Durden v. KLM Royal Dutch Airlines, 2017 WL 2418825 (Ga. Ct. App. June 5, 2017)
Miller v. United Airlines, Inc, 174 F.3d 366 (2d Cir. 1999)

据BBC报道,这份“研究”是由一位名为Steven A. Schwartz的律师编写的,他据称拥有超过30年的执业经验。Schwartz在宣誓书中表示,他以前没有使用ChatGPT进行法律研究,并且“不知道其内容可能是虚假的”。

宣誓书中的截图显示,这位律师询问聊天机器人“varghese是真实的案例吗?”,聊天机器人回答“是的”。当被要求提供来源时,它告诉律师可以在“Westlaw和LexisNexis等法律研究数据库”中找到该案例。当被问及“你提供的其他案例是假的吗?”时,它回答“不是”,并补充说这些案例可以在同一数据库中找到。

聊天机器人可能很有趣,也可能看起来非常先进,但它们仍然容易产生“幻觉”,听起来非常连贯却与现实世界毫不相关的答案。

如果没有进行严格的事实核查,使用聊天机器人来研究依赖于真实世界先例而非酷炫的自动补全的虚幻法律案件,实际上并不是一个应该使用的工具。

该律师写道,他“深感遗憾地利用生成式人工智能来补充本次执行的法律研究”,并誓言“在未经绝对验证其真实性的情况下,永远不会这样做”。

目前,Schwartz和Peter LoDuca律师将于6月8日面临听证会,就此事件进行听证。

本文译自 IFLScience,由 bali 编辑发布。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2023-05-29
因为相信ChatGPT,纽约律师在法庭上引用了不存在的案例
一位纽约律师在引用一些不存在的案例后,被发现使用人工智能聊天机器人ChatGPT进行了法律研究,因此面临法官的责难。

长按扫码 阅读全文

Baidu
map