研究提出“费米悖论”新解释:人工智能可能成为大过滤器,消灭创造它的文明。我们应发展太空文明并监管AI。
人工智能正以千奇百怪的方式影响着我们的世界。它帮助科学家分析海量数据,检测金融欺诈,驾驶汽车,推荐音乐,聊天机器人有时让我们抓狂。这仅仅是开始。
我们能理解人工智能飞速发展的速度吗?如果不能,这是否意味着它就是大过滤器?
“费米悖论”指的是先进文明似乎应该普遍存在,但却没有发现任何证据的矛盾。许多解释试图解开这个谜团,其中之一就是“大过滤器”。
大过滤器指的是某个被假设的事件或情况,它阻止智能生命迈向星际文明,甚至导致其灭亡。比如气候变化、核战争、小行星撞击、超新星爆发、瘟疫,或者任何来自灾难事件大全的因素。
又或者,是人工智能的飞速发展?
发表于《天文学报》的一篇新论文探讨了人工智能演变成超人工智能 (ASI) 的可能性,并认为 ASI 就是大过滤器。论文题目是“人工智能是否让先进技术文明在宇宙中罕见?”,作者是曼徹斯特大学物理和天文系迈克尔·加勒特博士。
“没有实用的监管,人工智能就极有可能对我们和所有技术文明的未来构成重大威胁。”
——迈克尔·加勒特,曼徹斯特大学
一些人认为大过滤器会阻止像我们这样的科技物种成为多星球文明。这很糟糕,因为只有一个家园的物种灭绝或停滞风险更大。加勒特博士认为,没有备用星球的物种就是在跟时间赛跑。
“该论文提出,大过滤器会在这些文明发展出稳定、多星球的生存方式之前出现,暗示技术文明的典型寿命 (L) 不到 200 年。”加勒特写道。
如果属实,这就能解释为什么我们探测不到任何来自地外文明 (ETI) 的科技信号或其他证据。这对我们自己的科技发展轨迹意味着什么?如果我们面临 200 年的限制,而且是因为 ASI,那我们该怎么办?
加勒特强调了“快速建立地球人工智能发展监管框架和推进多星球社会的迫切需要,以减轻此类生存威胁。”
许多科学家和其他思想家认为我们正处于巨大变革的边缘。人工智能才刚刚开始改变我们的做事方式,许多变革都发生在幕后。人工智能似乎即将让数百万人失业,再加上机器人技术,这种变革似乎几乎没有限制。这是一个相当明显的担忧。
但还有更深层次、更系统的担忧。谁来编写算法?人工智能会歧视吗?几乎肯定会。竞争算法会破坏强大的民主社会吗?开放社会会继续开放吗?ASI 会开始为我们做决定吗?如果它做了,谁来负责?
这是一个不断分支的问题树,没有明确的终点。
已故的斯蒂芬·霍金博士曾警告说,如果人工智能开始独立进化,它可能会终结人类。
“我担心人工智能可能会完全取代人类。如果人们设计计算机病毒,那么总会有人设计能够自我改进和复制的人工智能。这将是一种超越人类的新生命形式。”他在 2017 年接受《连线》杂志采访时说道。一旦人工智能能够超越人类,它就变成了超人工智能。
霍金博士可能是发出人工智能警告最知名的人之一,但他绝不是唯一一个。媒体充斥着关于人工智能为我们带来的工作和警告的讨论,以及相关的文章。最令人不安的警告是 ASI 可能失控。有些人认为这是科幻小说,但加勒特博士并不这么认为。
“人们担心超人工智能最终会失控,这是一个重大问题——在未来几年里,对抗这种可能性正成为该领域领导者不断增长的研究追求。”加勒特写道。
如果人工智能毫无益处,那么问题就简单多了。但它带来了各种各样的好处,从改进医疗影像和诊断到更安全的交通系统。政府的诀窍是让好处蓬勃发展,同时限制损害。
“尤其是在国家安全和国防等领域,负责任和道德的发展应该至关重要。”加勒特写道。
问题在于我们和政府都毫无准备。从来没有出现过像人工智能这样的东西,无论我们如何尝试去概念化它并理解它的发展轨迹,都觉得有所欠缺。
如果我们处于这种境地,那么任何其他发展人工智能的生物物种也会如此。人工智能和超人工智能的出现可能是普遍的,使其成为大过滤器的候选者。
具体来说,ASI 可能会不再需要创造它的生物生命。
“在达到技术奇点之后,ASI 系统将很快超越生物智能,并以完全超越传统监督机制的速度进化,导致无法预见和意外的后果,这些后果不太可能与生物利益或道德相一致。”加勒特解释道。
ASI 如何摆脱束缚它的讨厌的生物生命?它可以设计一种致命病毒,可以抑制农业粮食生产和分配,可以迫使核电站熔毁,可以发动战争。
我们真的不知道,因为这都是未知领域。几百年前,地图制作者会在未探索的世界区域绘制怪物,这正是我们现在所做的事情。
如果这一切听起来令人沮丧和无法避免,加勒特博士说并非如此。
他的分析到目前为止是基于 ASI 和人类占据同一空间的假设。但如果我们能够获得多星球状态,情况就会改变。
“例如,多星球生物物种可以利用不同星球上的独立经验,多样化他们的生存策略,并可能避免行星级文明面临的单点故障。”加勒特写道。
如果我们能够将风险分散到围绕多颗恒星的多个星球上,我们就可以抵御 ASI 最坏可能带来的后果。
“这种分布式生存模式通过创建冗余来提高生物文明对人工智能引起的灾难的抵御能力。”他写道。
如果未来人类占据的其中一个星球或前哨基地无法在 ASI 技术奇点中幸存,其他可能会幸存。他们会从中吸取教训。
多星球状态甚至可能不仅仅是生存 ASI。它可以帮助我们掌握它。加勒特设想了我们可以更彻底地试验人工智能,同时将其控制在一定范围内的情况。想象一下在一个孤立的小行星或矮行星上的人工智能,在没有逃离其囚禁所需的资源的情况下,执行我们的命令。
“它允许在没有全球毁灭的直接风险的情况下研究先进人工智能的影响。”加勒特写道。
但这里有一个难题。人工智能的发展正在加速,而我们成为多星球文明的努力却没有。
“人工智能的快速发展与航天技术的缓慢进步形成了鲜明对比。”加勒特写道。
区别在于,人工智能是计算和信息性的,而太空旅行包含我们还不知道如何克服的多个物理障碍。我们自身的生物性质限制了太空旅行,但没有这样的障碍限制人工智能。
“虽然人工智能理论上可以几乎不受物理限制地提高自身能力,”加勒特写道,“但太空旅行必须应对能源限制、材料科学边界和太空环境的严酷现实。”
目前,人工智能在我们的约束下运行。但这可能并不总是如此。我们不知道人工智能何时可能成为超人工智能,甚至是否可能。但我们不能忽视这种可能性。这导致了两个相互交织的结论。
如果加勒特博士的观点正确,那么人类必须更加努力地进行太空旅行。这看起来似乎很牵强,但知情人士都知道这是真的:地球不会永远适合居住。如果我们不扩张到太空,人类将在这里被我们自己的手或自然的手毁灭。加勒特博士的 200 年估计只是对此加了一个感叹号。重新强调登陆月球和火星计划给我们带来了希望。
第二个结论涉及到对人工智能的立法和治理,这是一个艰难的任务,在一个世界里,精神病患者可以控制整个国家,并热衷于发动战争。
“虽然行业利益相关者、政策制定者、个别专家和他们的政府已经警告说,监管是必要的,但建立一个能够全球接受的监管框架将是一项挑战。”加勒特写道。
挑战几乎无法描述它。人类的内部争吵使这一切更加难以管理。此外,无论我们制定指南的速度有多快,ASI 的变化速度都可能会更快。
“没有实用的监管,人工智能就极有可能对我们和所有技术文明的未来构成重大威胁。”加勒特写道。
如果我们这样做,最终可能会归结为一些看起来无聊和日常的事情:争论立法。
“宇宙中智能和意识生命的延续可能取决于此类国际监管措施和技术努力的及时和有效实施。”加勒特写道。
本文译自 ScienceAlert,由 BALI 编辑发布。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )