想象一下,当你推倒多米诺骨牌时,第一张牌倒下,而后每一块牌迅速产生反应,直至最后一块牌。实际上,这种连锁反应不局限于物理界,而是广泛存在于各个科学领域。
而今天,科学家们都在讨论一个全新的、会产生连锁反应的领域——AI。许多人提出,AI 的智力就像多米诺骨牌一样,一旦打开某个开关,它就会不断地自我补充,形成 AI “智力爆炸”,甚至最终可能超越人类智力。
近日,世界知名的人工智能专家、前加州大学教授 Lance B. Eliot 博士在福布斯杂志发表文章,详细讨论了 AI “智力爆炸” 这一问题。
你说的 “AI” 不是 “真正的 AI”
一些科学家认为,某一天,AI 有可能会发生 “智力爆炸”,并且宣称,这可能发生在 2050 年至 2100 年之间。但没人知道具体的答案。
事实上,目前已存在的 AI 系统,还无法与人类智力相提并论。当前基于计算机的 AI 可以做一些相当棘手和令人印象深刻的事情,但这充其量只能称作是 “狭义的 AI”--- 它只能在有限的范围或领域中工作,而且缺乏与人打交道的常识性推理能力。
而真正的 AI,通常被称为 AGI(Artificial General Intelligence),可以毫无悬念地通过图灵测试。
但目前,世界上还没有一个 AGI。
有人认为,只有人类才可能展示出最高水平的智力,因此,AI 智力无论经过多少演变发展,都不可能达到高于人类的水平。因此,AI 经过智力爆炸后,将达到与人类智力完全等同的程度,而后便停滞不前。
但相反,也有另一种观点认为,AI 智力的爆炸式增长将会超越人类智力,并停留在所谓的超级智能左右的水平上。
超智能水平究竟有多高?我们对此暂时毫无了解。
但有人坚信,尽管超智能会超出人类的智力水平,但它本身也将具有一个界限或最终优势。同时,AI 智力爆炸可能是一个永无止境的连锁反应——AI 可能会不断地发展,引发超级 AI,再引发超级超级 AI…… 总之,变得越来越聪明,直到永远。
AI 智力爆炸,于人类是利还是弊?
我们不得不注意的一个问题是:超级 AI 可以思考出、做到、看到或说出哪些我们普通人所不能做到的?
Eliot 教授给出的答案是,超级智能大概可以解决癌症,世界饥饿,解释宇宙是如何开始的,并且从本质上可以回答人类仅有的敷衍智力尚未解决的、所有棘手的开放性问题。
令人悲伤的是,人类的普通智力甚至可能不足以识别出超级智能所能想到的东西,因此到那时,人类在 AI 眼中可能如同小小蝼蚁,超智能 AI 要么容忍我们的存在,要么帮助我们存活下去。
它可能试图将我们推向智能阶梯,或者决定让我们成为 “宠物”,可能会教给我们新的智慧,也可能会认为我们不值得它为此烦恼而放弃我们。
但另一方面,这是否意味着我们根本不需要任何其他新发明,因为以某种方式拥超智能有 AI 就可以满足我们的所有需求?
想象一下,有时候与真正聪明的人在一起时,我们的智力会得到提高,因为与对方的交互作用可能使我们沉迷、吸收或以某种方式放大自己的智力。因此,假如我们实现了 AI 超智能,则可能导致我们作为一个物种的自身智能的增加,这似乎也是合理的。
12下一页>(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )