AGI通用人工智能几年内就会实现?三位科技大佬给出判断

·极客观察11月7日 2011年时谷歌DeepMind联合创始人Shane Legg曾预言,2028年之前AI有50%的概率可能会变得和人一样聪明。最近Shane Legg接受采访,他强调自己的观点未变,依然认为研究人员有50%的概率实现通用人工智能(AGI,又叫强人工智能)。

现在科技产业对AI的兴趣越来越大,人类实现AGI似乎真的有了一些希望。2011年Shane Legg能有这样的判断让人惊讶,OpenAI CEO Sam Altman也在鼓吹AGI。虽然有众多大佬捧场,但人类到底离AGI还有多远?真的能在未来一段时间实现吗?

DeepMind联合创始人Shane Legg:2028年前有50%概率会实现AGI

1999年时谷歌AI专家Ray Kurzweil曾出版一本名为《精神机器时代》(The Age of Spiritual Machines)的书,他在书中介绍了“超人AI”的未来,Shane Legg明显受到了这本书的影响。

Shane Legg说:“书中有两个很重要的观点值得关注,我渐渐相信它是真的。第一个观点,在未来至少几十年里,计算力会呈现出指数级增长的态势。第二个观点,在未来几十年里,全球数据量将会呈现指数级增长态势。”

2011年时 学习技术已经出现,渐渐流行起来,Shane Legg认为,将这些新技术与计算力、数据量结合,AGI有可能会变成现实,在本个十年末人类有50%的概率实现AGI。不过这有一个提前:不要出现核战一样疯狂的变故!

十多年后的今天Shane Legg再次强调,AGI会在本个十年末出现,但出现有几个必要前提。

第一个前提,AGI的定义依赖于人类智力定律,人类智力是相当复杂的,难以准确测量。

Shane Legg认为,人类到底能做什么?至今我们仍然无法完全确知。人类可以回忆过去发生的事,可以理解视频,如果研究人员能对人类智力进行一系列测试,让AI模型击败人类,那我们就可以说AI达到了AGI的水平。

目前AI有没有在单项测试中达到AGI的水平呢?Shane Legg认为还没有。他说:“现在AI还没有做到,因为这是通用人工智能,所以AI应该做许多不同的事情,而且不能与人有太大差距。”

第二个前提,AI训练模型应该具有扩展能力。Shane Legg解释称:“开发算法,让它具有更强的扩展能力,这样的算法收益很高。我认为,行业很可能会着手研究可扩展AI算法。”

Shane Legg还说,只有拥有强大的计算力才有可能实现AGI。第一步就是用庞大的数据训练AI模型,这种数量是人一生都体验不了的。Shane Legg认为,这一步人类应该已经做到了。

软银创始人孙正义:20年内将会诞生超人工智能ASI

软银创始人孙正义也持相同看法,他认为,在未来20年内将会诞生超人工智能 (Artificial Super Intelligence,ASI),AI可以自己发展出思考技能。

孙正义坚信,无论是国家还是个人,如果不能拥抱AI就会落后。他还说,使用AGI和不使用,彼此之间的差距会像人的智力的猴子的智力一样大。孙正义甚至夸张地说,不使用ChatGPT就像拒绝使用电力一样。

他认为,90年代时日本没有拥抱数字技术,最终没有一家日本企业进入世界前十位。如果现在的企业不拥抱AI,十年之后也会面临相同的下场。通过商品制造成为领导者的时代已经过去很久,专注于互联网的大型科技企业也会成为过去。

按照孙正义的预测:“未来AGI将会覆盖所有行业,包括投靠、金融、物流,所有产业。重视的企业将会在十年内成为领导者,新世界将会以AGI作为中心。”他说,在未来,无人驾驶将会变得极为安全,供应链与需求完美匹配,数字客服将会变得极为聪明,靶向基因治疗将会流行。

OpenAI联合创始人Ilya Sutskever:AGI很快就会实现

OpenAI联合创始人、首席科学家Ilya Sutskever也谈到了AGI。当初OpenAI还很弱小时Ilya Sutskever就曾警告说,OpenAI开发的AI技术将会改变世界。

他曾在纪录片中谈到:“AI很好,因为AI可以解决我们遇到的所有问题。它能解决就业问题,疾病问题,贫困问题,但也会创造新的问题。”

在纪录片中,Ilya Sutskever预测AGI很快就会实现。他说AI是可以做任何工作、执行任何任务的计算机系统,这些原本由人来做,但AI做得比人还要好。

人类会如何对待AGI?Ilya Sutskever用动物来类比,我们对动物并不友善,不是因为我们不爱动物,是因为漠视动物对人类来说更方便。

“我们并不讨厌动物,但是当我们准备在两座城市之间修一条高速公路时,不会去征询动物的意见,我们只管修,因为公路对我们来说很重要。”Ilya Sutskever类比道,“人类和AGI的关系会像人类和动物的关系一样。AGI会是真正自主的,它们按自己的方式运行。”

Ilya Sutskever的观点相当可怕,人类必须让AGI变得正确,否则会存在很大风险。他说:“如果人类没有这样做,自然进化、自然选择会偏爱AGI系统,AGI会将自己的幸存放在第一位。”(小刀)


企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2023-11-07
AGI通用人工智能几年内就会实现?三位科技大佬给出判断
人类到底离AGI还有多远?真的能在未来一段时间实现吗?

长按扫码 阅读全文

Baidu
map