由于谷歌的人工智能 (AI) 子公司 DeepMind几周前发表了一篇论文(论文地址:https://arxiv.org/pdf/2205.06175.pdf),描述了他们称为 Gato 的“通才”代理(可以使用相同的训练模型执行不同的任务),并声称通用人工智能 (AGI) 可以通过可以通过纯粹的规模化实现,由此在人工智能行业内引发了激烈的争论。虽然看起来有点学术性,但现实情况是,如果通用人工智能指日可待,我们的社会——包括我们的法律、法规和经济模型,都还没有准备好。
事实上,多亏了同一个训练有素的模型,通才代理 Gato 能够玩 Atari、为图片添加字幕、聊天或用真正的机械臂堆叠积木。它还可以根据其上下文决定是否输出文本、连接扭矩、按钮按下或其他标记。因此,它看起来确实是比流行的 GPT-3、DALL-E 2、PaLM 或 Flamingo 更通用的 AI 模型,这些模型在非常狭窄的特定任务上变得非常出色,例如自然语言写作、语言理解或根据描述创建图像。
这让DeepMind的科学家、牛津大学教授南多·德弗莱塔斯(Nando de Freitas)声称“现在一切都与规模有关!游戏结束!” ,并认为人工通用智能(AGI)可以通过完全规模化(即更大的模型、更大的训练数据集和更强的计算能力)来实现。然而,de Freitas说的游戏”是什么“?这场辩论到底是关于什么呢?
人工智能之争:强人工智能与弱人工智能在讨论这场辩论的细节及其对更广泛社会的影响之前,有必要先退一步了解一下背景。“人工智能,Artificial Intelligence”一词的含义多年来一直在变化,但从高级和通用的角度来看,它可以被定义为智能代理的研究领域,它指的是任何感知其环境并采取行动,以最大限度地实现其目标的机会的系统。这一定义有意地将代理或机器是否真的会“思考”的问题置之度外,因为这一问题长期以来一直是激烈争论的对象。1950年,英国数学家阿兰·图灵在他著名的《模仿游戏》论文中主张,与其考虑机器是否会思考,不如关注“机器是否有可能表现出智能行为”。
这种区别在概念上导致了人工智能的两个主要分支:强人工智能和弱人工智能。强人工智能,也称为通用人工智能 (AGI) ,是人工智能的一种理论形式,机器需要与人类相同的智能。因此,它将具有自我意识,具有解决问题、学习和规划未来的能力。这是人工智能最雄心勃勃的定义,“人工智能的圣杯”——但目前,这仍然是纯粹的理论。实现强人工智能的方法通常围绕符号人工智能,即机器形成物理和抽象“世界”的内部符号表示,因此可以应用规则或推理来进一步学习和做出决定。
虽然这一领域的研究仍在继续,但迄今为止,它在解决现实生活问题方面取得的成功有限,因为世界的内部或象征性表征会随着规模的扩大而迅速变得难以管理。
弱人工智能,也称为“狭义人工智能”,是一种没有那么雄心勃勃的人工智能方法,专注于执行特定任务,例如根据用户输入回答问题、识别人脸或下棋,同时依靠人类干预来定义其学习算法的参数并提供相关的训练数据以确保准确性。
然而,在弱人工智能方面取得了显着进步,众所周知的例子包括人脸识别算法、自然语言模型(如OpenAI的GPT-n)、虚拟助手(如Siri或Alexa)、谷歌/DeepMind的下棋程序AlphaZero,以及在一定程度上的无人驾驶汽车。
实现弱人工智能的方法通常围绕使用人工神经网络展开,人工神经网络是受构成动物大脑的生物神经网络启发的系统。它们是互连节点或神经元的集合,结合激活函数,该函数根据“输入层”中呈现的数据和互连中的权重确定输出。为了调整互连中的权重以使“输出”有用或正确,可以通过暴露于许多数据示例和“反向传播”输出损失来“训练”网络。
可以说,还有第三个分支叫做“神经符号人工智能”,它将神经网络和基于规则的人工智能结合在一起。虽然在概念上很有希望,也很合理,因为它似乎更接近我们生物大脑的运作方式,但它仍处于非常早期的阶段。
这真的是规模的问题吗?当前争论的关键是,有了足够规模的AI和机器学习模型,是否能够真正实现人工通用智能(AGI),从而彻底摆脱符号人工智能。其现在只是一个硬件扩展和优化问题,还是我们需要在 AI 算法和模型中发现和开发更多?特斯拉似乎也在接受谷歌/DeepMind的观点。在2021年的人工智能(AI)日活动上,特斯拉宣布推出特斯拉机器人(Tesla Bot ),也被称为擎天柱(Optimus),这是一款通用人形机器人,将由特斯拉为其汽车中使用的高级驾驶辅助系统开发的同一套AI系统控制。有趣的是,该公司首席执行官埃隆·马斯克表示,他希望在2023年之前将机器人投入生产,并声称擎天柱最终将能够做“任何人类不想做的事情”,这意味着他预计AGI届时将成为可能。
然而,其他人工智能研究团队——主要包括Yann LeCun, Meta的首席人工智能科学家和纽约大学教授,他们更喜欢没有那么雄心勃勃的人类人工智能 (HLAI)一词——认为仍有很多问题需要解决,而且纯粹计算能力无法解决这些问题,可能需要新模型甚至软件范例。在这些问题中,机器有能力通过像婴儿一样的观察来了解世界是如何运作的,通过它的行动来预测如何影响世界,处理世界固有的不可预测性,预测一系列行动的影响从而能够推理和计划,并在抽象空间中表示和预测。最终,争论的焦点是,这是否可以通过仅用我们现有的人工神经网络进行基于梯度的学习来实现,或者是否需要更多的突破。
虽然 学习模型确实能够在不需要人工干预的情况下从数据中产生“关键特征”,因此人们很容易相信,它们将能够利用更多的数据和计算能力来挖掘和解决剩余的问题,但这可能太好了,以致于不真实。打个简单的比方,设计和制造越来越快、越来越强大的汽车并不会让它们飞起来,因为我们需要充分了解空气动力学才能首先解决飞行问题。使用 学习AI模型取得的进展令人印象深刻,但值得思考的是,弱AI从业者的乐观观点是否仅仅是马斯洛之锤或“工具法则”的案例,即“如果你拥有的唯一工具是一把锤子,你往往会把每个问题都视为钉子”。
游戏结束 or 携手合作?像谷歌/DeepMind、Meta或特斯拉这样的基础研究通常让私营企业感到不安,因为尽管它们的预算很大,但这些组织往往更倾向于竞争和上市速度,而不是学术合作和长期思考。
解决通用人工智能可能需要两种方法,而不是强弱 AI 支持者之间的竞争。用人脑进行类比并不牵强,人脑具有有意识和无意识的学习能力。我们的小脑约占大脑体积的 10%,但包含超过 50% 的神经元总数,负责与运动技能相关的协调和运动,尤其是手和脚,以及保持姿势和平衡。这是在不知不觉中快速完成的,我们无法真正解释我们是如何做到的。然而,我们有意识的大脑虽然慢得多,但能够处理抽象概念、计划和预测。此外,有意识地获取知识是可能的,通过训练和重复,实现自动化——这是职业运动员所擅长的。
人们不禁要问,如果大自然在几十万年的时间里以这种混合的方式进化了人类的大脑,为什么一般的人工智能系统会依赖于单一的模型或算法。
对社会和投资者的影响不考虑最终实现通用人工智能的特定潜在AI技术,这一事件将对我们的社会产生巨大的影响——就像轮子、蒸汽机、电力或计算机一样。可以说,如果企业可以完全用机器人取代人力,我们的资本主义经济模式将需要改变,否则社会动荡最终会随之而来。说了这么多,很可能正在进行的辩论有点像企业公关,事实上,通用人工智能比我们目前认为的更远,因此我们有时间解决它的潜在影响。然而,在较短的时间内,很明显,对通用人工智能的追求将继续推动特定技术领域的投资,如软件和半导体。
弱人工智能框架下特定用例的成功导致对我们现有硬件能力面临的压力越来越大。 例如,2020 年推出的流行的 Generative Pre-Trained Transformer 3 (GPT-3) 模型 OpenAI,已经能够以与人类相当的流畅度编写原始散文,它拥有 1750 亿个参数,需要几个月的时间来训练。
可以说,当今一些现有的半导体产品——包括 CPU、GPU 和 FPGA——能够或多或少地有效地计算 学习算法。 然而,随着模型大小的增加,它们的性能变得不能令人满意,并且出现了针对 AI 工作负载优化的定制设计的需求。 亚马逊、阿里巴巴、百度和谷歌等领先的云服务供应商,以及特斯拉和各种半导体初创企业,如寒武纪、Cerebras、Esperanto、Graphcore、Groq、Mythic 和 Sambanova,都采用了这条路线。
文/千家网编译
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。