⼈⼯智能的未来将依赖于先天结构还是后天学习?

纽约⼤学的 Yann LeCun 和 Gary Marcus 近⽇针对 AI 是否需要更多的类似于⼈类和动物的内置认知机制才能达到近似的智能⽔平展开了⼀场辩论。

⼀辆由先进的⼈⼯智能技术驱动的⾃动驾驶汽⻋可能需要在虚拟模拟中 50000 次撞到树上,才能知道这是个坏主意。但是野⼭⽺⽺羔在陡峭的⼭坡上攀爬时,在学习到如何找到稳定的⽴脚点使⾃⼰不会掉下去之前,⽆从奢求从⼏百次致命的试验中复活。⼀个⼼理学家 3 岁的⼥⼉也不需要⽆数次的练习,才能突然想到如何从椅⼦后⾯的⼀个开⼝爬上去。

今天最强⼤的⼈⼯智能技术借助丰富的计算资源,从零开始学习世界上的⼀切内容。相⽐之下,⼈类和动物似乎能从直觉上理解某些概念,例如物体、地点以及⼀系列相关的事物,使他们能够快速了解世界是如何运作的。这就引出了⼀个重要的“天性与教养”的问题:⼈⼯智能的学习是不是需要内置⼈类和动物所拥有的这种先天认知机制,才能达到类似的⼀般智⼒⽔平?

两位 AI 和⼼理学的顶尖研究⼈员在昨晚纽约⼤学思想、⼤脑和意识中⼼主办的活动中对该话题进⾏了针锋相对的争论。

“⽆论是通过结构或通过学习,我们所拥有的 AI 技术中没有⼀种可以构造出类似动物和⼈类所构造的对这个世界的表述,” Yann LeCun 说。他是纽约⼤学的计算机科学家,以及 Facebook 的⼈⼯智能研究所主任。

LeCun 是⼈⼯智能领域深度学习的开辟者,帮助科技巨头打造流⾏的⾃动化服务。例如在 Facebook上过滤朋友的⾯孔,或者通过 Google 翻译进⾏英语和汉语之间的翻译。深度学习算法使⼈⼯智能在没有⼈类和动物的认知机制的情况下,能够执⾏所有这些任务。并且,当拥有 Facebook,Google或微软等公司的巨⼤的计算资源时,深度学习算法在过滤⼤量数据的过程中逐渐学会了识别世界的某些模式,这也是某些特定感知类型的任务所需的步骤,例如图像识别。

每个⼈都认同,⽬前的⼈⼯智能技术,如深度学习,依然⽆法使通⽤⼈⼯智能拥有与动物或⼈相媲美的智⼒。不过,LeCun 认为,基于⽆监督的深度学习,AI 可以在开发⼀般智⼒的道路上取得进步,⽆监督学习是⼀项最近发展的技术,消除了机器对⼈类提供⼿动标注数据的依赖。

LeCun 指出,现代⼈⼯智能的成功在很⼤程度上并不是依赖于内置假设,或结构化的关于世界是如何运⾏的概念。从这个意义来说,他倾向于⽤极简的 AI 算法结构来维持这种简单性。并且他认为这样做时可以不⽤考虑⼈类语⾔学家、⼼理学家或认知科学家的真知灼⻅。“我的任务是在我们所拥有的数据量的前提下,尽量减少学习过程所需的固有认知机制,”LeCun 说。

Gary Marcus 却认为没有这么快。Marcus 是初创公司“⼏何智能”(Geometric Intelligence,已被Uber 的 AI 团队收购)的⼀名⼼理学研究员。他承认⽆监督深度学习有成功的机会。但他认为,只有这些算法⽤“更丰富的原语和表⽰形式,⽽不仅仅是像素”来理解世界时,才能成功。

Marcus 说:“我们想要的是孩⼦们也拥有的那种东西,那种⽤来理解物体的⾏为,以及世界的实体和
物理学原理的表⽰和原语。”。

Marcus 希望看到 AI 研究者“从认知科学中⼤⽅采纳经验”,通过构建更多的可以代表认知概念的结构化算法,例如⽬标、集、位置,和时空连续性。他引⽤了他⾃⼰的⼯作,以及同事 Elizabeth Spelke——哈佛⼤学的认知⼼理学家的⼯作,来展⽰⼈类的孩⼦很早就具有能察觉到某些概念的能⼒,例如⼈、物体、集和位置。他建议:为什么不在 AI 中采⽤类似的⽅法,使⽤⼀些能映射到相似的概念的结构?

即使 LeCun ⾃⼰的开创性⼯作——卷积神经⽹络,它可以在物体识别任务中进⾏更有效的计算和处理,也是证明使⽤更具结构化的⽅法来约束 AI 必须过滤的信息量,可以帮助 AI 更好的理解世界的⼀个很好的例⼦,Marcus 说。

Marcus 说:“我认为,我们真正需要的是系统地思考和分析当我们在机器学习中嵌⼊不同数量的固有机制时会发⽣什么。”

LeCun 认为,AI 需要⼀定的结构来帮助它理解世界。但他想知道⽣物⼤脑中是否有“单⼀的学习算法、原理或程序”,或者是否更像是⼀个⽆组织原则的⽆意义的“⿊客”集合。在他看来,⼈⼯智能可以⼤⼤受益于单⼀的学习原则,或这类的原则的集合,不管有没有内置的先天认知机制的结构模型。“现在缺少的是⼀个可以让我们的机器通过观察,以及与世界互动,来学习世界是如何运作的原则,”LeCun 说。“我们⽬前缺少的,是⼀个学习预测世界的模型,在我看来,这是⼈⼯智能取得重⼤进展的道路上的最⼤障碍。”

LeCun 认为,智能的本质是预测的能⼒,因为预测未来是对世界的状态进⾏“填空”的⼀种⾮常特殊的情况。常识使得⼈类和动物能够根据他们所具有的世界如何运作的知识,来填补丢失的信息。这就是为什么⼈类司机不需要在 50000 次撞到树之后才能意识到这是⼀个坏主意,⼈类可以直接意识到如果他们把⻋撞到树上会发⽣什么。

LeCun 希望⽆监督学习可以使 AI 最终从物理⻆度对世界是如何运作的形成⼀种意识,⽽不是⼀些低级的常识。“如果在我的职业⽣涯结束时候我们有⼀个像猫,或者⽼⿏⼀样聪明的机器,我就很满意了,”LeCun 说。

关于 AI 学习最终将更多地证明“先天机制”还是“后天学习”的争论还远未解决。但 LeCun 和 Marcus对于判断哪⼀个是正确的关键表现指标达成了⼀致。如果⽆监督学习算法最终需要更多的类似于对象、集合、位置等的认知表⽰的结构,Marcus 便可以宣称获胜。如果⽆监督学习不需要这样的结构就能成功,那么 LeCun 的理论将被证明是正确的。

Marcus 说:“⼀点点固有认知结构可能会帮助你朝着这个⽬标前进⼀⼤步。”

LeCun 澄清:“⼀点点,没错。”

[阅读原文]