yannlecun:人们应该怀疑潜在的符号逻辑( 四 )


相比之下 , 如果深度学习的倡导者和经验主义者是正确的 , 那么插入符号操纵模块的想法是令人困惑的 。在这种情况下 , 深度学习系统已经在进行符号推理 , 并将继续改进它 , 因为它们通过更多的多模态自监督学习、越来越有用的预测世界模型以及用于模拟的工作内存的扩展以及评估结果来满足约束 。引入符号操纵模块不会导致更像人类的AI , 而是迫使所有「推理」通过一个不必要的瓶口 , 让我们与类人智能渐行渐远 。这可能会切断深度学习最令人印象深刻的方面之一:它能够提出比人类程序员想象的更有用和更聪明的解决方案 。
尽管赌注很高 , 但同样重要的是 , 这些辩论中提出的许多问题至少在某种程度上是次要的 。比如一些讨论:深度学习系统中的高维向量应该被视为离散符号(可能不是) , 实现深度学习系统所需的代码行是否使其成为「混合」系统(语义) , 在复杂游戏中获胜是否需要手工的、特定领域的知识 , 或者它是否可以学习(说得太早了) 。还有一个问题是混合系统是否有助于解决围绕人工智能的伦理问题(否) 。
而这一切都不是为了证明这场愚蠢的炒作是合理的:当前的系统没有意识——它们并不能理解我们 , 强化学习还不够 , 你不能仅仅通过扩大规模来建立类人智能 。但所有这些问题都与主要争论无关:符号操纵是否需要硬编码 , 还是可以学习?
这是停止研究混合模型(即具有不可微分符号操纵器的模型)的呼吁吗?当然不是 。研究人员自1980年代以来一直在研究混合模型 , 但尚未证明它们是灵丹妙药——或者在许多情况下 , 甚至远不及神经网络 。更广泛地说 , 人们应该怀疑深度学习是否已达到极限 。
鉴于最近DALL-E2、Gato和PaLM中任务的持续、增量改进 , 避免将「障碍」误认为「墙壁」似乎是明智之举 。深度学习不可避免的失败之前就已经能预料到 , 但押注它是不值得的 。