LeCun:赋予机器 “常识” 重新设计神经网络将是AI研究重点

 Facebook加入AI芯片竞赛,自研ASIC

Facebook认识到,要想在AI领域实现下一个突破,它需要大大提高计算速度。目前,Facebook已经加入与亚马逊和谷歌的竞争,开发自己的AI芯片。

LeCun 在接受英国 《金融时报》 采访时表示,Facebook 希望与多家芯片公司合作开发新的芯片设计——最近宣布了与英特尔合作开展项目——但他也表示,Facebook正在开发自己的定制 “ASIC” 芯片,以支持其AI程序。

LeCun说:“众所周知,Facebook会在需要时构建自己的硬件——例如,构建自己的ASIC。遇到任何障碍,我们都将全力以赴。”这是Facebook首次发表官方评论,证实了其在芯片领域的雄心。

谈到公司在芯片方面取得突破的机会时,LeCun补充说:“底层肯定有很大的空间。”

Facebook自研芯片的决定,对英伟达也构成了又一个长期挑战。英伟达是目前用于数据中心AI的图形处理器的主要生产商。由于大型数据中心客户离开,英伟达正面临短期困境。

现在,更大的需求是更专业的AI芯片,其设计旨在以闪电般的速度、更低的功耗执行单一任务,而不是过去的通用处理器。这种需求不仅吸引了谷歌、亚马逊、苹果等公司的投资浪潮,也吸引了几十家初创企业。

对新的芯片设计和硬件架构的关注表明,需要在基础计算方面取得根本性突破,以防止今天的AI成为一个死胡同。

LeCun 表示,纵观AI的历史,在研究人员提出让该领域得到突破的洞见之前,它往往已经在硬件方面取得了很大的进步。

“在相当长的一段时间里,人们没有想到相当明显的想法,”他说,这阻碍了人工智能的发展。其中就包括反向传播,这是当今深度学习系统的一项核心技术,算法可以通过反向传播来减少错误。 LeCun 表示,这显然是对早期研究的延伸,但直到上世纪90年代计算机硬件发展后,这一技术才得到广泛应用。

Facebook过去也曾设计过其他类型的硬件,例如,在将数据中心设备开源供他人使用之前,为这些设备提出一些新想法。 LeCun 表示,同样的方法也将适用于芯片设计。他补充说:“我们的目标是将其送走。”

重新设计神经网络,模仿更多人类智能

Facebook还将研究重点放在神经网络的新设计上。神经网络是深度学习系统的核心,是图像和语言识别等领域最近进展的基础。

30年前,LeCun在 AT&T 贝尔实验室研究AI芯片时,构建了第一个“卷积”神经网络,这是目前深度学习系统常用的神经网络。

LeCun 表示,Facebook正致力于“一切可以降低功耗(并)改善延迟的事情”,以加快处理速度。但他补充说,实时监控视频带来的巨大需求,将需要新的神经网络设计。

Facebook也在寻找新的神经网络架构,以模仿人类智能的更多方面,并使系统更自然地进行交互。

LeCun说,Facebook正大力投入于“自我监督”系统,这种系统能够对周围的世界做出更广泛的预测,而不仅仅是得出直接与它们所接受的数据相关的结论。这可以使它们对世界产生同样广泛的理解,从而使人类能够应对新的情况。

“就新用途而言,Facebook感兴趣的一件事是开发智能数字助理——具有一定程度的常识的智能助理,”他说。“它们拥有背景知识,你可以和它们就任何话题进行讨论。”

向计算机灌输常识的想法还处于非常早期的阶段,LeCun表示,这种更深层次的智能“不会很快发生”。

他说:“能够在不确定性下进行预测是当今的主要挑战之一。”

Facebook正在参与一项更广泛的研究努力,旨在增强当今的神经网络。在ISSCC研讨会上,LeCun概述了这项工作。

其中,包括根据通过它们的数据调整其设计的网络,使其在面对现实世界的变化时更加灵活。另一种研究方法是研究只“激活”解决特定问题所需神经元的网络,这种方法与人类大脑的运作方式类似,可以大大降低功耗。

研究工作还包括将计算机存储添加到神经网络中,这样当与人“交谈”时,神经网络就能记住更多的信息,并形成更强的语境感。

神经网络的进步可能会对驱动它们的芯片的设计产生连锁反应,这可能会为制造当今领先AI芯片的公司带来更多竞争。

LeCun 表示,谷歌的TPU——最强大的机器学习数据中心芯片——“仍相当通用”。但“它们做出的假设不一定适用于未来的神经网络架构。”

另一方面,芯片设计的灵活性也有其他缺点。例如,微软计划在其所有数据中心服务器上安装一种不同类型的芯片,即FPGA(现场可编程门阵列)。这些芯片在使用方式上更加灵活,但在处理大量数据方面效率较低,这使它们与专为特定任务而优化的芯片相比处于劣势。

相关产品

评论