它会阅读。它会说话。它会整理大量数据并提出商业决策建议。今天的人工智能似乎比以往任何时候都更像人类。然而,人工智能仍有几个关键的缺点。
“尽管 ChatGPT 和所有这些当前的 AI 技术都令人印象深刻,但在与物理世界的互动方面,它们仍然非常有限。即使是解决数学问题和写论文等事情,它们也需要数十亿个训练示例才能做好,”冷泉港实验室 (CSHL) NeuroAI 学者 Kyle Daruwalla 解释道。
Daruwalla 一直在寻找新的、非传统的方法来设计能够克服此类计算障碍的人工智能。他可能刚刚找到了一种方法。
关键在于移动数据。如今,现代计算的大部分能耗都来自于数据的传输。在由数十亿个连接组成的人工神经网络中,数据的传输距离可能非常长。
因此,为了找到解决方案,达鲁瓦拉从现存计算能力最强大、能效最高的机器之一——人类大脑中寻找灵感。
Daruwalla 设计了一种新方法,让人工智能算法能够更有效地传输和处理数据,这种方法是基于我们的大脑接收新信息的方式。该设计允许单个人工智能“神经元”接收反馈并即时调整,而不是等待整个电路同时更新。这样,数据就不必传输太远,并且可以实时处理。
“在我们的大脑中,我们的连接一直在变化和调整,”达鲁瓦拉说。“这并不是说你暂停一切,进行调整,然后恢复自我。”
新的机器学习模型为尚未证实的理论提供了证据,该理论将工作记忆与学习和学业成绩联系起来。工作记忆是一种认知系统,它使我们能够专注于任务,同时回忆储存的知识和经验。
“神经科学中有一些理论表明工作记忆回路有助于促进学习。但是没有像我们的规则这样具体的东西将这两者真正联系在一起。所以这是我们在这里偶然发现的一件好事。该理论得出了一条规则,即单独调整每个突触需要将工作记忆与之并存,”达鲁瓦拉说。
Daruwalla 的设计可能有助于开创像我们一样学习的新一代人工智能。这不仅会使人工智能更加高效和易于使用,而且对于神经人工智能来说,这也将是一个圆满的时刻。早在 ChatGPT 发出第一个数字音节之前,神经科学就一直在为人工智能提供有价值的数据。看来,人工智能很快就会回报这种恩惠。