由神经网络执行的机器学习是开发人工智能的一种流行方法,因为研究人员旨在为各种应用复制大脑功能。AIP出版的《应用物理评论》(Applied Physics Reviews)杂志上的一篇论文提出了一种新的方法,该方法使用光代替电来执行神经网络所需的计算。在这种方法中,光子张量核并行执行矩阵乘法,从而提高了当前深度学习范例的速度和效率。
在机器学习中,训练了神经网络以学习对看不见的数据执行无监督的决策和分类。一旦对数据进行了神经网络训练,它就可以产生一个推断,以识别和分类对象和模式并在数据中找到签名。
光子TPU并行存储和处理数据,其特征是具有电光互连功能,从而可以有效地读写光学存储器,并使光子TPU与其他体系结构接口。
“我们发现,集成了高效光学存储器的集成光子平台可以获得与张量处理单元相同的操作,但是它们消耗的功率只有一小部分,并且具有更高的吞吐量,并且如果经过适当的训练,可以用于以速度进行推理。作者之一马里奥·米斯库里奥(Mario Miscuglio)说。
大多数神经网络都展开多层相互连接的神经元,以模仿人类的大脑。表示这些网络的有效方法是将矩阵和向量相乘的复合函数。这种表示允许通过专门用于向量化运算(例如矩阵乘法)的体系结构来执行并行运算。
但是,任务越智能,期望的预测精度越高,网络就越复杂。这样的网络需要大量的数据进行计算,并需要更多的功能来处理该数据。
当前适合于深度学习的数字处理器,例如图形处理单元或张量处理单元,由于这样做所需的功率以及处理器与存储器之间电子数据的缓慢传输而受到限制,无法以更高的精度执行更复杂的操作。
研究人员表明,其TPU的性能可能比电TPU的性能高出2-3个数量级。光子也可能是计算节点分布式网络和在5G等网络边缘以高吞吐量执行智能任务的引擎的理想选择。在网络边缘,来自监视摄像机,光学传感器和其他来源的数据信号可能已经以光子的形式存在。
Miscuglio说:“光子专用处理器可以节省大量能源,缩短响应时间并减少数据中心流量。”
对于最终用户,这意味着数据的处理速度要快得多,因为其中很大一部分数据已经过预处理,这意味着仅一部分数据需要发送到云或数据中心。