ReDON: Recurrent Diffractive Optical Neural Processor with Reconfigurable Self-Modulated Nonlinearity
作者: Ziang Yin, Qi Jing, Raktim Sarma, Rena Huang, Yu Yao, Jiaqi Gu
分类: physics.optics, cs.AI, cs.ET
发布日期: 2026-02-27
备注: 18 pages
💡 一句话要点
提出ReDON:一种具有可重构自调制非线性的循环衍射光学神经网络处理器
🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 衍射光学神经网络 非线性光学计算 可重构计算 循环神经网络 自调制 光子计算 模拟计算 电光调制
📋 核心要点
- 传统DONNs受限于静态相位掩模,缺乏高效非线性和可重编程性,限制了其计算表达能力。
- ReDON通过引入可重构的循环自调制非线性,实现动态、输入相关的光学传输,提升了DONNs的非线性表示能力。
- 实验表明,ReDON在图像识别和分割任务中,相比传统DONNs,精度和mIoU提升高达20%,且功耗增加可忽略。
📝 摘要(中文)
衍射光学神经网络(DONNs)通过在光学域直接处理信息,展现了无与伦比的能源效率和并行性。然而,它们的计算表达能力受到静态、被动衍射相位掩模的限制,这些掩模缺乏有效的非线性响应和可重编程性。为了解决这些限制,我们引入了循环衍射光学神经处理器(ReDON),这是一种具有可重构、循环自调制非线性的新型架构。这种机制通过原位电光自调制实现动态的、输入相关的光学传输,为光学计算提供了一种高效且可重编程的方法。受到大型语言模型中使用的门控线性单元(GLU)的启发,ReDON感知部分传播的光场,并通过轻量级参数函数调制其相位或强度,从而以最小的推理开销实现有效的非线性。作为一种非冯·诺依曼架构,其中主要的加权元件(超表面)保持固定,ReDON通过循环光学硬件重用和动态可调非线性,大大扩展了传统DONNs的非线性表示能力和任务适应性。我们系统地研究了各种自调制配置,以表征硬件效率和计算表达能力之间的权衡。在图像识别和分割基准测试中,与先前采用光学或数字非线性的DONNs相比,ReDON在相当的模型复杂度和可忽略的额外功耗下,将测试精度和平均交并比(mIoU)提高了高达20%。这项工作为可重构非线性光学计算建立了一种新的范例,将循环和自调制结合在非冯·诺依曼模拟处理器中。
🔬 方法详解
问题定义:传统衍射光学神经网络(DONNs)依赖于静态的衍射相位掩模进行计算,缺乏有效的非线性激活函数和可重编程能力。这限制了DONNs在复杂任务中的表现,并且难以适应不同的应用场景。现有方法通常采用额外的光学或数字非线性模块,但这会增加系统的复杂性和功耗。
核心思路:ReDON的核心思路是引入一种可重构的、循环的自调制非线性机制。通过感知部分传播的光场,并利用电光效应进行自调制,从而实现动态的、输入相关的光学传输。这种自调制过程可以模拟非线性激活函数,并且可以通过调整电光调制器的参数来实现可重编程性。循环结构允许光信号多次通过自调制层,进一步增强非线性效应。
技术框架:ReDON的整体架构包括衍射层和自调制层。衍射层由静态的衍射相位掩模组成,负责实现线性变换。自调制层包含电光调制器,用于根据输入光场的强度或相位进行调制。光信号首先通过衍射层进行线性变换,然后进入自调制层进行非线性变换。自调制后的光信号可以再次进入衍射层,实现循环计算。整个过程在光学域中完成,无需进行光电转换。
关键创新:ReDON的关键创新在于将循环结构和自调制非线性结合在一起。传统的DONNs通常只包含静态的衍射层,缺乏有效的非线性激活函数。ReDON通过引入自调制层,实现了动态的、可重编程的非线性激活。循环结构进一步增强了非线性效应,提高了网络的表达能力。此外,ReDON采用非冯·诺依曼架构,避免了数据在存储器和处理器之间的频繁传输,从而提高了计算效率。
关键设计:ReDON的关键设计包括自调制层的配置和循环结构的参数。自调制层可以采用不同的电光调制器,例如液晶调制器或铌酸锂调制器。循环结构的参数包括循环次数和反馈强度。论文中系统地研究了不同的自调制配置和循环参数,以表征硬件效率和计算表达能力之间的权衡。此外,论文还借鉴了大型语言模型中使用的门控线性单元(GLU),设计了一种轻量级的参数函数,用于控制自调制过程。
🖼️ 关键图片
📊 实验亮点
ReDON在图像识别和分割任务中取得了显著的性能提升。在图像识别任务中,ReDON的测试精度相比传统DONNs提高了高达20%。在图像分割任务中,ReDON的平均交并比(mIoU)也提高了高达20%。这些提升是在相当的模型复杂度和可忽略的额外功耗下实现的,表明ReDON具有很高的硬件效率和计算表达能力。
🎯 应用场景
ReDON在图像识别、图像分割等领域具有广泛的应用前景。其高能效和并行性使其非常适合于边缘计算和嵌入式系统。此外,ReDON的可重构性使其能够适应不同的应用场景,例如自动驾驶、医疗诊断和安全监控。未来,ReDON有望成为下一代人工智能硬件的重要组成部分。
📄 摘要(原文)
Diffractive optical neural networks (DONNs) have demonstrated unparalleled energy efficiency and parallelism by processing information directly in the optical domain. However, their computational expressivity is constrained by static, passive diffractive phase masks that lack efficient nonlinear responses and reprogrammability. To address these limitations, we introduce the Recurrent Diffractive Optical Neural Processor (ReDON), a novel architecture featuring reconfigurable, recurrent self-modulated nonlinearity. This mechanism enables dynamic, input-dependent optical transmission through in-situ electro-optic self-modulation, providing a highly efficient and reprogrammable approach to optical computation. Inspired by the gated linear unit (GLU) used in large language models, ReDON senses a fraction of the propagating optical field and modulates its phase or intensity via a lightweight parametric function, enabling effective nonlinearity with minimal inference overhead. As a non-von Neumann architecture in which the primary weighting elements (metasurfaces) remain fixed, ReDON substantially extends the nonlinear representational capacity and task adaptability of conventional DONNs through recurrent optical hardware reuse and dynamically tunable nonlinearity. We systematically investigate various self-modulation configurations to characterize the trade-offs between hardware efficiency and computational expressivity. On image recognition and segmentation benchmarks, ReDON improves test accuracy and mean intersection-over-union (mIoU) by up to 20% compared with prior DONNs employing either optical or digital nonlinearities at comparable model complexity and negligible additional power consumption. This work establishes a new paradigm for reconfigurable nonlinear optical computing, uniting recurrence and self-modulation within non-von Neumann analog processors.