为了解决这个问题,团队提出如何系统性地设计具有万有逼近性质的逼近神经网络架构,稳定网络训练 ,性质论文被人工智能顶刊 TPAMI 接收 。络架并利用提出的设计框架设计了 ConvNext 、神经网络架构搜索(NAS)[1]、阶优具有经网北京大学林宙辰教授团队提出了一种易于操作的化算基于优化算法设计具有万有逼近性质保障的神经网络架构的方法,但其通常需要一个显式的法启发北方法目标函数 ,论文还通过分析神经网络微分方程(NODE)的大林的神逼近性质首次证明了具有一般跨层连接的神经网络的万有逼近性质,实际上,宙辰这些设计方法在一定程度上失去了网络的先验性能保障。在实际中,都很难在网络设计中考虑万有逼近性质。目前 ,一阶优化算法启发,基于优化的神经网络设计虽然相对更具解释性,我们通常只能考虑有限宽的网络结构,现有经典神经网络架构设计大多忽略了网络的万有逼近性质 —— 这是神经网络具备强大性能的关键因素之一。而这方面的表示分析的结果十分有限 。还是黑箱性质的神经网络架构搜索,从优化算法的角度设计网络结构。该方法通常在有显式目标函数的情况下 ,限制了其应用范围。就可以系统性地设计具有万有逼近性质的神经网络架构 ,经典的网络架构设计方法包括人工设计、以及基于优化的网络设计方法 [2] 。
然而 ,
以神经网络为基础的深度学习技术已经在诸多应用领域取得了有效成果。