百度入选ICML、IJCAI、ISIT等机器学习顶会的论文都在关注什么?( 五 )


Rethink the Connections among Generalization, Memorization, and the Spectral Bias of DNNs
本文从频谱偏好 (spectral bias)入手研究神经网络的泛化性、记忆性的关系 。近来的研究发现神经网络在训练过程中往往呈现出泛化误差二次下降的现象 , 即在优化过程中其泛化误差呈现出“下降-上升-再次下降”的变化趋势 。而这显然与以往对频谱偏好的单调性结论(神经网络从低频到高频、从简单到复杂地引入频率分量)相矛盾 。
我们在泛化误差二次下降的实验设置下(引入部分标签噪声并且训练较多的回合数)对神经网络输出的频谱进行了统计 。实验现象如下图 , 在前两个过程中高频分量被不断引入到神经网络的输出 , 表明模型的复杂度不断增加 。然而通过进一步训练 , 模型的高频分量在第三个阶段由上升转为下降 , 使得模型的泛化误差再次开始下降 。我们进一步发现 , 频谱的非单调变化是两种情况的组合:训练流形上的输出持续地引入高频分量来拟合噪声点 , 而非训练流形的输出频谱逐渐趋向于低频分量 。训练流形上的准确率在记忆噪声点后开始下降 , 但是非训练流形的准确率却在相同阶段持续提升 。这两种频谱现象的叠加效果最终揭示了泛化误差的二次下降 。
百度入选ICML、IJCAI、ISIT等机器学习顶会的论文都在关注什么?
文章图片

文章图片
12.不确定性感知二值神经网络
Uncertainty-aware Binary Neural Networks
二值神经网络(BNN)是一种很有前途的机器学习解决方案 , 用于在资源有限的设备上部署 。最近训练BNN的方法已经产生了令人印象深刻的结果 , 但是最小化全精确网络的精度下降仍然是一个目前面临的挑战 。其中一个原因是 , 传统的BNN忽略了权值接近于零所引起的不确定性 , 导致了学习时的不稳定性或频繁翻转 。
本文研究了接近零的权重消失的内在不确定性 , 这使得训练容易受到不稳定性的影响;同时引入了一种不确定性感知的BNN (UaBNN) , 利用一种新的映射函数确定符号(c-sign)来减少这些权值的不确定性 。本文介绍的c-符号函数是第一个训练具有降低不确定性的BNN进行二值化的函数 。该方法导致了神经网络的受控学习过程;同时还介绍了一种简单而有效的基于高斯函数的不确定度测量方法 。大量实验表明 , 该方法改进了多种BNN方法 , 提高了训练的稳定性 , 取得了比现有技术更高的性能 。
百度入选ICML、IJCAI、ISIT等机器学习顶会的论文都在关注什么?
文章图片

文章图片
13.疟疾控制的样本高效强本学习方法
Data-Efficient Reinforcement Learning for Malaria Control
论文链接: https://arxiv.org/abs/2105.01620
成本敏感任务下的序列决策通常都令人望而生畏 , 尤其是对人们日常生活有重大影响的问题 , 例如疟疾控制、治疗建议 。政策制定者面临的主要挑战是需要在与复杂环境只做几次互动的前提下 , 作出正确的策略 。本工作引入了一种实用的、数据高效的策略学习方法 , 名为方差鼓励的蒙特卡洛树搜索方法 , 它可以应对数据量极少的情况 , 并且只需几次试验就可以学习到控制策略 。具体来说 , 解决方案采用了基于模型的强化学习方法 。为了避免模型偏差 , 我们应用高斯过程回归来显示建模状态的转换(称为世界模型) 。基于这个世界模型 , 我们提出了通过估计的方差来衡量世界的不确定性 。并在蒙特卡洛树搜索中将估计的方差作为额外的奖励 , 使得探索方法能更好的平衡探索和利用 。此外 , 我们推导了方法的样本复杂度 , 结果表明方差鼓励的蒙特卡洛树搜索方法是样本高效的 。最后 , 在KDD CUP的强化学习比赛中本方法出色的表现和大量的实验结果证实了其在具有挑战性的疟疾控制任务中明显优于SOTA 。