【论文笔记】AutoLFADS (Nature Methods, 2022)

相关链接:
是否适合您的AutoLFADS教程?
https://snel-repo.github.io/autolfads/非人灵长类动物基于多通道传感器运动皮层电生理学的抓举实验
https://zenodo.org/records/3854034
Abstract
利用深度神经群体动力学模型实现最高性能时,在各个数据集上需要进行广泛且细致的超参数调优。 AutoLFADS 是一种自适应优化框架,在接受不同大脑区域及任务的数据后能自动生成高效自动编码器,并且无需额外行为或任务指导信息 AutoLFADS 的核心优势在于其能够根据输入数据动态调整编码策略以适应复杂特征提取需求 研究者通过多个恒河猴实验数据集验证了该方法的有效性和广泛适用性
Introduction
- 背景 :与ANN类似的深度生成模型(DGM)在优化过程中同样面临诸多挑战**(1)** ,这是因为它们通常需要经过复杂的超参数调优过程才能达到理想性能**(2)** 。对于LFADS而言**(3)** ,高性能模型通常是通过行为数据识别的方式被建立起来的**(4)** 。当涉及认知领域时由于行为相关性的限制这会进一步增加优化难度。
- LFADS :作为一种基于变分自编码器(VAE)的方法它利用递归神经网络(RNN)来模拟观察到神经群体活动背后的潜在动力学系统**(5)** 。具体而言该方法将分箱尖峰计数序列视为泊松过程的观测噪声给定观察到的数据序列模型推断出每个神经元在每个时间步所对应的潜在放电率值**(6)** 。从估计的角度来看该框架的目标是最大化观察到尖峰活动的可能性下限。
- AutoLFADS :这是一种无需预先设定任务关联关系的无监督学习框架它可以实现对一系列大脑区域及其对应的行为所引发神经群体动态的精准单次实验重构能力**(7)** 。值得注意的是由于AutoLFADS不依赖于任务关联信息因此它可以在不引入表征偏差的情况下自动完成模型优化这一关键步骤并且还能处理那些缺乏明确任务关联特征的真实世界神经数据集。
- 目标 :为了实现精确放电率估计必须要经过科学训练以确保其准确性这可以通过调节一系列关键超参数来进行实现例如Kullback-Leibler散度KL损失函数L2正则化系数dropout概率以及学习率等这些超参数的最佳取值往往受到数据量大小脑区间动态活动特征以及实验任务需求等多个因素的影响。
Method
AutoLFADS:该自动学习框架基于LFADS架构设计,并综合运用正则化策略(包括Coordinated dropout和CD)以及HP优化的方法(如Population-based training和PBT),以实现更高效的模型训练效果

关键挑战:过拟合(Overfitting)和欠拟合(Underfitting) * Overfitting :模型只需简单地将单个尖峰从输入传递到输出,但没有建模数据背后的任何有意义的结构 ,如上图b左所示。同时,这种错误模式无法通过标准验证指标检测 ,因为这种简单的输入输出模式在训练和验证集上的执行类似。作者将其定义为“identity overfitting ”,区别于简单的训练集过拟合。如上图c所示,看似具有最佳可能性的模型实际上对潜在放电率的推断很差(红色三角)。
* Underfitting :如上图b右所示,放电率以及Spike的推断结果都很差,可能模型根本没有训好,不在本文讨论范围内。
The CD technique is a highly innovative regularization mechanism, capable of effectively preventing identity overfitting.
- 如上图d所示,在每个训练步骤中, 常规 dropout 技术应用于输入数据元素(即尖峰计数bins)。具体而言, 输入数据张量中的随机元素会被置零(蓝色标记区域), 而其余未置零的部分则会被放大, 以确保这些未丢失信息的损失梯度能够得到保留, 从而有效防止模型在尖峰重建过程中发生过度拟合现象(用彩色箭头表示)。
- 等同于说, 在经过随机 dropout 处理后, 参与实际训练的数据样本所对应的梯度计算会停止(即不再更新权重参数), 而那些正常具备梯度计算能力的样本则其输入值会被设为0. 这种机制设计能够完美地避免出现"模型仅简单地将单个尖峰从输入传递到输出"这一问题的发生(因为单个神经元无法独立完成重建任务)。
- 基于模拟数据集的实验结果表明, 如上图e所示, 当引入 CD 正则化策略时, 模型逐渐呈现出放电率与spike推断更为准确的发展方向。通过有效避免出现"恒等过度拟合"现象(identity overfitting), CD 正则化方法成功地恢复了验证集上的spike似然值与放电率重建之间的合理对应关系, 并使似然评估成为选择优化模型的重要指标。
Population-based training (PBT) :采用基于种群的训练策略作为优化神经网络超参数的技术手段。
在传统的超参数优化方法中,在每一轮迭代中都会尝试不同的超参数组合,并最终选择具有最佳性能的组合用于模型训练。PBT 则通过模拟进化的方式来实现超参数优化 。具体而言,在 PBT 方法中会首先随机生成一组初始超参数,并初始化多个模型(称为种群)。在每一轮迭代中,在当前训练阶段表现较好的模型会作为模板对其他模型进行微调优化;如果某个模型的表现不佳,则将其超参数替换为表现较好的模型的参数值,并重新开始训练以期获得更好的性能效果。这种机制使得 PBT 方法能够通过不断探索新的超参数空间并有效利用已有模型信息来逐步提升整个种群的整体性能。
通过这种方式,在大规模超参数调参过程中PBT 方法能够更加高效地利用计算资源 ,从而显著缩短寻找最优超参数的时间成本并提高最终模型性能。

Results

- 图 a-b:猕猴在迷宫任务中用于建立模型,并通过小数据集实现了显著优于LFADS手动调整结果的基础性能。
- 图 c-e:随机到达任务中发现,在不依赖运动信息的情况下建模的数据集下,
重建试验期间推断出的放电率在基础状态空间中表现一致,
并且与猴子每次到达的方向相对应具有清晰结构(图d)。
同时AutoLFADS在手部速度解码方面超越了LFADS基于随机搜索的方法(图e)。
AutoLFADS成功地在不接收任何任务结构信息的情况下,
推断出速度、位置以及目标子空间的变化速率。 - 图 f-g:当猴子面对可能产生阻力的目标到达任务时,
基于AutoLFADS推断发放率所得的不同关节角速度解码能够比平滑或高斯过程因子分析(GPFA)方法得到的速度更加精确(图g)。 - 图 h-j:时间间隔推断任务中发现,
AutoLFADS捕捉到了之前观察到的两种响应模式刺激周围的PSTH时间依赖排序(图i);
与基于平滑、GPFA及LFADS随机搜索方法计算的速度相比,
单次试验基础上AutoLFADS计算的速度与tp的相关性更强(图j)。 - 尽管不依赖任何任务信息,
AutoLFADS推断出的相关性超越了所有无监督方法,
其性能与监督模型相当。
AutoLFADS成功地揭示了单次试验神经数据的独特表征特性,
而无需明显的行为相关性,
这为认知科学领域的创新应用开辟了新的研究方向。

监督模型选择存在一个显著的缺点, 即尚不明确是否存在一种标准的选择方式能够在应用其他标准时同样表现出良好的效果。
- 图 k-m:AutoLFADS 模型学习的表现被LFADS最佳随机搜索算法在所有监督指标上所达到或超越。
**不同类型的随机搜索算法在某些性能指标上表现出明显的差异,并且这种选择会直接影响结果的质量。**例如,在图 l 中采用基于运动学解码的随机搜索算法会导致PSTH重建效果不佳。
Discussion
- 科学的模型优化策略使 AutoLFADS 通过广泛的大脑区域和任务的数据成功构建了丰富的神经活动动态模型,在无需明显的行为或任务信息的情况下展现出良好的数据集规模适应性。
在所有测试场景中,尽管 AutoLFADS 在训练或模型选择期间完全未利用行为信息,在行为指标方面其性能表现均不低于最佳 LFADS 模型。 - AutoLFADS 继承了 LFADS 的一些基本假设(如线性指数泊松观测模型),这一设定可能过于简化。
作者将这种架构作为起点来证明大规模 HP 搜索是可行且有益的。
通过启用大规模搜索机制,则有理由相信未来任何因架构更改而获得性能优势的变化都将源自实质性的建模功能差异而非 HP 优化不足。 - 总而言之,AutoLFADS 提供了一个高度可扩展的框架,在单次实验中实现了对神经动力学精度前所未有的推断能力。
其开放性和通用性使其得以在一个统一框架内研究跨大脑区域和任务之间的动态计算关系。
学术会议征稿
会议官网
创作不易,麻烦点点赞和关注咯!
