0
点赞
收藏
分享

微信扫一扫

Microsoft Visio 快捷键 (keyboard shortcut - hotkey)

运动想象迁移学习系列:EEGNet-Fine tuning

0. 引言

深度学习网络已成功应用于传递函数,使模型可以从源域适应到不同的目标域。本研究利用多个卷积神经网络对脑卒中患者的脑电图(EEG)进行解码,设计有效的运动意象(MI)脑机接口(BCI)系统。这项研究引入了 “微调” 来传输模型参数并减少训练时间。所提出的框架的性能是通过模型的两类MI识别能力来评估的。

总得来说:这是一篇较老的文章,进一步说明了EEGNet模型的普适性与优越性(效果好且稳定)。

1. 主要贡献

  1. 比较多个模型的实验结果,可以推断EEGNet是所有框架中迁移学习的最佳网络模型
  2. 实验表明,迁移学习可以有效提高脑机接口系统对脑卒中患者康复的性能,也证明了所提框架的有效性和鲁棒性。

2. 提出的方法

2.1 EEGNet框架

在这里插入图片描述

2.2 微调

迁移学习的有效性取决于许多因素。其中,最重要的因素是原始数据与目标数据的相似性。相似度越高,“微调”效果越好。EEGNet的前几层获得的特征是基本的常规特征(例如,从前几层中提取特定的频率空间滤波器)。后几层提取特定特征(例如,模型可以分别汇总每个特征图的内核,并找到特征图的最佳组合)。

为了避免过度拟合,所提出的神经网络的 “微调” 分为以下几个步骤:

  1. 修改最后一层的输出参数。所提出的方法是冻结或重新训练前几层的参数,然后修改softmax层的类别参数。
  2. 调整模型的配置参数,适当降低学习率、步长和纪元。模型的学习率相对较低,因为有效的模型权重用于“微调”。如果学习率太高,模型可以快速更新并破坏原有的良好权重信息。在“微调”后,本研究选择打开所有图层并更新步长参数。EEGNet模型之前是在大规模数据集上进行的,无形中扩展了训练后的脑电数据,其处理性能对数据集非常有利。因此,“微调”可以改进模型,在相对较少的时期后获得更好的结果。
  3. 开始训练并加载预训练模型的参数。

3. 实验结果

3.1 各模型整体分类结果

在这里插入图片描述
模型参数:
在这里插入图片描述

3.2 算法复杂度比较

在这里插入图片描述

3.3 不同微调方法比较

在EEGNet模型上执行了三种处理方法。
第一种方法随机初始化整个网络的权重,然后放入一个新的训练数据集进行重新训练。(处理后的模型称为 EEGNet_0)。
第二种方法是在预训练模型中冻结块 1 的权重,并重新训练以下层的其余部分,以便获得新的权重(处理后的模型称为 EEGNet_1)。
第三种方法与第二种方法类似,只是冻结了块 1 和块 2 的层权重,其余相同(处理后的模型称为 EEGNet_2)。
在这里插入图片描述

4. 总结

到此,使用 EEGNet-Fine tuning 已经介绍完毕了!!! 如果有什么疑问欢迎在评论区提出,对于共性问题可能会后续添加到文章介绍中。

如果觉得这篇文章对你有用,记得点赞、收藏并分享给你的小伙伴们哦😄。

欢迎来稿

欢迎投稿合作,投稿请遵循科学严谨、内容清晰明了的原则!!!! 有意者可以后台私信!!

举报

相关推荐

0 条评论