Advertisement

论文笔记-Temporal Extension Module for Skeleton-Based Action Recognition

阅读量:

Hello, 今天是论文阅读的第八天啦

目前觉得每天一篇略显吃力吧?不过按照先前约定好的30天论文阅读打卡计划来做还是有动力坚持下来的呢?就像参考怡姐姐的观点:什么是爱自己?就是用心去做每一个承诺都全力以赴地实现它对吧!这样确实能感受到一种力量感呢!

因此为实现这一计划目标 起见 我已下定决心作出必要的修改 已经从今天开始执行新的作息安排 即每日严格按照早上的时间段安排作息 接下来我会按照这个规划坚持执行下去

给自己加油打气!

一、解读题目关键词

Temporal Extension Module : Time extension module. Apparently, it suggests that the module is focused on temporal processing. Given that the original paper's temporal processing is rather simplistic and neglects intricate aspects, adding extensions becomes a natural progression. Extending further would require a deeper exploration of the underlying computations in Graph Convolutional Networks (GCNs). This necessitates understanding how to design temporal dependencies within this framework.

二、研究背景

本文在ST-GCN框架下进行了优化。针对原论文在时序信息处理方面的处理方式相对单一且不够完善,并非最佳选择,因此对原有方法进行了优化。

三、研究目标

改进的原因和想法:

原时间卷积具有以下局限性:仅在相同帧时才能获取邻接节点信息;即使在同一帧内也只能实现关节点与其邻接节点之间的关联性,并不能实现同一关节点在不同帧间的关联性。

作者将时间序列的一个子集设定为3个片段,并非仅局限于局部信息的关注;而是通过深入挖掘与自身相关的时空特征的同时关注其邻近节点的空间关系来实现网络行为建模的目标。

该研究者开发了一种时序延伸组件,并将其整合到原有论文的空间卷积层与时间卷取层之间。传统的时空卷取器主要关注同一关节点沿时间轴的一连串动作片段,在这种设计下系统只能获取单一同一关节点沿时间轴的一连串动作片段的相关特征。具体而言该组件的工作原理在于将原先仅限于同一节点前后帧信息的方法优化为了能够同时考虑当前节点及其邻近节点的信息从而增强了模型对动作细节的变化捕捉能力

四、方法

在这里插入图片描述

总体而言,在现有研究中基于GCN的空间与时间特征提取方法主要经历了两个阶段:首先是从当前时间点提取空间信息;接着是从历史时间段中获取长期的时间信息。在此过程中,并未破坏原有空间与时间卷积的基本架构。为此,在传统的空间图卷积与时间图卷积之间增加了我们的模块:首先执行传统的空间图卷积;接着进行模块内的时序处理;最后完成传统的时间图卷积。为此,在传统模型的基础上增加了这一关键组件:通过引入额外的时序编码机制来捕捉更丰富的动态特性。值得注意的是,在此过程中并未破坏原有空间与时间卷积的基本架构。

在这里插入图片描述
在这里插入图片描述

性能:

在这里插入图片描述

五、总结

这篇论文缺乏相应的开源代码支持,则无法实现深入细致的学习。
如果有人希望快速入门掌握相关知识,
可以通过研究那些公开提供了完整代码的顶级会议论文来系统性地理解这些技术。
通过持续深入地学习和实践积累经验逐步提升自己的技术水平。

全部评论 (0)

还没有任何评论哟~