成像时间序列改进分类和插补外文翻译资料

 2021-12-27 10:12

英语原文共 7 页

成像时间序列改进分类和插补

王志光,蒂姆·奥茨

计算机科学与电气工程系

摘要

受最近成功的计算机视觉深度学习启发,我们提出了一种将时间序列编码为不同类型图像的新框架,即Gramian角和/差场(GASF/GADF)和Markov跃迁场(MTF)。这使得计算机视觉技术能够用于时间序列分类和插补。我们在20个标准数据集上使用tiled卷积神经网络(tiled cnns)从单个和复合的GASF-GADF-MTF图像中学习高级特征。与当前的9种最佳时间序列分类方法相比,我们的方法获得了高度竞争的结果。受Gasf对0/1重标数据的双射特性的启发,我们对四个标准和一个合成复合数据集的Gasf图像进行去噪自动编码器(DA)的训练。与使用原始数据相比,测试数据的插补MSE减少了12.18%-48.02%。对通过平铺CNN和DAS学习的特性和权重的分析解释了这种方法的工作原理。

1 介绍

自2006年以来,从深层神经网络(或深层学习)发展而来的技术极大地影响了自然语言处理、语音识别和计算机视觉研究[Bengio, 2009; Deng and Yu, 2014]。卷积神经网络(CNN)是用于计算机视觉的一种成功的深度学习体系结构[LeCun et al., 1998]。CNN利用翻译不变性,通过接受域提取特征[Hubel and Wiesel, 1962]并通过权重分享学习,成为各种图像识别和计算机视觉任务中最先进的方法[Krizhevsky et al., 2012]。由于无监督预训练已被证明可以提高性能[Erhan et al., 2010],稀疏编码和地形独立分量分析(TICA)被整合为无监督预训练方法,以学习具有复杂不变性的更多多样性特征[Kavukcuoglu et al., 2010; Ngiam et al., 2010]。

随着无监督预训练方法在深度学习中的成功应用,其他人也在研究生成模型的无监督学习算法,如深度信念网络(DBN)和去噪自动编码器(DA)[Hinton et al., 2006; Vincent et al., 2008]。许多深生成模型是基于能量模型或自动编码器开发的。时间自动编码与受限的 Boltzmann机器(RBMS)集成,以改进生成模型[Hausler–et al.,2013]。受最近基于优化学习的研究启发,提出了一种训练策略,用于训练复杂神经网络的插补任务[Brakel et al., 2013]。广义去噪自动编码器扩展了理论框架,并应用于深生成随机网络(dgsn)[Bengio et al., 2013; Bengio and Thibodeau-Laufer, 2013]。

受最近计算机视觉中有监督和无监督学习技术的成功启发,我们考虑将时间序列编码为图像的问题,以允许机器“视觉”识别、分类和学习结构和模式。将时间序列的特征重新表述为视觉线索在计算机科学和物理学中引起了广泛的关注。在语音识别系统中,声音/语音数据输入通常由连接的Mel频率倒谱系数(MFCCs))或感知线性预测系数(PLPs)表示[Hermansky,1990]。最近,研究人员正试图从时间序列中构建不同的网络结构,以便进行目视检查或设计距离测量。递归网络被用来分析复杂系统时间序列的结构特性[Donner et al., 2010; 2011]。他们根据预先定义的递归函数建立邻接矩阵,将时间序列解释为复杂的网络。Silva等人利用压缩距离扩展了时间序列分类的递推图范例[Silva et al., 2013]。建立加权邻接矩阵的另一种方法是从一阶马尔可夫矩阵中提取过渡动力学[Campanharo et al., 2011]。尽管这些映射在不同的时间序列中表现出不同的拓扑性质,但由于它们没有精确的逆运算,因此这些拓扑性质与原始时间序列之间的关系仍然不清楚。

我们提出了三种新的将时间序列编码为图像的方法,我们称之为格拉曼角和/差场(GASF/GADF)和马尔可夫跃迁场(MTF)。我们应用了深层卷积神经网络(Tiled CNN)[Ngiam et al., 2010]对20个标准数据集上的时间序列图像进行分类。我们的实验

结果表明,我们的方法在20个标准数据集中的9个数据集上取得了最好的性能,和9个至今最佳分类方法相比较。受Gasf对0/1重标数据的双射特性的启发,我们将去噪自动编码器(DA)训练为4个标准的Gasf图像和合成的复合数据集。与原始数据相比,测试数据的插补MSE减少了12.18%-48.02%。对通过平铺CNN和DA学习到的特征和权重的分析解释了这些方法的工作原理。

2 成像时间序列

我们首先介绍将时间序列编码为图像的两个框架。第一类图像是格拉姆角场(GAF),其中我们在极坐标系中表示时间序列,而不是典型的笛卡尔坐标系。在格拉姆矩阵中,每个元素实际上是角的和的余弦。受之前关于时间序列和复杂网络之间二元性的研究的启发[Campanharo et al., 2011],第二个框架马尔可夫跃迁场(MTF)的主要思想是离散化后建立分位数仓的马尔可夫矩阵,并将动态跃迁概率编码为准格拉姆矩阵。

2.1格拉姆角场

给定实际值观测的时间序列x1,x2,hellip;,xn,我们重新缩放,使所有值在区间[minus;1,1]或[0,1]中下降。具体数学表达如式(1)和式(2)。

因此,我们可以用极坐标表示重新标定的时间序列,方法是将该值编码为角余弦,将时间戳编码为半径,公式如下:

在上面的方程中,ti是时间戳,N是调整极坐标系跨度的一个常量。这种基于极坐标的表示方法是理解时间序列的一种新方法。随着时间的增加,相应的值会在生成圆上的不同角度点之间发生扭曲,如水涟漪。式3的编码图具有两个重要性质。首先,它是双射的,因为cos(phi;)在phi;isin;[0,pi;]时是单调的。在给定时间序列的情况下,所提出的映射在极坐标系中产生一个唯一的反映射结果。其次,相对于笛卡尔坐标,极坐标保持绝对时间关系。我们将在今后的工作中对此进行更详细的讨论。

不同间隔的重缩放数据有不同的角度界限。[0,1]对应于中的余弦函数,而区间中的余弦值[-1,1]落入角边界[0,pi;]。正如我们稍后将讨论的,它们为分类任务提供了不同的Gramian角场信息粒度,并且[0,1]重新扫描数据的Gramian角差场(GADF)具有精确的逆映射。该性质实际上是通过恢复图像来填补时间序列缺失值的基础。

将重新标定的时间序列转化为极坐标系后,我们可以通过考虑各点之间的三角和/差,很容易地利用角度透视图来识别不同时间间隔内的时间相关性。格拉曼和角场(GASF)和格拉曼差分角场(GADF)定义如下:

I是单位行向量[1,1,hellip;,1]。在转换到极坐标系后,我们将每个时间步的时间序列作为一维度量空间。通过定义内积lt;x,ygt;=x*y-*和lt;x,ygt;=y*-x*,两种格拉姆角场(GAF)实际上是拟格拉姆矩阵。。

GAFs有几个优势。首先,它们提供了一种保持时间依赖性的方法,因为时间随着位置从左上到右下移动而增加。GAF包含时间相关性,因为它通过叠加/方向差表示时间间隔的相对相关性。主对角线是当=0时的特殊情况,它包含原始值/角度信息。从主对角线可以从深层神经网络学习到的高层次特征重构时间序列。然而,当原始时间序列的长度为times;n时,由于Gramian矩阵的大小为times;n,GAF较大。为了减小GAFs的尺寸,我们采用分段聚合近似(PAA)[Keogh and Pazzani, 2000] 来平滑时间序列,同时保持趋势。生成GAF的完整流程如图1

2.2马尔可夫跃迁场

我们提出了一个类似于Campanharo等人的框架。对于动态过渡统计量的编码,我们通过依次表示马尔可夫转移概率来扩展这一思想,从而在时间域中保存信息。

给定一个时间序列,我们识别它的分位数区间,并将每个区间分配给相应的区间qj(jisin;[1,Q])。因此,我们以一阶马尔可夫链的方式沿时间轴计算分位数仓间的跃迁,构造了一个Qtimes;Q加权邻接矩阵。其元素由分位数中的一个数据点后接分位数中的另一个数据点的概率给出。对其归一化后便形成马尔可夫转移矩阵。它对时间步长的分布和时间依赖性不敏感。然而,我们的实验结果表明,消除时间依赖性会导致矩阵中的信息丢失过多。为了克服这个缺点,我们定义了马尔可夫跃迁场(MTF),如下所示:

我们通过将数据(数量)划分为分位数区间,建立了一个Qtimes;Q马尔可夫转移矩阵。在时间戳i和j上包含数据的分位数容器是qi和qj(qisin;[1,Q])。在MTF中对应位置的元素值为qi→qj的转移概率。也就是说,我们通过考虑时间位置,将震级轴上包含转移概率的矩阵展开为MTF矩阵。

通过将时间步分位数的转移概率值赋值给矩阵对应位置,MTF实际上编码了不同跨度的时间序列点上的转移概率。为了减小MTF的尺寸,我们可以使用一个mtimes;m的模板,通过移动模板来取模板覆盖数据的平均值来实现。图2展示了将时间序列编码为MTF的流程。

3使用GAF/MTF和平铺CNN对时间序列进行分类

我们应用平铺CNN对来自医学、昆虫学、工程、天文学、信号处理等不同领域的20个数据集[Keogh et al., 2011]使用GAF和MTF表示对时间序列进行分类。数据集被预先划分为训练集和测试集,以便于进行实验比较。我们将我们的GASF-GADF-MTF方法的分类错误率与之前公布的3种表现很好的方法和6种最近提出的最佳方法的结果进行了比较

3.1Tiled 卷积神经网络

Tiled 卷积神经网络是卷积神经网络的一种变体,它使用Tiled和多个特征映射来学习不变的特征。Tiled由Tiled尺寸大小参数化,以控制共享权重的距离。通过生成多个特征图,平铺的CNN通过使用TICA进行无监督的预训练来学习过度复杂的表示。为了节省空间,请参考[Ngiam et al., 2010]了解更多详细信息。本文中使用的Tiled CNN结构如图3所示。

3.2实验设置

在我们的实验中,GAF图像的大小是由PAA盒的数量来调节的。给定时间序列的大小,我们将时间序列沿时间轴划分为相邻的、不重叠的窗口,并提取每个bin的平均值。这使我们能够构造更小的GAF矩阵。MTF要求将时间序列离散成分位数的子元,计算出Qtimes;Q马尔可夫转移矩阵,然后从中构造出原始的MTF图像。分类前,我们用模糊核mtimes;m将MTF图像尺寸缩小到SMTFtimes;SMTF。使用尺寸为{ SGAF , SMTF}isin;{16,24,32,40,48}的图像来训练CNN网络。

对于图像大小或分位数大小的每个输入,我们用完整的未标记数据集(训练集和测试集)对Tiled CNN进行预训练,以通过TICA学习初始权重。然后通过交叉验证选择罚因子对最后一层的支持向量机进行训练。最后,我们使用最佳超参数s,q,c对测试集进行分类,在训练集上的错误率最低。如果两个或两个以上的模型联系在一起,我们更喜欢更大的模型,因为更大的模型有助于通过PAA过程保存更多的信息,而更大的模型则更详细地编码动态转换统计信息。我们的模型选择方法提供了泛化,而不需要过于昂贵的计算。

3.3 结果和讨论

我们使用Tiled CNN对20个数据集上的单个GASF、GADF和MTF图像以及复合GASF-GADF-MTF图像进行分类。为了节省空间,我们不在单通道图像上显示完整的结果。一般来说,我们的方法不容易因训练和测试集错误之间的相对较小差异而过度拟合。一个例外是采用MTF方法的橄榄油数据集,其中测试误差明显较高。

除了潜在的过度拟合风险外,我们发现MTF通常比GAF有更高的错误率。这很可能是因为MTF的逆映射中存在不确定性。请注意,从minus;1/1重新调整时间序列到GAF和MTF的编码函数都是推测。GAF和MTF的映射函数将分别为每个给定的时间序列生成一个固定的图像。因为它们都是投影映射函数,所以两个映射函数的逆图像是不固定的。然而,GAF在0/1重标时间序列上的映射函数是双射的。如后一节所示,我们可以从GASF的对角线重建原始时间序列,但是从MTF中粗略地恢复信号是非常困难的。即使是对minus;1/1的重标数据,GAF在其映射函数的逆图像中也具有较小的不确定性,这种随机性只来源于phi;isin;[0,2pi;]时cos(phi;)的模糊性。另一方面,MTF具有更大的逆图像空间,当我们试图恢复信号时,会导致很大的变化。虽然MTF编码的过渡动力学是时间序列的重要特征,但这些特征本身似乎不足以用于识别/分类任务。

注意,在每个像素上,Gij表示ti和tj时刻在方向上的差异,Mij是分位数ti到分位数tj的转换概率。GAF编码静态信息,而MTF描述动态信息。从这个角度来看,我们认为它们是三个“正交”的通道,就像RGB图像空间中的不同颜色一样。因此,我们可以将相同大小的GAF和MTF图像结合起来构建三通道图像(GASF-GADF-MTF)。它结合了原始时间序列中嵌入的静态和动态统计信息,我们假定它能够提高分类性能。在下面的实验中,我们在合成的GASF-GADF-MTF图像上预处理和调整Tiled CNN。然后,我们报告了测试集的分类错误率。在表1中,基于GASF-GADF-MTF图像的Tiled CNN分类器与其他9种最先进的时间序列分类方法取得了显著的更优结果。

4时间序列的GASF图像恢复

如前所述,从minus;1/1重新调整时间序列到GAF的映射函数是推测。反演图像的不确定性来源于phi;isin;[0,2pi;]时cos(phi;)的模糊性。然而,0/1重定标时间序列的映射函数是双射函数。GASF的主对角线即Gii=cos(2phi;i)允许我们精准地重构原始的时间序列

因此,我们可以通过恢复“破碎”的GASF图像来预测时间序列中的缺失值。在训练过程中,我们手动将“盐和胡椒”噪声(即随机将多个点设置为0)添加

资料编号:[3370]

原文和译文剩余内容已隐藏,您需要先支付 30元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。