0
点赞
收藏
分享

微信扫一扫

d2l_第九章_RNN循环神经网络

一天清晨 2023-07-06 阅读 177

x.1 Sequence model

经过前面的学习,我们已知数据大于算法。而以数据为驱动的前提下,我们提出了各种模型。为了适配表格数据,提出了MLP;为了适配图像数据提出了CNN;而对了适配序列数据,我们提出了RNN。

目前为止的数据的样本都符合iid独立同分布特点,但是对于音频,文本中的单词等,都是有顺序的,即他们是序列信息,并不符合独立同分布的特点。故本章节将考虑到时间动力学,根据文本信息处理文本数据。

autoregressive model自回归模型:使用长度为tau的序列 {xt-1, …, xt-tau} 来预测xt时刻的结果。

latent autoregressive model隐变量自回归模型:在使用长度为tau的序列 {xt-1, …, xt-tau} 来预测xt时刻的结果的同时,还加入了对过去预测结果的总结。

请添加图片描述

Markov model马尔科夫模型:当我们使用的是长度为tau的序列进行预测,而不是一整个过去所有的序列进行预测,我们就说序列满足马尔科夫条件,当tau为1时就得到一阶马尔可夫模型,下式就是一阶的:

请添加图片描述

k-step-ahead-prediction k步预测:对于直到xt的观测序列{x1, … , xt},其在时间步t+k处的预测输出xt+k称为k步预测。即要用预测的数据进行多步预测,在误差累计后,precision精度会迅速下降。

x.2 将raw text文本信息转换为sequence data序列信息

这一步最重要的就是将text文本数据转为token

corpus语料库即text,存在很多重复的token,将text转成sequence data的本质就是将text转成token,再将token根据vocabulary映射成number。这之中的token的定义是:每一个时间步预测的timestep,是text中的原子组成部分,独一无二,最小单元。

举报

相关推荐

0 条评论