With Hurricane Irma recently pummeling pretty much the entire state of Florida, I got to wondering where past hurricanes have hit the state. Let’s get some data, and figure out how to best analyze it using SAS software! I did a bit of web searching, an…
Category: SAS
Algorithmic pricing with Redis
The algorithmic pricing is an exciting new area, and it combines engineering and mathematics. Chen’s paper has introduced the algorithmic pricing on Amazon Marketplace. This post is to discuss the implementation of an algorithmic pricing based on Redis from the perspective of the sellers.
The background
- Each of Amazon’s ASINs will have many sellers that compete each other.
- Amazon has a ranking mechanism for Buy Box, say, to punish a new seller. But for the same ASIN, the seller who has the lowest price usually wins the Buy Box.
- For each ASIN, each of many sellers will have an optimal price (the price they want to sell) and a lowest acceptable price (they cannot sell if the price is below it).
- Amazon allows a seller to change price for an ASIN every 15 minutes.
- Why 15 minutes? Because Amazon said that it takes up to 15 minutes for all systems to converge to the new price. But it is not exactly true. Amazon MWS uses 4 data centers in North America and data synchronization is not that fast for each of the databases or each of the data centers.
- Amazon MWS has APIs. But don’t rely on it, and build your own crawlers and price adjustor. The reasons are explained later.
- The sellers’ target variables are mainly
- Buy Box take-over percentage (how they beat the other competitors)
- Profit margin (the higher prices they sell goods at, the better)
How an algorithmic pricing engine works
The overall infrastructure may include three parts.
1. The distributed crawler
Amazon most time allows a crawler running 1 QPS/IP. But all the data centers and all ASINs from the seller and his competitors have to be closely watched. So a distributed approach will be safer. The response time will be crucial to decide which one is the winner within the game. In a common chasing diagram below, clearly Seller 1 has the upper hand and Seller 2 is losing the group, since the crawler from Seller 1 is faster.
2. The algorithm core
The embedded algorithm will have two purposes
- Analyze the data from the crawler and detect other competitors’ optimal price/lowest acceptable price and strategy.
- Adjust price according to an algorithm. The strategy can be either as simple as “minus one cent from the current competitor’s price”, or as complicated as machine learning or deep learning.
3. The price adjustor
The computed price will enter Amazon and become effective. Amazon will rank lower for the sellers whom he thinks doing algorithmic pricing. Sometimes Amazon even bans the seller. So don’t let Amazon to find that a computer is manipulating its APIs. To emulate human’s behavior on a browser, the two options are phantom.js and headless Chrome.
The role of Redis
Redis is a in-memory data store, which supports persistence and sharding. The first usage for this algorithmic pricing engine is that it can be used as a centralized task scheduler for the crawlers. Besides that, some other interesting fields in algorithmic pricing could be explored and utilized with Redis.
1. Predicative pricing
Redis as a cache has support for TTL(time to live). With the accumulation of the data, the competitors’ price changing time could be predicted. In the publisher-subscriber model, each time the predicted duration for next price changing can be inputted as an expiring key with TTL. Once the key expires, the publisher dispatches a crawling task and makes the price adjustment. The good thing for this approach is that the crawlers don’t need to tap a single web page from Amazon every second that brings the risk of being banned.
+--------------------+
| Subscriber |
+--------------------+
| |
| + psubscribe():void| +--------------+
| | | PubSub |
+--------------------+ +--------+-----+
^
|
+--------------------------------+-----+
| Publisher |
+--------------------------------------+
| |
| + calculateNextTTL():int |
| + onPMessage():void |
| + dispatchCrawler():boolean |
| |
+--------------------------------------+
2. Cross-data-center hedging
The synchronization mechanism across the data centers costs time sometimes hours. That is the reason why we see different prices at different IPs of Amazon at the same time. People will also have different purchasing behavior pattern at different time. Since a seller has the option to change price at a specified data center with IP instead of domain name, it will be an interesting topic to utilize the cool down time for the price to spread to the overall network and make a hedging. Redis’ capacity to keep all prices as hashes in memory will be helpful to spot those valuable occasions.
INSET in Proc SGPLOT
INSET “Mean of the best percent change = &pmean.” / position = bottomleft;Example: Click Here and Here
Using FILENAME ZIP and FINFO to list the details in your ZIP files
It’s time to share another tip about working with ZIP files in SAS. Since I first wrote about FILENAME ZIP to list and extract files from a ZIP archive, readers have been asking for more. Specifically, they want additional details about the files that are contained in a ZIP, including […]
The post Using FILENAME ZIP and FINFO to list the details in your ZIP files appeared first on The SAS Dummy.
What cities are in Hurricane Irma’s path?
As Hurricane Irma makes its way through the Caribbean, and heads towards the United States, the big question on everyone’s mind … is the hurricane going to hit my city? Or, as some people like to say, “should I buy milk & bread?” Let’s analyze & map some data to […]
The post What cities are in Hurricane Irma’s path? appeared first on SAS Learning Post.
How rare are Category 5 hurricanes?
I suppose we’ve all been watching Hurricane Irma rip through the Caribbean like a giant buzzsaw blade, with wind speeds over 180mph. This is one of those rare Category 5 storms. But just how rare are Category 5 hurricanes? According to the Wikipedia page, hurricanes with wind speeds >=157mph are […]
The post How rare are Category 5 hurricanes? appeared first on SAS Learning Post.
A VGG-like CNN for fashion-MNIST with 94% accuracy
In many introductory to image recognition tasks, the famous MNIST data set is typically used. However, there are some issues with this data:1. It is too easy. For example, a simple MLP model can achieve 99% accuracy, and a 2-layer CNN can achieve 99% a…
如何零基础使用KERAS搭建实用深度模型
在这篇小文章中,我们将简要讨论如何使用KERAS这个现在最新的深度学习框架来构造实用的深度学习模型。
深度学习是目前最热门的高级分析技术之一,在很多方面表现出了超越传统机器学习方法的有效性。但是在常用的TensorFlow,CNTK,Theano等计算环境中实现不同的深度学习模型仍然需要耗费很多时间来编写程序。KERAS的出现提供了一个高度抽象的环境来搭建深度学习模型,特别是其简单易用,跟网络结构一一对应的特点使得其迅速在数据科学家这个使用人群中流行起来。
## 什么是KERAS
KEARS是Google工程师François Chollet为主创人员,基于Python开发和维护的一个抽象的神经网络建模环境,提供了一系列的API供用户调用构造自己的深度学习网络。KERAS的出发点就是为用户提供一个能够快速实现模型的手段,从而缩短建模迭代的时间,加快模型试验的频率。用KERAS开发者的话说,就是要做好的科研必须尽可能地缩短从想法到实现结果的时间。在业界工作中这也是成功的关键要素之一。
相比较于常见的深度学习环境,比如TensorFlow,CNTK,Theano,Caffe等,KERAS有以下几个不同:
1. 设计初衷就是方便以模块化地方式快速构造深度学习模型的原型;
2. 可以很方便地在CPU和GPU之间切换
3. KERAS本身只是描述模型的环境,其计算平台目前依赖于TensorFlow,CNTK和Theano这三种,以后会拓展到其他流行的计算平台上,比如mxNet等;
4. KERAS的拓展性既可以通过自定义KERAS里的激活函数或者损失函数等能自定义的部分进行,也可以通过引用对应的计算平台的自定义部分进行,具有一定的灵活性;
跟这些流行的计算平台一样,KERAS也支持常见的深度学习模型,比如卷积神经网络,循环神经网络以及二者的组合等。
使用KERAS构造深度神经网络有一系列相对固定的步骤:
1. 首先要将原始数据处理成KERAS的API能够接受的格式,一般是一个张量的形式,通常在维度上表示为(批量数,[单一样本对应张量的维度])。这里[单一样本对应张量的维度] 是一个通用的说法,对应于不同类型的模型,数据有不同的要求。 通常,如果是一个简单的全链接模型,则单一样本对应张量的维度就是特征个数; 如果是一维的时间序列数据,并要用循环神经网络模型训练的话,则单一样本对应张量的维度是时间步和每个时间步对应的回看序列长度; 如果输入数据是图像,并使用卷积神经网络模型进行训练,则单一样本张量对应图像的高,宽和色彩频道三个维度。但是如果是使用全连接模型训练图像数据,则单一样本对应张量是该图像扁化(Flatten)以后的向量长度,其为高,宽和色彩频道各个维度数量的乘积。一般卷积神经网络最靠近输出层的那层都设置一个全连接层,因此也需要扁化输入张量。
2. 其次要构造需要的深度学习模型。这一步又分为模型的选择和模型的细化两个步骤:
– 选择模型的类型。KERAS里定义了两大类模型
1)序列模型(Sequential);
2)通用模型(Model)。
序列模型指的是深度模型每一层之间都是前后序列关系,如下图所示:
Figure 1。MLP是一个典型的序列模型,[图片来源](http://article.sapub.org/10.5923.j.ajis.20120204.01.html) 可以看到从左到右,输入层到隐含层到输出层每一层之间都是前后依次相连的简单关系。这个简单的网络结构可以用三句KERAS命令实现:
model=Sequential()
model.add(Dense(5, input_shape=(4,), activation=’sigmoid’))
model.add(Dense(1, activation=’sigmoid’))
而通用模型则是对应更广义的模型,具备更大的灵活性。上面提到的序列模型也可以用通用模型来表达,这个我们在后一节详解。 当然通用模型更能用来描述层与层之间有较复杂关系的情况,比如非相邻的层之间进行连接,或者多个神经网络的合并等。比如我们可以使用通用模型进行矩阵分解:
user_in = Input(shape=(1,), dtype='int64', name='user_in')
u = Embedding(n_users, n_factors, input_length=1)(user_in)
movie_in = Input(shape=(1,), dtype='int64', name='movie_in')
v = Embedding(n_movies, n_factors, input_length=1)(movie_in)
x = merge([u, v], mode='dot')
x = Flatten()(x)
model = Model([user_in, movie_in], x)
model.compile(Adam(0.001), loss='mse')
这里构造了一个基于矩阵分解的推荐系统的一个深度学习模型,其对应的网络结构如下图所示:
Figure 2。矩阵分解的深度学习模型
– 细化模型的结构。其实上面已经展示了模型结构细化之后的情况。一般来说,确定了模型类型以后,其结构不外乎每层的类型是什么,是全连接层还是卷积层还是放弃(Dropout)层;每层的其他参数是什么,比如如果需要指定激活函数,那么使用什么样的激活函数,如果是卷积层,那么需要多少过滤器,每个过滤器的大小是怎样的?等等这些都可以通过设定不同的参数进行细化。
3. 然后对模型进行编译,编译完成以后可以查看模型的基本信息,特别是参数的数量;
4. 最后带入数据对模型进行拟合。一般来讲,如果数据是静态的张量数据,通过使用fit方法。如果数据特别大,可是使用可迭代的data generator对象,并使用fit_generator方法来拟合。
## KERAS和深度学习模型的对应关系
KERAS既然是开发出来快速构造深度学习模型的工具,那么它的API和深度学习模型的要素都有很强的对应关系。 正如上面所说,目前的深度学习模型都可以纳入序列模型或者通用模型的,那么我们用图示的方式来表示这个对应关系,方便读者理解。这里网络图为了方便与按行排列的代码对应,对每一层都进行了标注。 下图展示的是一个典型的全连接序列模型:
Figure 3。全连接序列模型,修改自[博客](http://www.samyzaf.com/ML/pima/pima.html)
这个序列模型可以使用如下的KERAS命令快速搭建:
Model = Sequential()
Model.add(Dense(10, activation=’sigmoid’,
input_shape=(8, )) 【隐含层1+输入层】
Model.add(Dense(8, activation=’relu’)) 【隐含层2】
Model.add(Dense(10, activation=’relu’)) 【隐含层3】
Model.add(Dense(5, activation=’softmax’)) 【输出层】
上面的序列模型也可以用通用模型的API描述的结果,其与图中的网络结构有更强的对应关系:
x = Input(shape=(8,)) 【输入层】
b = Dense(10, activation=’sigmoid’)(x) 【隐含层1】
c = Dense(8, activation=’relu’)(b) 【隐含层2】
d = Dense(10, activation=’relu’)(c ) 【隐含层3】
out = Dense(5, activation=’softmax’)(d) 【输出层】
model = Model(inputs=x, outputs=out)
上面也举了另外的比较复杂的例子。在后面的具体案例中,我们也会强调网络结构和对应的KERAS命令,使读者能建立起较强的联系。 ##使用KERAS构造深度推荐系统 推荐系统是机器学习最广泛的应用领域之一,大家熟悉的亚马逊、迪士尼、谷歌、Netflix 等公司都在网页上有其推荐系统的界面,帮助用户更快、更方便地从海量信息中找到有价值的信息。比如亚马逊(www.amazon.com)会给你推荐书、音乐等,迪士尼(video.disney.com)给你推荐最喜欢的卡通人物和迪士尼电影,谷歌搜索更不用说了, Google Play、 Youtube 等也有自己的推荐引擎、推荐视频和应用等。下面是我登陆亚马逊之后的一个推荐页面,可见我之前应该是购买了咖啡机,所以会有相关的产品推荐出来。
Figure 4。亚马逊的推荐页面局部
推荐系统的最终目的是从百万甚至上亿内容或者商品中把有用的东西高效地显示给用户,这样可以为用户节省很多自行查询的时间,也可以提示用户可能忽略的内容或商品,使用户更有黏性,更愿意花时间待在网站上,从而使商家可以从内容或者商品中赚取更多的利润,即使流量本身也会使商家从广告中受益。
传统上,推荐系统是基于矩阵分解的协同过滤算法,前面也展示了这样的一个简单模型。下面我们着重介绍深度学习推荐系统。这个模型除了能将用户和可选产品联系起来意外,还能将其他辅助数据,比如用户年龄,地区,上网设备以及各种产品属性,联系起来。
这里通过嵌入(Embedding)这种技术将不同的信息串在一起作为输入层,再继续搭建不同的神经网络模型,最后一层用预测评分作为输出层。虽然这里的数据只有用户编码和电影产品编码,但是这样的结构可以拓展到包含其他相关数据。下图展示了这样的一个深度模型的结构示意图:
Figure 5。深度模型
有了这个示意图,我们就可以很方便地用KERAS依次构造。这里我们假设已经将用户和电影产品做了按照One Hot编码形式组织好了。
首先用嵌入层对用户和电影进行嵌入映射:
k = 128
model1 = Sequential()
model1.add(Embedding(n_users + 1, k, input_length = 1))
model1.add(Reshape((k,)))
model2 = Sequential()
model2.add(Embedding(n_movies + 1, k, input_length = 1))
model2.add(Reshape((k,)))
这里的k是映射到的空间的维度。在一般的业务系统中我们可能有上百万的用户和产品,经过嵌入映射到128维的实数域上以后显著地降低了整个系统的维度和大小。 以上几句命令实现了上图从最低下到“用户嵌入”和“电影嵌入”这一阶段的编程。
其次,我们需要用第三个神经网络把前面的两个嵌入网络映射所得到的向量叠加在一起:
model = Sequential()
model.add(Merge([model1, model2], mode = 'concat'))
至此完成了到第一个粗箭头的网络构造。两个网络已经合并为一个网络。 下面的命令依次完成“隐含层128”和“隐含层32”的构造:
model.add(Dropout(0.2))
model.add(Dense(k, activation = 'relu'))
model.add(Dropout(0.5))
model.add(Dense(int(k/4), activation = 'relu'))
model.add(Dropout(0.5))
下面继续构造“隐含层8”:
model.add(Dense(int(k/16), activation = 'relu'))
model.add(Dropout(0.5))
隐含层构造完毕之后,需要构造输出层。因为是预测连续变量评分,最后一层直接上线性变化:
model.add(Dense(1, activation = 'linear'))
至此,模型构造完毕,可以编译了:
model.compile(loss = 'mse', optimizer = "adam")
这里使用了均方差(MSE)作为损失函数,并使用了ADAM优化算法。 下面,为了能训练模型,需要将数据构造为[users, movies]的形式:
users = ratings['user_id'].values
movies = ratings['movie_id'].values
X_train = [users, movies]
最后训练模型:
model.fit(X_train, y_train, batch_size = 100, epochs = 50)
使用movielens的用户观看电影评分数据进行训练和验证,我们发现这个模型的误差在0.8226左右,大约一个评分等级不到。
即使这样一个简单的模型,效果还是比较好的。如果进一步优化结构,或者引入其他信息,误差还可以进一步降低。
##使用KERAS构造图像识别系统
图像识别是深度学习最典型的应用之一。关于深度学习的图像识别可以追溯很长的历史,其中最具有代表性的例子是手写字体识别和图片识别。手写字体识别主要是用机器正确区别手写体数字 0~9。银行支票上的手写体识别技术就是基于这个技术。图片识别的代表作就是 ImageNet。这个比赛需要团队识别图片中的动物或者物体,把它们正确地分到一千个类别中的其中一个。 图像识别有很多种技术可以实现,目前最主流的技术是深度神经网络,其中尤以卷积神经网络(CNN)最为出名。卷积神经网络(见图1)是一种自动化特征提取的机器学习模型。从数学的角度看,任何一张图片都可以对应到 224 × 224 × 3 或者 32 × 32 × 3 等三维向量,这取决于像素。我们的目标是把这个三维向量(又被称为张量)映射到 N个类别中的一类。神经网络就是建立了这样一个映射关系,或者称为函数。它通过建立网状结构,辅以矩阵的加、乘等运算,最后输出每个图像属于每个类别的概率,并且取概率最高的作为我们的决策依据。 下面是一个典型的序列卷积神经网络模型的结构:
Figure 6。卷积神经网络结构。来源于CNTK教程
上面这个网络依次展示了卷积网络模型的主要要素:
– 输入层的图像;
– 卷积操作;
– 激活函数的应用;
– 池化操作;
– 将数据展平(Flatten),为输出到全连接层做准备;
– 全连接层准备输出;
– softmax应用于分类问题的全连接层作为输出层。
下面详细介绍一下在KERAS中如何对应地进行编程处理。
– 首先,这是一个序列模型,因此先要声明一个序列模型的对象:
model.=sequential()
– 卷积是应用一个局部的过滤器到原始数据的过程,比如下图就展示了一个3×3的过滤器应用在一个7×7的图像上过程。假设在当前步,这个过滤器的权重经过学习得到如图所示的权重结果,在当前步继续进行卷积操作就是将这个3×3的过滤器从左上角每次要么向右要么向下移动一格,和对应的图像局部的3×3的区域进行依元素点乘求和得到卷积的结果。因为依次移动,到最边上的时候过滤器会超出图像的边界,一般会将这些对应的卷积结果删除,从而卷积后的张量维度会少于原始图像。比如这个例子中原图为7×7,使用一个3×3的过滤器卷积之后最后两列和两行进行卷积的时候会使过滤器超过边界,因此最后的卷积结果是一个5×5的图像。这里可以使用多个过滤器,每个过滤器应用一次,每次应用产生的卷积结果构成隐含层的一层。比如采用16个过滤器,如果不删除边界的过滤结果,则得到新的[7x7x16]的张量。
Figure 7.卷积演示,来源于CNTK教程
在KERAS里,对于图像这种二维数据,一般使用Conv2D这个二维卷积层。Conv2D有几个必备的参数:
1. 首先指定过滤器数量 filter,是一个整数;
2. 第二是要指定二维过滤器的大小,比如(3,3);
3. 第三要指定步长,即延某轴移动的时候是依次移动一个像素还是多个像素,默认为1;
4. 第四要指定补齐策略padding,即是否要将在边界的卷积结果去掉。如果值为”same”,则不去掉,卷积结果和输入图像有同样的高和宽;如果值为”valid”,则不会处理过滤器会超出边界的像素。
5. 最后,如果卷积层是第一层,那么还需要指明输入数据的维度input\_shape。因为一般用TensorFlow或者CNTK做后台,输入数据要求是channel_last,因此输入的原始维度为[样本量,高,宽,频道],那么这里的维度只需要去掉样本量即可,即为[高,宽,频道数],一般用X.shape[1:]即可得到。
- 对于上面的例子,KERAS里的典型写法是:
model.add(Conv2D(filters=16, kernel_size=(3, 3),
strides=1, padding=”valid”,
input_shape=xtrain.shape[1:]))
– 再次要添加激活层引入激活函数,通常是一个非线性的函数。激活函数既可以通过在Conv2D里面指定activation=参数引入,也可以通过单独添加Activation层引入。
卷积神经网络常用的激活函数是Rectified Linear Unit, 简称relu。该函数其实就是max(0, x),在层次较深的网络中比以前常用的取值区间在(0,1)或者(-1, 1)之间的sigmoid类激活函数效果好,因为不存在梯度消失的问题。
- 如果是通过参数,则上面的代码改写为:
model.add(Conv2D(filters=16, kernel\_size=(3, 3),
strides=1, padding=”valid”,
activation=’relu’)
- 如果通过添加激活层引入,则在上面的代码后添加:
model.add(Activation(‘relu’))
– 然后进行的池化操作是在卷积神经网络中对图像特征的一种处理,通常在卷积操作和激活函数之后进行。池化操作是将原有输入按照一定大小切分成互不交叉的局部区域,目的是为了计算特征在局部的充分统计量,从而降低总体的特征数量,防止过度拟合和减少计算量。下图展示了最大池化方法的应用。在一个6×6的图像上应用3×3的池化操作,将原输入矩阵切割为不相交叉的2×2区域,每个区域的取值是对应原输入局部的最大值。
Figure 8。最大池化操作 对应于图像的最大池化层通过MaxPooling2D,KERAS也支持平均池化层,区别在于取对应局部的平均值作为池化后结果,方法为AveragePooling2D。对应上面的例子,KERAS的命令如下:
model.add(MaxPooling2D(pool_size=(3, 3))
– 为了输出到全连接层,先要对数据进行展平(Flatten)。这是因为全连接层只处理包含样本数在内一共二维的数据,要求第一维是样本数,第二维是所有特征的个数。因此对于一个包含2000个样本,每个样本是28x28x3的小图像的数据,展平之后是一个2000×2352的矩阵,其中2352是28,28,3的乘积。在KERAS里进行展平非常简单,在上面的MaxPooling2D层之后添**model.add(Flatten())** 即可,KERAS能自己分析出输入和输出的维度。
– 在前面这些处理之后,但是在输出之前,通常会添加一个或者多个全连接层进一步处理数据。全连接层可以通过Dense指出,指明输出神经元个数和激活函数即可:
model.add(Dense(1000, activation=’relu’))
– 最后使用一个全连接层作为输出层,同样要求使用softmax激活函数,并使用跟输出类别同样多的神经元个数。比如识别0—9十个数字,那么就应该写作:
model.add(Dense(10, activation=’relu’))
把所有步骤组合到一起,我们就可以将图6显示的一个卷积神经网络模型相应地写为KERAS代码了:
model=Sequential()
model.add(Conv2D(filters=32, kernel_size=(3, 3),
padding="same",
input_shape=X_train.shape[1:],
activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Conv2D(filters=64, kernel_size=(3, 3), padding="valid"))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Flatten())
model.add(Dense(128, activation='relu'))
model.add(Dense(num_classes, activation='softmax'))
是不是很 简单? 要训练这个模型非常简单。我们先编译这个模型并显示其关键信息:
model.compile(loss='categorical_crossentropy', optimizer='adagrad', metrics=['accuracy'])
model.summary()
Figure 9。模型信息 我们看到这个模型一共有421642个参数,大多来自于倒数第二层的全连接层。 拟合这个模型也很简单:
model.fit(X_train, y_train,
epochs=20, verbose=1,
batch_size=10,
validation_data = (X_test, y_test))
这里使用最标准的fit方法。其中指定几个核心参数:
1. 训练用特征数据X\_train,
2. 训练用结果数据y\_train,
3. 迭代次数epochs,
4. 批量大小用batch\_size指定,
5. verbose表示显示训练过程的信息,如果值为0不显示任何中间信息,如果为1显示按批量拟合的进度,如果为2则显示拟合结果信息。
6. 另外读者还可以指定验证数据集,用validation_data这个参数表示,其包含一个tuple,第一个元素是验证用特征数据,第二个是验证用结果数据。
下面我们使用这个模型训练识别0-9这十个数字,使用著名的MNIST数据。不过在训练之前还需要提及对数据的处理:
* 首先将数据重塑为[样本数,高,宽,色彩通道数]的格式。这个可以通过numpy.reshape方法来实现。因为keras自带的MNIST数据已经是numpy的多维矩阵,并且是单色的,因此色彩通道数为1,因此数据重塑可以用下面的命令实现。读者可自行重塑验证用数据。
X_train = X_train.reshape(X_train.shape[0],
X_train.shape[1],
X_train.shape[2], 1).astype(float)
* 其次,需要将数据的取值压缩到[0, 1]之间。这有利于拟合时用的随机梯度递降算法的稳定和收敛。这可以使用X_train /= 255.0 来实现。 。
* 最后要将结果数据变为One Hot Code形式。KERAS提供了一个非常方便的方法to_categorical来实现这个功能:
y_train = keras.utils.to_categorical(y_train, len(set(y_train)))
下图的结果显示即使是这个非常简单的模型,其在验证数据上的预测准确率都是非常高的,达到了99.14%。
Figure 10。简单卷积模型在MNIST数据上的拟合结果。
使用KERAS可以非常方便的构造自己的卷积神经网络,对于比较复杂的情况,也可以使用已经训练好的一些常见的高效模型,比如VGG16,Xception 等做迁移训练来拟合自己的数据。
Figure 11. VGG16结构,来源于:https://www.cs.toronto.edu/~frossard/post/vgg16
上图是著名的VGG16模型的结构。根据刚才的学习结果,读者可以很快地模仿这个结构搭建自己的类似模型,但是KERAS在application库里已经提供了现成训练好的VGG16模型供读者读入使用。读者可以引用这个模型,将顶层去掉用自己的数据重新训练,但是底层的参数借用VGG16已经训练好的权重。这就是迁移学习的思路,可以大大降低需要训练的参数数量,加快新模型的开发。这里使用了通用模型以便在现有的VGG16模型上进行修改:
model_vgg = VGG16(include_top = False,
weights = 'imagenet',
input_shape =(224,224,3))
model = Flatten(name = 'flatten')(model_vgg.output)
model = Dense(10, activation = 'softmax')(model)
model_vgg_mnist = Model(model_vgg.input, model,
name = 'vgg16')
这里首先引用VGG16模型,但是通过参数include_top=False指定迁移除顶层以外的其余网络结构到自己的模型中。Weights=’imagenet’表示借用的权重是用ImageNet数据训练出来的额。 其次,通过函数方法在修改过的VGG16模型上构造一个新的扁平层用来连接新构造的全连接层,这个全连接层跟前面的模型没有区别。最后把修改过的VGG16模型和新的顶层叠加起来并赋予新的名字vgg16。这样就得到了一个基于VGG16的新模型。
## 使用KERAS构造时间序列预测模型
时间序列是在商业数据或者工程数据中经常出现的一种数据形式,是以时间为次序排列,用来描述和计量一系列过程或者行为的数据的统称。比如每天商店的收入流水或者某个工厂每小时的产品产出都是时间序列数据。一般研究的时间序列数据有两种类型。最常见的是跟踪单一的计量数据随时间变化的情况,即每个时间点上收集的数据是一个一维变量,这种是最常见的,通常的时间序列默认就是这种数据,也是本章研究的对象。另外一种时间序列数据是多个对象或者多个维度的计量数据随时间变化的情况,即每个时间点上收集的数据是一个多维变量,这种一般也被称为纵向数据(Longitudinal Data),但是不属于这里介绍的对象。
在这里我们介绍如何搭建一个LSTM深度学习模型来对在汉口测量的长江每月流量数据进行预测建模。该数据来源于DataMarket 的[时间序列数据库](https://datamarket.com/data/list/?q=provider:tsdl),由澳大利亚莫纳什大学的统计学教授Rob Hyndman 创建,收集了数十个公开的时间序列数据集。
汉口长江月流量数据包含从 1865 年 1 月到 1978 年 12 月在汉口记录的长江每月的流量,总计 1368 个数据点。计量单位未知。
Figure 12。长江月度流量时间序列 在一般的时间序列建模中,都需要检验数据的平稳性,因为传统时间序列建模都是建立在平稳数据的假设之上。这个数据具备非常强的年度周期性。使用传统的统计技术建模的时候都需要侦测周期性,并消除之,对消除周期性之后的数据运用ARIMA模型建模。
Figure 13。长江月度流量局部和移动平滑结果
我们可以通过周期图谱法(Periodogram)来得到主要的周期幅度。在Python中可以使用scipy.signal.periodogram来得到周期图谱。在这里我们不是使用原始数据,而是使用原始数据的自相关函数的周期图谱来计算主要周期,这样可以抵消噪音的影响。对读入pandas DataFrame的原始数据ts运行下面的程序我们可以得到如下的周期图谱和计算得到的主要周期长度。
import statsmodels.api as sm
from statsmodels.tsa.stattools import acf
from scipy import signal
import peakutils as peak
acf_x, acf_ci = acf(ts, alpha=0.05, nlags=36)
fs=1
f, Pxx_den = signal.periodogram(acf_x, fs)
index = peak.indexes(Pxx_den)
cycle=(1/f[index[0]]).astype(int)
fig = plt.figure()
ax0 = fig.add_subplot(111)
plt.vlines(f, 0, Pxx_den)
plt.plot(f, Pxx_den, marker='o', linestyle='none', color='red')
plt.title("Identified Cycle of %i" % (cycle))
plt.xlabel('frequency [Hz]')
plt.ylabel('PSD [V**2/Hz]')
plt.show()
print( index, f, Pxx_den)
Figure 14。周期图谱 很明显有一个周期为 12 个月的季节性。
虽然考虑到这个数据的本质是长江水文资料, 12 个月的周期是非常自然的预期,但是这个方法展示了对 ACF 序列运用周期图法(periodogram)找季节性周期的可靠性。在传统方法里,这里需要通过取间隔为12 的差分来消除周期性,得到一个尽可能平稳的时间序列,进而采用ARIMA模型建模。在Python里,单周期的时间序列数据,知道周期的长度以后可以直接使用季节性ARIMA模型(SARIMA)来训练。 但是在使用循环神经网络模型的时候我们不用考虑这些情况,可以直接使用长短记忆模型。此外,在使用LSTM这种序列模型的时候在使用LSTM对这种单一时间序列进行建模的时候,一般通过一下步骤:
1. 将数据标准化为[0,1]区间。
2. 按照LSTM的要求,将输入数据组织为[样本数,时间步,特征变量数]的三位格式来组织。
3. 定义一个LSTM深度学习模型,通常为一个序列模型对象,逐层添加LSTM层或者其他层,最后通过一个全连接层输出到输出层。
4. 最后对需要的时间段进行预测。 首先对数据进行标准化,我们使用sklearn包里的MinMaxScaler函数:
scaler = MinMaxScaler(feature_range=(0, 1))
trainstd = scaler.fit_transform(train.values.astype(float).reshape(-1, 1))
teststd = scaler.transform(test.values.astype(float).reshap
其次,我们将训练数据和测试数据组织成需要的格式,这个格式与我们将要建立的LSTM模型有关。这里我们对每个输入构造一个LSTM神经元,一个60个输入单元,每一个对应一个时间步。这60个单元的输出会作为一个全连接层的输入,这个全连接层直接产生下K个连续时间步的输出预测。作为防止过度拟合的正则化手段,我们在LSTM层和全连接层 之间加了一个Dropout层。这个Dropout层在训练的时候会随机放弃一部分权重的更新,但是在进行预测的时候所有权重都会被用到。
Figure 15。LSTM网络结构 (修改自CNTK Tutorial)
对于这样的网络结构,我们需要如下的一个函数来定义我们的数据,即将数据组织成为[批量数,时间步数,滞后特征数]的形式。这个可以通过如下的函数来实现:
def create_dataset(dataset, timestep=1, look_back=1, look_ahead=1):
from statsmodels.tsa.tsatools import lagmat
import numpy as np
ds = dataset.reshape(-1, 1)
dataX = lagmat(dataset,
maxlag=timestep*look_back,
trim="both", original='ex')
dataY = lagmat(dataset[(timestep*look_back):],
maxlag=look_ahead,
trim="backward", original='ex')
dataX = dataX.reshape(dataX.shape[0],
timestep, look_back)[:-(look_ahead-1)]
return np.array(dataX), np.array(dataY[:-(look_ahead-1)])
执行下面的命令就可以生成所需数据:
lookback=1
lookahead=24
timestep=60
trainX, trainY = create_dataset(trainstd,
timestep=timestep,
look_back=lookback, look_ahead=lookahead)
trainX, trainY = trainX.astype('float32'), trainY.astype('float32')
truthX, truthY = create_dataset(truthstd,
timestep=timestep,
look_back=lookback, look_ahead=lookahead)
有了如图11的网络图以后,就可以开始定义我们的LSTM深度学习模型。
batch_size=100
model = Sequential()
model.add(LSTM(48, batch_size=batch_size, \
input\_shape=(timestep, lookback), kernel_initializer='he_uniform'))
model.add(Dropout(0.15))
model.add(Dense(lookahead))
model.compile(loss='mean_squared_error', optimizer='adam')
调用fit方法就可以快速的训练这个模型。我们指定迭代20次,小批量数为100):
model.fit(trainX, trainY, epochs=20, batch_size=batch_size, verbose=1)
下图展示了拟合过程的信息:
Figure 16。LSTM拟合过程信息
那么这个模型的拟合效果如何呢?
Figure 17。LSTM拟合结果
我们看到拟合效果还不错。平均绝对误差百分比(MAPE)只有25%不到,比用传统的SARIMA模型效果要好点。其次,LSTM模型一次输出未来24个时间点的预测值,使用起来比用SARIMA迭代预测方便很多。另外需要指出的是我们也可以直接在模型中指定损失函数为MAPE,这样更好优化衡量指标。
## 小结
在这篇短文中,我们介绍了一个目前正在流行起来的深度学习建模环境KERAS。这个建模环境相对于传统的计算环境,比如CNTK,TensorFlow,Theano等具有抽象性高,易用性好的特点,同时又依托于这几种计算环境,具有一定的可拓展性,非常适合于从事深度学习的实践者使用。 我们看到使用KERAS可以非常直观地描述神经网络结构,几乎可以达到所见即所得的情况。我们在文中还分别介绍了三种流行的应用领域,分别是:
– 深度推荐模型,运用嵌入技术可以将不同类型的信息有机结合在一起构造一个深度神经网络推荐系统;
– 图像识别模型,运用多层卷积神经网络对图像进行切割分析,得到一个精度很好的手写数字分类器。同样的技术和模型可以直接移植到其他物体识别数据上,比如CIFAR10等。我们也介绍了运用已经训练好的现成模型进行迁移学习的手段,减少拟合的参数量,在保持一定精度的情况下提高训练速度;
– 简单时间序列预测模型,运用长短记忆(LSTM)神经网络模型来有效预测具备一定周期性的时间序列模型。一个非常简单的单层LSTM模型既可以达到定制的SARIMA模型的预测精度。
如果读者对如何安装KERAS这个软件以及KERAS应用于其他领域感兴趣,可以阅读由电子工业出版社出版的[**《KERAS快速上手:基于Python的深度学习》**]