day18 百度飞浆实战代码(搬运加自己归纳)

时间:2024-02-24 16:33:02

注:原文

使用飞桨构建波士顿房价预测模型(基础API)

本书中的案例覆盖计算机视觉、自然语言处理和推荐系统等主流应用场景,所有案例的代码结构完全一致,如 图1 所示。



图1:使用飞桨框架构建神经网络过程



在之前的章节中,我们学习了使用Python和Numpy构建波士顿房价预测模型的方法,本节课我们将尝试使用飞桨重写房价预测模型,大家可以体会一下二者的异同。在数据处理之前,需要先加载飞桨框架的相关类库。

#加载飞桨、Numpy和相关类库
import paddle
from paddle.nn import Linear
import paddle.nn.functional as F
import numpy as np
import os
import random

代码中参数含义如下:

  • paddle:飞桨的主库,paddle 根目录下保留了常用API的别名,当前包括:paddle.tensor、paddle.framework目录下的所有API。

  • paddle.nn:组网相关的API,例如 Linear 、卷积 Conv2D 、 循环神经网络 LSTM 、损失函数 CrossEntropyLoss 、 激活函数 ReLU 等。

  • Linear:神经网络的全连接层函数,即包含所有输入权重相加的基本神经元结构。在房价预测任务中,使用只有一层的神经网络(全连接层)来实现线性回归模型。

  • paddle.nn.functional:与paddle.nn一样,包含组网相关的API,例如Linear、激活函数ReLu等。两者下的同名模块功能相同,运行性能也基本一致。 但是,paddle.nn下的模块均是类,每个类下可以自带模块参数;paddle.nn.functional下的模块均是函数,需要手动传入模块计算需要的参数。在实际使用中,卷积、全连接层等层本身具有可学习的参数,建议使用paddle.nn模块,而激活函数、池化等操作没有可学习参数,可以考虑直接使用paddle.nn.functional下的函数代替。



说明:

飞桨支持两种深度学习建模编写方式,更方便调试的动态图模式和性能更好并便于部署的静态图模式。

  • 动态图模式(命令式编程范式,类比Python):解析式的执行方式。用户无需预先定义完整的网络结构,每写一行网络代码,即可同时获得计算结果。
  • 静态图模式(声明式编程范式,类比C++):先编译后执行的方式。用户需预先定义完整的网络结构,再对网络结构进行编译优化后,才能执行获得计算结果。

飞桨框架2.0及之后的版本,默认使用动态图模式进行编码,同时提供了全面完备的动转静支持。开发者仅需添加一个装饰器( to_static ),飞桨会自动将动态图的程序,转换为静态图的program,并使用该program训练并可保存静态模型以实现推理部署。


数据处理

数据处理的代码不依赖框架实现,与使用Python构建房价预测任务的代码相同,详细解读请参考《使用Python和Numpy构建神经网络模型》章节,这里不再赘述。

def load_data():
    # 从文件导入数据
    datafile = \'./work/housing.data\'
    data = np.fromfile(datafile, sep=\' \', dtype=np.float32)

    # 每条数据包括14项,其中前面13项是影响因素,第14项是相应的房屋价格中位数
    feature_names = [ \'CRIM\', \'ZN\', \'INDUS\', \'CHAS\', \'NOX\', \'RM\', \'AGE\', \
                      \'DIS\', \'RAD\', \'TAX\', \'PTRATIO\', \'B\', \'LSTAT\', \'MEDV\' ]
    feature_num = len(feature_names)

    # 将原始数据进行Reshape,变成[N, 14]这样的形状
    data = data.reshape([data.shape[0] // feature_num, feature_num])

    # 将原数据集拆分成训练集和测试集
    # 这里使用80%的数据做训练,20%的数据做测试
    # 测试集和训练集必须是没有交集的
    #list切片假如有1000行数据,offset=800,意味着training_data对行切片取前800条
    ratio = 0.8
    offset = int(data.shape[0] * ratio)
    training_data = data[:offset]

    # 计算train数据集的最大值,最小值,平均值
    maximums, minimums, avgs = training_data.max(axis=0), training_data.min(axis=0), \
                                 training_data.sum(axis=0) / training_data.shape[0]
    
    # 记录数据的归一化参数,在预测时对数据做归一化
    global max_values
    global min_values
    global avg_values
    max_values = maximums
    min_values = minimums
    avg_values = avgs

    # 对数据进行归一化处理
    #对14个列做循环
    for i in range(feature_num):
        #data是二维的,data[:, i]逗号前面是行,后面是列,行切片但是只有:所以是对某列每行做下列运算
        data[:, i] = (data[:, i] - avgs[i]) / (maximums[i] - minimums[i])

    # 训练集和测试集的划分比例
    training_data = data[:offset]
    test_data = data[offset:]
    return training_data, test_data


模型设计

模型定义的实质是定义线性回归的网络结构,飞桨建议通过创建Python类的方式完成模型网络的定义,该类需要继承paddle.nn.Layer父类,并且在类中定义init函数和forward函数。forward函数是框架指定实现前向计算逻辑的函数,程序在调用模型实例时会自动执行forward方法。在forward函数中使用的网络层需要在init函数中声明。

实现过程分如下两步:

  1. 定义init函数:在类的初始化函数中声明每一层网络的实现函数。在房价预测模型中,只需要定义一层全连接层,模型结构和使用Python和Numpy构建神经网络模型》章节模型保持一致。
  2. 定义forward函数:构建神经网络结构,实现前向计算过程,并返回预测结果,在本任务中返回的是房价预测结果。
class Regressor(paddle.nn.Layer):

    # self代表类的实例自身
    def __init__(self):
        # 初始化父类中的一些参数
        super(Regressor, self).__init__()
        
        # 定义一层全连接层,输入维度是13,输出维度是1
        self.fc = Linear(in_features=13, out_features=1)
    
    # 网络的前向计算
    def forward(self, inputs):
        x = self.fc(inputs)
        return x

训练配置

训练配置过程包含四步,如 图2 所示:


图2:训练配置流程示意图



  1. 声明定义好的回归模型Regressor实例,并将模型的状态设置为训练。
  2. 使用load_data函数加载训练数据和测试数据。
  3. 设置优化算法和学习率,优化算法采用随机梯度下降SGD,学习率设置为0.01。

训练配置代码如下所示:

# 声明定义好的线性回归模型
model = Regressor()
# 开启模型训练模式
model.train()
# 加载数据
training_data, test_data = load_data()
# 定义优化算法,使用随机梯度下降SGD
# 学习率设置为0.01
opt = paddle.optimizer.SGD(learning_rate=0.01, parameters=model.parameters())

说明:

模型实例有两种状态:训练状态.train()和预测状态.eval()。训练时要执行正向计算和反向传播梯度两个过程,而预测时只需要执行正向计算,为模型指定运行状态,有两点原因:

  1. 部分高级的算子(例如Dropout和BatchNorm,在计算机视觉的章节会详细介绍)在两个状态执行的逻辑不同;
  2. 从性能和存储空间的考虑,预测状态时更节省内存(无需记录反向梯度),性能更好。

在基于Python实现神经网络模型的案例中,我们为实现梯度下降编写了大量代码,而使用飞桨框架只需要定义SGD就可以实现优化器设置,大大简化了这个过程。

训练过程

训练过程采用二层循环嵌套方式:

  • 内层循环: 负责整个数据集的一次遍历,采用分批次方式(batch)。假设数据集样本数量为1000,一个批次有10个样本,则遍历一次数据集的批次数量是1000/10=100,即内层循环需要执行100次。

    for iter_id, mini_batch in enumerate(mini_batches):
    
  • 外层循环: 定义遍历数据集的次数,通过参数EPOCH_NUM设置。

    for epoch_id in range(EPOCH_NUM):
    

说明:

batch的取值会影响模型训练效果。batch过大,会增大内存消耗和计算时间,且训练效果并不会明显提升(因为每次参数只向梯度反方向移动一小步,所以方向没必要特别精确);batch过小,每个batch的样本数据将没有统计意义,计算的梯度方向可能偏差较大。由于房价预测模型的训练数据集较小,我们将batch为设置10。


每次内层循环都需要执行如下四个步骤,如 图3 所示,计算过程与使用Python编写模型完全一致。


图3:内循环计算过程



  1. 数据准备:将一个批次的数据先转换成np.array格式,再转换成paddle内置tensor格式。
  2. 前向计算:将一个批次的样本数据灌入网络中,计算输出结果。
  3. 计算损失函数:以前向计算结果和真实房价作为输入,通过损失函数square_error_cost API计算出损失函数值(Loss)。飞桨所有的API接口都有完整的说明和使用案例,在后续教程中我们会详细介绍API的查阅方法。
  4. 反向传播:执行梯度反向传播backward函数,即从后到前逐层计算每一层的梯度,并根据设置的优化算法更新参数。
EPOCH_NUM = 10   # 设置外层循环次数
BATCH_SIZE = 10  # 设置batch大小

# 定义外层循环
for epoch_id in range(EPOCH_NUM):
    # 在每轮迭代开始之前,将训练数据的顺序随机的打乱
    np.random.shuffle(training_data)
    # 将训练数据进行拆分,每个batch包含10条数据
    #for k in range(0, len(training_data), BATCH_SIZE)表示的k是从0开始到len(training_data),每10取值0、10、20、....len(training_data)
    #总体就是对training_data每10个切片然后放在mini_batches 里
    mini_batches = [training_data[k:k+BATCH_SIZE] for k in range(0, len(training_data), BATCH_SIZE)]
    # 定义内层循环
    for iter_id, mini_batch in enumerate(mini_batches):
        x = np.array(mini_batch[:, :-1]) # 获得当前批次训练数据,list切片,逗号前是对行切,后是对列切,总共14列前13行是x
        y = np.array(mini_batch[:, -1:]) # 获得当前批次训练标签(真实房价)
        # 将numpy数据转为飞桨动态图tensor形式
        house_features = paddle.to_tensor(x)
        prices = paddle.to_tensor(y)
        
        # 前向计算
        predicts = model(house_features)
        
        # 计算损失
        loss = F.square_error_cost(predicts, label=prices)
        avg_loss = paddle.mean(loss)
        if iter_id%20==0:
            print("epoch: {}, iter: {}, loss is: {}".format(epoch_id, iter_id, avg_loss.numpy()))
        
        # 反向传播
        avg_loss.backward()
        # 最小化loss,更新参数
        opt.step()
        # 清除梯度
        opt.clear_grad()

epoch: 0, iter: 0, loss is: [0.09832411]
epoch: 0, iter: 20, loss is: [0.05393758]
epoch: 0, iter: 40, loss is: [0.01581441]
epoch: 1, iter: 0, loss is: [0.05681251]
epoch: 1, iter: 20, loss is: [0.04950989]
epoch: 1, iter: 40, loss is: [0.02585582]
epoch: 2, iter: 0, loss is: [0.06746737]
epoch: 2, iter: 20, loss is: [0.06382278]
epoch: 2, iter: 40, loss is: [0.04482643]
epoch: 3, iter: 0, loss is: [0.04875899]
epoch: 3, iter: 20, loss is: [0.02027531]
epoch: 3, iter: 40, loss is: [0.10599872]
epoch: 4, iter: 0, loss is: [0.05557407]
epoch: 4, iter: 20, loss is: [0.09793647]
epoch: 4, iter: 40, loss is: [0.10158926]
epoch: 5, iter: 0, loss is: [0.03189388]
epoch: 5, iter: 20, loss is: [0.07130819]
epoch: 5, iter: 40, loss is: [0.02185377]
epoch: 6, iter: 0, loss is: [0.0204677]
epoch: 6, iter: 20, loss is: [0.07090339]
epoch: 6, iter: 40, loss is: [0.00864213]
epoch: 7, iter: 0, loss is: [0.06061258]
epoch: 7, iter: 20, loss is: [0.05273051]
epoch: 7, iter: 40, loss is: [0.0281487]
epoch: 8, iter: 0, loss is: [0.03061475]
epoch: 8, iter: 20, loss is: [0.04411666]
epoch: 8, iter: 40, loss is: [0.12970607]
epoch: 9, iter: 0, loss is: [0.12685244]
epoch: 9, iter: 20, loss is: [0.02994592]
epoch: 9, iter: 40, loss is: [0.01511121]

这个实现过程令人惊喜,前向计算、计算损失和反向传播梯度,每个操作居然只有1-2行代码即可实现!框架内部帮我们自动实现反向梯度计算和参数更新的过程,我们再也不用一点点的实现模型训练的细节,这就是使用飞桨框架的威力!

保存并测试模型

保存模型

将模型当前的参数数据model.state_dict()保存到文件中(通过参数指定保存的文件名 LR_model),以备预测或校验的程序调用,代码如下所示。

# 保存模型参数,文件名为LR_model.pdparams
paddle.save(model.state_dict(), \'LR_model.pdparams\')
print("模型保存成功,模型参数保存在LR_model.pdparams中")
模型保存成功,模型参数保存在LR_model.pdparams中

理论而言,直接使用模型实例即可完成预测,而本教程中预测的方式为什么是先保存模型,再加载模型呢?这是因为在实际应用中,训练模型和使用模型往往是不同的场景。模型训练通常使用大量的线下服务器(不对外向企业的客户/用户提供在线服务),而模型预测则通常使用线上提供预测服务的服务器,或者将已经完成的预测模型嵌入手机或其他终端设备中使用。因此本教程的讲解方式更贴合真实场景的使用方法。

回顾下基于飞桨实现的房价预测模型,实现效果与之前基于Python实现的模型没有区别,但两者的实现成本有天壤之别。飞桨的愿景是用户只需要了解模型的逻辑概念,不需要关心实现细节,就能搭建强大的模型。

测试模型

下面我们选择一条数据样本,测试下模型的预测效果。测试过程和在应用场景中使用模型的过程一致,主要可分成如下三个步骤:

  1. 配置模型预测的机器资源。本案例默认使用本机,因此无需写代码指定。
  2. 将训练好的模型参数加载到模型实例中。由两个语句完成,第一句是从文件中读取模型参数;第二句是将参数内容加载到模型。加载完毕后,需要将模型的状态调整为eval()(校验)。上文中提到,训练状态的模型需要同时支持前向计算和反向传导梯度,模型的实现较为臃肿,而校验和预测状态的模型只需要支持前向计算,模型的实现更加简单,性能更好。
  3. 将待预测的样本特征输入到模型中,打印输出的预测结果。

通过load_one_example函数实现从数据集中抽一条样本作为测试样本,具体实现代码如下所示。

def load_one_example():
    # 从上边已加载的测试集中,随机选择一条作为测试数据
    idx = np.random.randint(0, test_data.shape[0])
    idx = -10
    one_data, label = test_data[idx, :-1], test_data[idx, -1]
    # 修改该条数据shape为[1,13]
    one_data =  one_data.reshape([1,-1])

    return one_data, label

# 参数为保存模型参数的文件地址
model_dict = paddle.load(\'LR_model.pdparams\')
model.load_dict(model_dict)
model.eval()

# 参数为数据集的文件地址
one_data, label = load_one_example()

# 将数据转为动态图的variable格式 
one_data = paddle.to_tensor(one_data)
predict = model(one_data)

# 对结果做反归一化处理
predict = predict * (max_values[-1] - min_values[-1]) + avg_values[-1]
# 对label数据做反归一化处理
label = label * (max_values[-1] - min_values[-1]) + avg_values[-1]

print("Inference result is {}, the corresponding label is {}".format(predict.numpy(), label))
Inference result is [[18.648817]], the corresponding label is 19.700000762939453

通过比较“模型预测值”和“真实房价”可见,模型的预测效果与真实房价接近。房价预测仅是一个最简单的模型,使用飞桨编写均可事半功倍。那么对于工业实践中更复杂的模型,使用飞桨节约的成本是不可估量的。同时飞桨针对很多应用场景和机器资源做了性能优化,在功能和性能上远强于自行编写的模型。

从下一章开始,我们将通过“手写数字识别”的案例,完整掌握使用飞桨编写模型的方方面面。

运用飞浆高阶API

import paddle
paddle.set_default_dtype("float64")

# step1:用高层API定义数据集,无需进行数据处理等,高层API为你一条龙搞定
train_dataset = paddle.text.datasets.UCIHousing(mode=\'train\')
eval_dataset = paddle.text.datasets.UCIHousing(mode=\'test\')

# step2:定义模型
class UCIHousing(paddle.nn.Layer):
    def __init__(self):
        super(UCIHousing, self).__init__()
        self.fc = paddle.nn.Linear(13, 1, None)

    def forward(self, input):
        pred = self.fc(input)
        return pred

# step3:训练模型
model = paddle.Model(UCIHousing())
model.prepare(paddle.optimizer.Adam(parameters=model.parameters()),
              paddle.nn.MSELoss())
model.fit(train_dataset, eval_dataset, epochs=5, batch_size=8, save_dir=\'gaojie\', verbose=1)

The loss value printed in the log is the current step, and the metric is the average value of previous step.
Epoch 1/5
step 51/51 [==============================] - loss: 615.5082 - 1ms/step         
save checkpoint at /home/aistudio/gaojie/0
Eval begin...
The loss value printed in the log is the current batch, and the metric is the average value of previous step.
step 13/13 [==============================] - loss: 406.5990 - 729us/step         
Eval samples: 102
Epoch 2/5
step 51/51 [==============================] - loss: 412.1093 - 1ms/step        
save checkpoint at /home/aistudio/gaojie/1
Eval begin...
The loss value printed in the log is the current batch, and the metric is the average value of previous step.
step 13/13 [==============================] - loss: 403.9958 - 669us/step         
Eval samples: 102
Epoch 3/5
step 51/51 [==============================] - loss: 416.0134 - 1ms/step         
save checkpoint at /home/aistudio/gaojie/2
Eval begin...
The loss value printed in the log is the current batch, and the metric is the average value of previous step.
step 13/13 [==============================] - loss: 401.4366 - 781us/step         
Eval samples: 102
Epoch 4/5
step 51/51 [==============================] - loss: 428.3946 - 1ms/step         
save checkpoint at /home/aistudio/gaojie/3
Eval begin...
The loss value printed in the log is the current batch, and the metric is the average value of previous step.
step 13/13 [==============================] - loss: 398.8933 - 787us/step         
Eval samples: 102
Epoch 5/5
step 51/51 [==============================] - loss: 452.4891 - 1ms/step         
save checkpoint at /home/aistudio/gaojie/4
Eval begin...
The loss value printed in the log is the current batch, and the metric is the average value of previous step.
step 13/13 [==============================] - loss: 396.3310 - 669us/step         
Eval samples: 102
save checkpoint at /home/aistudio/gaojie/final
result = model.evaluate( eval_dataset, verbose=1)
Eval begin...
The loss value printed in the log is the current batch, and the metric is the average value of previous step.
step 102/102 [==============================] - loss: 138.8630 - 2ms/step        
Eval samples: 102
pred_result = model.predict(eval_dataset)
print(pred_result)
Predict begin...
step 102/102 [==============================] - 1ms/step        
Predict samples: 102
[(array([[-0.55453883]]), array([[-0.63586301]]), array([[-0.60617151]]), array([[-0.43413168]]), array([[-0.55500178]]), array([[-0.55157339]]), array([[-0.65909644]]), array([[-0.65568991]]), array([[-0.87834663]]), array([[-0.61123433]]), array([[-0.94902358]]), array([[-0.76827251]]), array([[-0.64373817]]), array([[-0.66344046]]), array([[-0.80823843]]), array([[-0.50185836]]), array([[-0.43295904]]), array([[-0.4094163]]), array([[-0.34306458]]), array([[-0.57203576]]), array([[-0.40789059]]), array([[-0.7027563]]), array([[-0.3017379]]), array([[-0.50107329]]), array([[-0.4644034]]), array([[-0.63788792]]), array([[-0.45370708]]), array([[-0.52358355]]), array([[-0.2860244]]), array([[-0.45179919]]), array([[-0.52001102]]), array([[-0.59575458]]), array([[-0.59500449]]), array([[-0.76433463]]), array([[-0.73455555]]), array([[-0.45919661]]), array([[-0.45986065]]), array([[-0.41541848]]), array([[-0.39792286]]), array([[-0.43029704]]), array([[-0.57774586]]), array([[-0.6563704]]), array([[-0.42543643]]), array([[-0.37334404]]), array([[-0.39312646]]), array([[-0.45174312]]), array([[-0.55111273]]), array([[-0.38241733]]), array([[-0.32289924]]), array([[-0.34456832]]), array([[-0.56973022]]), array([[-0.48168192]]), array([[-0.53520292]]), array([[-0.45903486]]), array([[-0.3032934]]), array([[-0.22537991]]), array([[-0.35249397]]), array([[-0.24946451]]), array([[-0.19872408]]), array([[-0.19784084]]), array([[-0.04132373]]), array([[0.0367498]]), array([[-0.45314698]]), array([[-0.38555114]]), array([[-0.16167134]]), array([[-0.00945493]]), array([[-0.18197906]]), array([[-0.17482795]]), array([[-0.0943017]]), array([[-0.0343983]]), array([[-0.37481266]]), array([[-0.47113496]]), array([[-0.31664267]]), array([[-0.50902812]]), array([[-0.3688055]]), array([[-0.26669745]]), array([[0.05230717]]), array([[0.02094339]]), array([[0.02898365]]), array([[0.25667341]]), array([[0.17079073]]), array([[0.16495144]]), array([[-0.11777492]]), array([[0.08676304]]), array([[-0.14176935]]), array([[-0.28373134]]), array([[-0.36737165]]), array([[-0.17002273]]), array([[0.01047909]]), array([[0.29121361]]), array([[0.36281898]]), array([[0.42974931]]), array([[0.063385]]), array([[0.1765287]]), array([[0.21008971]]), array([[0.11109917]]), array([[0.09475968]]), array([[0.19403898]]), array([[0.1237585]]), array([[0.07903746]]), array([[0.08565195]]), array([[0.11598399]]))]