Task01:线性回归;Softmax与分类模型、多层感知机

线性回归的基本要素

模型

为了简单起见,这里我们假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。接下来我们希望探索价格与这两个因素的具体关系。线性回归假设输出与各个输入之间是线性关系:

price=wareaarea+wageage+b\mathrm{price} = w_{\mathrm{area}} \cdot \mathrm{area} + w_{\mathrm{age}} \cdot \mathrm{age} + b

数据集

我们通常收集一系列的真实数据,例如多栋房屋的真实售出价格和它们对应的面积和房龄。我们希望在这个数据上面寻找模型参数来使模型的预测价格与真实价格的误差最小。在机器学习术语里,该数据集被称为训练数据集(training data set)或训练集(training set),一栋房屋被称为一个样本(sample),其真实售出价格叫作标签(label),用来预测标签的两个因素叫作特征(feature)。特征用来表征样本的特点。

损失函数

在模型训练中,我们需要衡量价格预测值与真实值之间的误差。通常我们会选取一个非负数作为误差,且数值越小表示误差越小。一个常用的选择是平方函数。 它在评估索引为 ii 的样本误差的表达式为

l(i)(w,b)=12(y^(i)y(i))2,l^{(i)}(\mathbf{w}, b) = \frac{1}{2} \left(\hat{y}^{(i)} - y^{(i)}\right)^2,

L(w,b)=1ni=1nl(i)(w,b)=1ni=1n12(wx(i)+by(i))2.L(\mathbf{w}, b) =\frac{1}{n}\sum_{i=1}^n l^{(i)}(\mathbf{w}, b) =\frac{1}{n} \sum_{i=1}^n \frac{1}{2}\left(\mathbf{w}^\top \mathbf{x}^{(i)} + b - y^{(i)}\right)^2.

优化函数 - 随机梯度下降

当模型和损失函数形式较为简单时,上面的误差最小化问题的解可以直接用公式表达出来。这类解叫作解析解(analytical solution)。本节使用的线性回归和平方误差刚好属于这个范畴。然而,大多数深度学习模型并没有解析解,只能通过优化算法有限次迭代模型参数来尽可能降低损失函数的值。这类解叫作数值解(numerical solution)。

在求数值解的优化算法中,小批量随机梯度下降(mini-batch stochastic gradient descent)在深度学习中被广泛使用。它的算法很简单:先选取一组模型参数的初始值,如随机选取;接下来对参数进行多次迭代,使每次迭代都可能降低损失函数的值。在每次迭代中,先随机均匀采样一个由固定数目训练数据样本所组成的小批量(mini-batch)B\mathcal{B},然后求小批量中数据样本的平均损失有关模型参数的导数(梯度),最后用此结果与预先设定的一个正数的乘积作为模型参数在本次迭代的减小量。

(w,b)(w,b)ηBiB(w,b)l(i)(w,b)(\mathbf{w},b) \leftarrow (\mathbf{w},b) - \frac{\eta}{|\mathcal{B}|} \sum_{i \in \mathcal{B}} \partial_{(\mathbf{w},b)} l^{(i)}(\mathbf{w},b)

学习率: η\eta代表在每次优化中,能够学习的步长的大小
批量大小: B\mathcal{B}是小批量计算中的批量大小batch size

总结一下,优化函数的有以下两个步骤:

  • (i)初始化模型参数,一般来说使用随机初始化;

  • (ii)我们在数据上迭代多次,通过在负梯度方向移动参数来更新每个参数。


softmax的基本概念

  • 分类问题
    一个简单的图像分类问题,输入图像的高和宽均为2像素,色彩为灰度。
    图像中的4像素分别记为x1,x2,x3,x4x_1, x_2, x_3, x_4
    假设真实标签为狗、猫或者鸡,这些标签对应的离散值为y1,y2,y3y_1, y_2, y_3
    我们通常使用离散的数值来表示类别,例如y1=1,y2=2,y3=3y_1=1, y_2=2, y_3=3

  • 权重矢量

o1=x1w11+x2w21+x3w31+x4w41+b1 \begin{aligned} o_1 &= x_1 w_{11} + x_2 w_{21} + x_3 w_{31} + x_4 w_{41} + b_1 \end{aligned}

o2=x1w12+x2w22+x3w32+x4w42+b2 \begin{aligned} o_2 &= x_1 w_{12} + x_2 w_{22} + x_3 w_{32} + x_4 w_{42} + b_2 \end{aligned}

o3=x1w13+x2w23+x3w33+x4w43+b3 \begin{aligned} o_3 &= x_1 w_{13} + x_2 w_{23} + x_3 w_{33} + x_4 w_{43} + b_3 \end{aligned}

  • 神经网络图
    用神经网络图描绘了上面的计算。softmax回归同线性回归一样,也是一个单层神经网络。由于每个输出o1,o2,o3o_1, o_2, o_3的计算都要依赖于所有的输入x1,x2,x3,x4x_1, x_2, x_3, x_4,softmax回归的输出层也是一个全连接层。

既然分类问题需要得到离散的预测输出,一个简单的办法是将输出值oio_i当作预测类别是ii的置信度,并将值最大的输出所对应的类作为预测输出,即输出 arg maxoio_i。例如,如果o1,o2,o3o_1,o_2,o_3分别为0.1,10,0.1,由于o2o_2最大,那么预测类别为2,其代表猫。

  • 输出问题
    直接使用输出层的输出有两个问题:
    1. 一方面,由于输出层的输出值的范围不确定,我们难以直观上判断这些值的意义。例如,刚才举的例子中的输出值10表示“很置信”图像类别为猫,因为该输出值是其他两类的输出值的100倍。但如果o1=o3=103o_1=o_3=10^3,那么输出值10却又表示图像类别为猫的概率很低。
    2. 另一方面,由于真实标签是离散值,这些离散值与不确定范围的输出值之间的误差难以衡量。

softmax运算符(softmax operator)解决了以上两个问题。它通过下式将输出值变换成值为正且和为1的概率分布:

其中

y^1=exp(o1)i=13exp(oi),y^2=exp(o2)i=13exp(oi),y^3=exp(o3)i=13exp(oi).\hat{y}1 = \frac{ \exp(o_1)}{\sum_{i=1}^3 \exp(o_i)},\quad \hat{y}2 = \frac{ \exp(o_2)}{\sum_{i=1}^3 \exp(o_i)},\quad \hat{y}3 = \frac{ \exp(o_3)}{\sum_{i=1}^3 \exp(o_i)}.

因此softmax运算不改变预测类别输出。

  • 计算效率
    • 单样本矢量计算表达式
      为了提高计算效率,我们可以将单样本分类通过矢量计算来表达。在上面的图像分类问题中,假设softmax回归的权重和偏差参数分别为

设高和宽分别为2个像素的图像样本ii的特征为

x(i)=[x1(i)x2(i)x3(i)x4(i)]x^{(i)} = [x_1^{(i)} x_2^{(i)} x_3^{(i)} x_4^{(i)}]

输出层的输出为

o(i)=[o1(i)o2(i)o3(i)]o^{(i)} = [o_1^{(i)} o_2^{(i)} o_3^{(i)}]

预测为狗、猫或鸡的概率分布为

y^(i)=[y^1(i)y^2(i)y^3(i)]{\hat{y}}^{(i)} = [\hat{y}_1^{(i)} \hat{y}_2^{(i)} \hat{y}_3^{(i)}]

softmax回归对样本ii分类的矢量计算表达式为

  • 小批量矢量计算表达式
    为了进一步提升计算效率,我们通常对小批量数据做矢量计算。广义上讲,给定一个小批量样本,其批量大小为nn,输入个数(特征数)为dd,输出个数(类别数)为qq。设批量特征为XRn×dX \in \mathbb{R}^{n \times d}。假设softmax回归的权重和偏差参数分别为WRd×qW \in \mathbb{R}^{d \times q}bR1×qb \in \mathbb{R}^{1 \times q}。softmax回归的矢量计算表达式为

其中的加法运算使用了广播机制,O,Y^Rn×qO, \hat{Y} \in \mathbb{R}^{n \times q}且这两个矩阵的第ii行分别为样本ii的输出o(i)o^{(i)}和概率分布y^(i)\hat{y}^{(i)}

交叉熵损失函数

对于样本ii,我们构造向量y(i)Rqy^{(i)}\in \mathbb{R}^{q} ,使其第y(i)y^{(i)}(样本ii类别的离散数值)个元素为1,其余为0。这样我们的训练目标可以设为使预测概率分布y^(i)\hat y^{(i)}尽可能接近真实的标签概率分布y(i)y^{(i)}

  • 平方损失估计

alignedLoss=y^(i)y(i)2/2{aligned}Loss = |\hat y^{(i)}-y^{(i)}|^2/2

然而,想要预测分类结果正确,我们其实并不需要预测概率完全等于标签概率。例如,在图像分类的例子里,如果y(i)=3y^{(i)}=3,那么我们只需要y^3(i)\hat{y}^{(i)}_3比其他两个预测值y^1(i)\hat{y}^{(i)}_1y^2(i)\hat{y}^{(i)}_2大就行了。即使y^3(i)\hat{y}^{(i)}_3值为0.6,不管其他两个预测值为多少,类别预测均正确。而平方损失则过于严格,例如y^1(i)=y^2(i)=0.2\hat y^{(i)}_1=\hat y^{(i)}_2=0.2y^1(i)=0,y^2(i)=0.4\hat y^{(i)}_1=0, \hat y^{(i)}_2=0.4的损失要小很多,虽然两者都有同样正确的分类预测结果。

改善上述问题的一个方法是使用更适合衡量两个概率分布差异的测量函数。其中,交叉熵(cross entropy)是一个常用的衡量方法:

H(y(i),y^(i))=j=1qyj(i)logy^j(i),H\left( y^{(i)}, {\hat y}^{(i)}\right ) = -\sum_{j=1}^q y_j^{(i)} \log \hat y_j^{(i)},

其中带下标的yj(i)y_j^{(i)}是向量y(i)y^{(i)}中非0即1的元素,需要注意将它与样本ii类别的离散数值,即不带下标的y(i)y^{(i)}区分。在上式中,我们知道向量y(i){y}^{(i)}中只有第y(i)y^{(i)}个元素y(i)y(i)y^{(i)}{y^{(i)}}为1,其余全为0,于是H(y(i),y^(i))=logy^y(i)(i){H}(y^{(i)}, {\hat y}^{(i)}) = -\log \hat y_{y^{(i)}}^{(i)}。也就是说,交叉熵只关心对正确类别的预测概率,因为只要其值足够大,就可以确保分类结果正确。当然,遇到一个样本有多个标签时,例如图像里含有不止一个物体时,我们并不能做这一步简化。但即便对于这种情况,交叉熵同样只关心对图像中出现的物体类别的预测概率。

假设训练数据集的样本数为nn,交叉熵损失函数定义为

(Θ)=1ni=1nH(y(i),y^(i)),\ell(\Theta) = \frac{1}{n} \sum_{i=1}^n H\left( y^{(i)}, {\hat y}^{(i)}\right ),

其中Θ{\Theta}代表模型参数。同样地,如果每个样本只有一个标签,那么交叉熵损失可以简写成(Θ)=(1/n)i=1nlogy^y(i)(i)\ell( {\Theta}) = -(1/n) \sum_{i=1}^n \log \hat y_{y^{(i)}}^{(i)}。从另一个角度来看,我们知道最小化(Θ)\ell({\Theta})等价于最大化exp(n(Θ))=i=1ny^y(i)(i)\exp(-n\ell({\Theta}))=\prod_{i=1}^n \hat y_{y^{(i)}}^{(i)},即最小化交叉熵损失函数等价于最大化训练数据集所有标签类别的联合预测概率。

多层感知机的基本知识

深度学习主要关注多层模型。在这里,我们将以多层感知机(multilayer perceptron,MLP)为例,介绍多层神经网络的概念。

隐藏层

下图展示了一个多层感知机的神经网络图,它含有一个隐藏层,该层中有5个隐藏单元。

表达公式

具体来说,给定一个小批量样本XRn×d{X} \in \mathbb{R}^{n \times d},其批量大小为nn,输入个数为dd。假设多层感知机只有一个隐藏层,其中隐藏单元个数为hh。记隐藏层的输出(也称为隐藏层变量或隐藏变量)为H{H},有HRn×h{H} \in \mathbb{R}^{n \times h}。因为隐藏层和输出层均是全连接层,可以设隐藏层的权重参数和偏差参数分别为WhRd×h{W}_h \in \mathbb{R}^{d \times h}bhR1×h{b}_h \in \mathbb{R}^{1 \times h},输出层的权重和偏差参数分别为WoRh×q{W}_o \in \mathbb{R}^{h \times q}boR1×q{b}_o \in \mathbb{R}^{1 \times q}

我们先来看一种含单隐藏层的多层感知机的设计。其输出ORn×q{O} \in \mathbb{R}^{n \times q}的计算为

H=XWh+bh,{H}= {X} {W}_h + {b}_h,

O=HWo+bo,{O} = {H} {W}_o + {b}_o,

也就是将隐藏层的输出直接作为输出层的输入。如果将以上两个式子联立起来,可以得到

O=(XWh+bh)Wo+bo=XWhWo+bhWo+bo.{O} = ({X} {W}_h + {b}_h){W}_o + {b}_o = {X} {W}_h{W}_o +{b}_h{W}_o +{b}_o.

从联立后的式子可以看出,虽然神经网络引入了隐藏层,却依然等价于一个单层神经网络:其中输出层权重参数为WhWo{W}_h{W}_o,偏差参数为bhWo+bo{b}_h {W}_o + {b}_o。不难发现,即便再添加更多的隐藏层,以上设计依然只能与仅含输出层的单层神经网络等价。

激活函数

上述问题的根源在于全连接层只是对数据做仿射变换(affine transformation),而多个仿射变换的叠加仍然是一个仿射变换。解决问题的一个方法是引入非线性变换,例如对隐藏变量使用按元素运算的非线性函数进行变换,然后再作为下一个全连接层的输入。这个非线性函数被称为激活函数(activation function)。

下面我们介绍几个常用的激活函数:

关于激活函数的选择

ReLu函数是一个通用的激活函数,目前在大多数情况下使用。但是,ReLU函数只能在隐藏层中使用。

用于分类器时,sigmoid函数及其组合通常效果更好。由于梯度消失问题,有时要避免使用sigmoid和tanh函数。

在神经网络层数较多的时候,最好使用ReLu函数,ReLu函数比较简单计算量少,而sigmoid和tanh函数计算量大很多。

在选择激活函数的时候可以先选用ReLu函数如果效果不理想可以尝试其他激活函数。

多层感知机

多层感知机就是含有至少一个隐藏层的由全连接层组成的神经网络,且每个隐藏层的输出通过激活函数进行变换。多层感知机的层数和各隐藏层中隐藏单元个数都是超参数。以单隐藏层为例并沿用本节之前定义的符号,多层感知机按以下方式计算输出:

H=ϕ(XWh+bh),O=HWo+bo,\begin{aligned} {H} &= \phi({X}{W}_h + {b}_h),\\ {O} &= {H}{W}_o + {b}_o, \end{aligned}

其中ϕ\phi表示激活函数。