零基础学习机器学习(九)Softmax分类从零实现
就像我们从零开始实现线性回归一样, 我们认为softmax回归也是重要的基础,因此应该知道实现softmax回归的细节,这一篇博客可以与上一篇原理介绍的博客对照着看。
加载Fashion数据
1 | def load_data_fashion_mnist(batch_size, resize=None): |
这段这段代码定义了一个加载 FashionMNIST 数据集的工具函数 load_data_fashion_mnist,主要功能是将数据集处理为可直接用于训练和测试的迭代器(DataLoader)。下面详细解释各部分:
函数参数:
- batch_size:每个批次包含的样本数量(用于批量训练)
- resize:可选参数,若指定则将图像调整为该尺寸(如 resize=64 表示将图像缩放为 64×64 像素)
1 | trans = [transforms.ToTensor()] |
- 首先创建一个转换列表 trans,初始包含 ToTensor()(将图像转为 PyTorch 张量并归一化)
- 若指定了 resize,则在列表开头插入 Resize(resize)(先调整图像尺寸,再转为张量)
- 用 transforms.Compose(trans) 将多个转换操作组合成一个流水线(按列表顺序执行)
1 | mnist_train = torchvision.datasets.FashionMNIST( |
- 加载训练集(train=True)和测试集(train=False)
- root=‘./data’:数据集存储路径
- transform=trans:应用上面定义的转换流水线
- download=True:若本地没有数据集则自动下载
1 | return ( |
- 将数据集包装为 DataLoader,方便按批次读取数据
- 关键参数:
- batch_size:每次返回的样本数量
- shuffle=True(训练集):每个 epoch 前打乱数据顺序,增强训练随机性
- shuffle=False(测试集):测试时不需要打乱顺序
- num_workers=get_dataloader_workers():指定加载数据的进程数(加速数据读取)
初始化模型参数
和之前线性回归的例子一样,这里的每个样本都将用固定长度的向量表示。 原始数据集中的每个样本都是的图像。 本节将展平每个图像,把它们看作长度为784的向量。 在后面的章节中,我们将讨论能够利用图像空间结构的特征, 但现在我们暂时只把每个像素位置看作一个特征。
回想一下,在softmax回归中,我们的输出与类别一样多。 因为我们的数据集有10个类别,所以网络输出维度为10。 因此,权重将构成一个 的矩阵, 偏置将构成一个 的行向量。 与线性回归一样,我们将使用正态分布初始化我们的权重W,偏置初始化为0。
1 | num_inputs = 784 |
在图像分类任务中,FashionMNIST 的每张图像是 28×28 的灰度图,可展平为 784 个特征(28×28=784),而分类目标是 10 个类别(如 T 恤、裤子等)。因此:
- num_inputs = 784:输入特征的维度(每张图像展平后的像素数)
- num_outputs = 10:输出类别的数量(对应 10 个类别)
1 | W = torch.normal(0, 0.01, size=(num_inputs, num_outputs), requires_grad=True) |
- torch.normal(0, 0.01, …):生成均值为 0、标准差为 0.01 的正态分布随机数
- size=(num_inputs, num_outputs):权重矩阵的形状为 (784, 10),含义是:
- 每行对应一个输入特征(784 个像素特征)
- 每列对应一个输出类别(10 个类别)
- requires_grad=True:标记该张量需要计算梯度,用于后续反向传播更新参数
1 | b = torch.zeros(num_outputs, requires_grad=True) |
- torch.zeros(num_outputs):生成形状为 (10,) 的全零张量,每个元素对应一个类别的偏置
- requires_grad=True:同样标记需要计算梯度,参与参数更新
定义softmax操作
在实现softmax回归模型之前,我们简要回顾一下sum运算符如何沿着张量中的特定维度工作。 给定一个矩阵X,我们可以对所有元素求和(默认情况下)。 也可以只求同一个轴上的元素,即同一列(轴0)或同一行(轴1)。 如果X是一个形状为(2, 3)的张量,我们对列进行求和, 则结果将是一个具有形状(3,)的向量。 当调用sum运算符时,我们可以指定保持在原始张量的轴数,而不折叠求和的维度。 这将产生一个具有形状(1, 3)的二维张量。
1 | X = torch.tensor([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]]) |
1 | (tensor([[5., 7., 9.]]), |
回想一下,实现softmax由三个步骤组成:
- 对每个项求幂(使用exp);
- 对每一行求和(小批量中每个样本是一行),得到每个样本的规范化常数;
- 将每一行除以其规范化常数,确保结果的和为1。
我们先回顾下softmax函数:
1 | def softmax(X): |
第一步:计算指数
X_exp = torch.exp(X)
对输入张量X的每个元素计算指数(e^x),目的是将所有输出值转换为正数(因为概率不能为负)。
第二步:计算归一化常数
partition = X_exp.sum(1, keepdim=True)
sum(1, keepdim=True) 表示沿着第 1 个维度(即样本的特征维度,对应每行)求和,得到每个样本的归一化常数(所有类别的指数值之和)。
keepdim=True 保持维度不变,确保后续能正确进行广播运算。
第三步:计算概率分布
return X_exp / partition
每个类别的指数值除以归一化常数,得到每个类别的概率(范围在 0~1 之间,且所有类别的概率和为 1)。
定义模型
定义softmax操作后,我们可以实现softmax回归模型。 下面的代码定义了输入如何通过网络映射到输出。 注意,将数据传递到模型之前,我们使用reshape函数将每张原始图像展平为向量。
1 | def net(X): |
这是 Softmax 回归模型的前向传播函数,完成从输入图像到输出概率分布的计算,步骤解析:
- 第一步:调整输入形状:X.reshape((-1, W.shape[0]))
- 将输入图像张量X展平:假设原始X是形状为(batch_size, 1, 28, 28)的图像数据,通过reshape转换为(batch_size, 784)的二维张量(-1表示自动计算该维度大小,W.shape[0]即 784,对应输入特征数)。
- 第二步:计算线性输出:torch.matmul(…, W) + b
- 矩阵乘法:输入特征(batch_size×784)与权重矩阵(784×10)相乘,得到形状为(batch_size, 10)的原始输出(logits)。
- 加上偏置b(通过广播机制自动扩展为(batch_size, 10)),得到最终的线性输出。
- 第三步:应用 Softmax 激活 softmax(…)
- 将线性输出通过 Softmax 函数转换为概率分布,最终返回每个样本属于 10 个类别的概率(形状为(batch_size, 10))。
定义损失函数
回顾一下,交叉熵采用真实标签的预测概率的负对数似然。 这里我们不使用Python的for循环迭代预测(这往往是低效的), 而是通过一个运算符选择所有元素。 下面,我们创建一个数据样本y_hat,其中包含2个样本在3个类别的预测概率, 以及它们对应的标签y。 有了y,我们知道在第一个样本中,第一类是正确的预测; 而在第二个样本中,第三类是正确的预测。 然后使用y作为y_hat中概率的索引, 我们选择第一个样本中第一个类的概率和第二个样本中第三个类的概率。
1 | y = torch.tensor([0, 2]) |
1 | tensor([0.1000, 0.5000]) |
只需要一行代码就可以实现交叉熵损失函数
1 | def cross_entropy(y_hat, y): |
分类精度
给定预测概率分布y_hat,当我们必须输出硬预测(hard prediction)时, 我们通常选择预测概率最高的类。 许多应用都要求我们做出选择。如Gmail必须将电子邮件分类为“Primary(主要邮件)”、 “Social(社交邮件)”“Updates(更新邮件)”或“Forums(论坛邮件)”。 Gmail做分类时可能在内部估计概率,但最终它必须在类中选择一个。
当预测与标签分类y一致时,即是正确的。 分类精度即正确预测数量与总预测数量之比。 虽然直接优化精度可能很困难(因为精度的计算不可导), 但精度通常是我们最关心的性能衡量标准,我们在训练分类器时几乎总会关注它。
为了计算精度,我们执行以下操作。 首先,如果y_hat是矩阵,那么假定第二个维度存储每个类的预测分数。 我们使用argmax获得每行中最大元素的索引来获得预测类别。 然后我们将预测类别与真实y元素进行比较。 由于等式运算符“==”对数据类型很敏感, 因此我们将y_hat的数据类型转换为与y的数据类型一致。 结果是一个包含0(错)和1(对)的张量。 最后,我们求和会得到正确预测的数量。
1 | def accuracy(y_hat, y): #@save |
同样,对于任意数据迭代器data_iter可访问的数据集, 我们可以评估在任意模型net的精度。
1 | def evaluate_accuracy(net, data_iter): #@save |
这里定义一个实用程序类Accumulator,用于对多个变量进行累加。 在上面的evaluate_accuracy函数中, 我们在Accumulator实例中创建了2个变量, 分别用于存储正确预测的数量和预测的总数量。 当我们遍历数据集时,两者都将随着时间的推移而累加。
1 | class Accumulator: #@save |
训练
在这里,我们重构训练过程的实现以使其可重复使用。 首先,我们定义一个函数来训练一个迭代周期。 请注意,updater是更新模型参数的常用函数,它接受批量大小作为参数。 它可以是d2l.sgd函数,也可以是框架的内置优化函数。
1 | def train_epoch_ch3(net, train_iter, loss, updater): #@save |
在展示训练函数的实现之前,我们定义一个在动画中绘制数据的实用程序类Animator, 它能够简化本书其余部分的代码。这段代码对于理解softmax没有影响
1 | class Animator: #@save |
接下来我们实现一个训练函数, 它会在train_iter访问到的训练数据集上训练一个模型net。 该训练函数将会运行多个迭代周期(由num_epochs指定)。 在每个迭代周期结束时,利用test_iter访问到的测试数据集对模型进行评估。
1 | def train_ch3(net, train_iter, test_iter, loss, num_epochs, updater): #@save |
作为一个从零开始的实现,我们使用小批量随机梯度下降来优化模型的损失函数,设置学习率为0.1。
1 | lr = 0.1 |
现在,我们训练模型10个迭代周期。 请注意,迭代周期(num_epochs)和学习率(lr)都是可调节的超参数。 通过更改它们的值,我们可以提高模型的分类精度。
1 | num_epochs = 10 |
预测
现在训练已经完成,我们的模型已经准备好对图像进行分类预测。 给定一系列图像,我们将比较它们的实际标签(文本输出的第一行)和模型预测(文本输出的第二行)。
1 | def predict_ch3(net, test_iter, n=6): #@save |