文章作者:Tyan
博客:noahsnail.com | CSDN | 简书
注:本文为李沐大神的《动手学深度学习》的课程笔记!
1 | # 导入mxnet |
获取和读取数据
1 | # 批数据大小 |
定义模型
1 | # 按顺序堆叠网络层 |
Softmax和交叉熵损失函数
1 | # 定义交叉熵损失 |
优化
1 | # 定义训练器和优化方法 |
训练
1 | # 定义迭代周期 |
Epoch 0. Loss: 0.819048, Train acc 0.728666, Test acc 0.768530
Epoch 1. Loss: 0.550646, Train acc 0.808644, Test acc 0.823618
Epoch 2. Loss: 0.488554, Train acc 0.829210, Test acc 0.845553
Epoch 3. Loss: 0.457407, Train acc 0.839493, Test acc 0.842448
Epoch 4. Loss: 0.438059, Train acc 0.845486, Test acc 0.852063