文章作者:Tyan
博客:noahsnail.com | CSDN | 简书
注:本文为李沐大神的《动手学深度学习》的课程笔记!
1 | # 导入mxnet |
数据获取
1 | # 批数据大小 |
多层感知机
1 | # 输入数据大小 |
激活函数
1 | # 激活函数使用ReLU, relu(x)=max(x,0) |
定义模型
1 | def net(X): |
Softmax和交叉熵损失函数
1 | # 定义交叉熵损失 |
训练
1 | # 定义迭代周期 |
Epoch 0. Loss: 1.042064, Train acc 0.630976, Test acc 0.776142
Epoch 1. Loss: 0.601578, Train acc 0.788862, Test acc 0.815204
Epoch 2. Loss: 0.525148, Train acc 0.816556, Test acc 0.835136
Epoch 3. Loss: 0.486619, Train acc 0.829427, Test acc 0.833033
Epoch 4. Loss: 0.459395, Train acc 0.836104, Test acc 0.835136