numpy和tensor之间转换:
输出结果:
Numpy和torch的一些函数的对比:
绝对值函数
sin函数
平均值函数:
矩阵乘法:
from torch.autograd import Variable
反向传播tensor不变 Variable可变
import torch.nn.functional as F
torch.unsqueeze()是让一维度变二维度 torch中只处理≥二维的数据
y=x.pow(2)是二次方 再加一些噪声
plt.scatter(是打印散点图)都需要用Numpy形式
开始定义网络啦:
需要继承torch.nn.Module
重写__init__()和forward()
有一些维度信息:
真正搭建的过程在forward里:
创建和打印网络结构:
设置优化器和损失:
还能看神经网络是怎么学习的动态图~
这里略过~有需要看视频
可以看视频
3.3 快速搭建法 3.4 保存提取神经网络保存:
提取:
import torch.utils.data as Data
把第九行深绿色删去
其他加速下降的途径:
下载并导入数据集:
为了呈现出训练集的样子:
加载进来数据:
CNN网络搭建:
第一层
数据维度变化见注释:
前向传播(考虑到batch):
运行训练:
训练效果:
超参数:
准备数据:
定义RNN 其中的__init__方法
forward方法:
训练:
暂时略过
插曲 自编码 Autoencoder 4.4 Autoencoder自编码有encoder和decoder
先略过