问题:房价预测
神经网络源于神经科学,就像神经元之间的输入、处理、输出一样。
训练损失
最小化损失来学习参数
将偏差加入权重
损失是凸函数,最优解满足梯度为0
挑选一个初始值
重复跌倒参数t = 1,2,3…
包括数据流水线、模型、损失函数和小批量随机梯度下降优化器。
具体代码直接看jupyter,不写在markdown文档
将根据带有噪声的线性模型构造一个人造数据集,生成一个包含1000个样本的数据集, 每个样本包含从标准正态分布中采样的2个特征,任务是使用这个有限样本的数据集来恢复这个模型的参数。
w = [2,3.4]^T, b = 4.2
接受批量大小、特征矩阵和标签向量作为输入,随机生成batch_size的小批量
yield 表示每次调用,返回一个x,一个y
定义初始化模型参数 w,b
定义模型。
定义损失函数:均方损失
定义优化算法:小批量随机梯度下降
设计超参数
一个epoch里:
读一个batch的数据,然后调用模型预测。
将结果和标签算loss
梯度下降
调用优化算法更新参数。
评价这个epoch
用torch框架。
模型用预定义好的层。
loss用MSELoss类,SGD实例化即可。
训练用trainer。
回归 vs 分类
其实,分类问题并不关心预测值,关心的是正确类别的预测值是不是特别大。
方差
真实值-预测值的绝对值
真实值和预测值相差较大时,用L2,使得梯度均匀;反之,用L1
好处:优化过程是平滑的
因篇幅问题不能全部显示,请点此查看更多更全内容
Copyright © 2019- awee.cn 版权所有 湘ICP备2023022495号-5
违法及侵权请联系:TEL:199 1889 7713 E-MAIL:2724546146@qq.com
本站由北京市万商天勤律师事务所王兴未律师提供法律服务