最近开始学习吴恩达老师的机器学习,碰到了一个问题:在梯度下降算法中,有时候会用到特征放缩,就结果而已确实可以使梯度下降算法正常运行,但是进行特征缩放以后,结果会发生变化,那要怎么还原呢?
1
joevictory 2018-05-08 18:52:49 +08:00 via Android
什么是特征?比如图像,颜色算不算特征?那么原始图像缩放呢?
|
2
takato 2018-05-08 18:58:00 +08:00
是监督学习吗?
|
3
Ehend OP @joevictory 没到图像那么难的程度,就是 x1,x2 什么的,缩放是每个 x 减去平均值再除以标准差,想知道怎么还原
|
5
Ehend OP @joevictory 是线性回归,依据放缩后的特征值求出了斜率,那斜率肯定和原始的特征值不匹配,想知道怎么还原
|
6
sosilver 2018-05-08 19:26:17 +08:00 via Android
结果怎么变化了?为什么要还原?
|
7
Ehend OP @sosilver 难道依据缩放以后的特征值 x1 求出的斜率以及截距,可以直接带回原来的特征值 x0 求 y 吗
|
8
zetary 2018-05-08 19:30:35 +08:00 via iPhone 1
结果怎么会变化,对应的 min 应该是一样的. argmin 不一样是因为你放缩了倒着变化回去不就可以了。
|
9
Ehend OP @zetary 斜率也不会变化吗?如果 y 有两个相关的特征,且最大和最小值不一样,那数轴貌似并不是等比例放缩吧?
|
11
scruel 2018-05-08 23:31:08 +08:00 1
|
12
wizardforcel 2018-05-08 23:48:00 +08:00 via Android 1
w * ( x - mu) / sigma
原始的权重 是 w/ sigma 原始的偏置是 b - 所有 w * mu / sigma |
13
Ehend OP @wizardforcel 谢谢,就是这个
|