课堂笔记 - 深度学习 Deep Learning (11)

Gradient Descent – one weight with Bias

上篇的说明当 b=0 时该如何校正w的, 其实基本上大同小异,都是用相同的方式去校正w

当 b!=0 的时候公式会多个b在算距离的时候先做加减:
http://img2.58codes.com/2024/20142783FJTpnJbL9G.png

一样对E(w,b)作偏微分,只需要注意不要微错就好:
http://img2.58codes.com/2024/20142783JuRlxHoQYk.png

梯度训练公式:
http://img2.58codes.com/2024/20142783OF3YKqTFut.png

Gradient Descent – more weight with Bias

多个属性的梯度下降跟单个属性差不多,虽然看起来突然複杂了一点,过程跟流程都跟上面的步骤一致。

假设有M个属性:
一样对E(w1,w2,w3,...wM,b)作偏微分:
http://img2.58codes.com/2024/20142783eW9gHufdDj.png

多属性的训练公式:
http://img2.58codes.com/2024/201427839TKoRsbesh.png

Gradient Descent Algorithm的补充

同时被称为:

Delta ruleADALINE ruleWidrow-Hoff rule

在回归问题时可拥有无限输出量的值,在分类问题时可以输出有限的值。
Regression: with numeric output label(s) >> an infinite number of values
Classification: with nominal output label(s) >> a finite number of values


关于作者: 网站小编

码农网专注IT技术教程资源分享平台,学习资源下载网站,58码农网包含计算机技术、网站程序源码下载、编程技术论坛、互联网资源下载等产品服务,提供原创、优质、完整内容的专业码农交流分享平台。

热门文章