扫二维码与项目经理沟通
我们在微信上24小时期待你的声音
解答本文疑问/技术咨询/运营咨询/技术建议/互联网交流
从理论上讲,随机梯度比梯度下降得快有两个原因。
创新互联建站主要从事网站设计、成都网站建设、网页设计、企业做网站、公司建网站等业务。立足成都服务茌平,10多年网站建设经验,价格优惠、服务专业,欢迎来电咨询建站服务:18980820575由于初始化设置中的参数是随机的,通常远离最佳结果,因此在初始阶段快速离开初始区域并向前移动到最佳区域非常重要。随机梯度下降算法每次迭代只有一个样本。与梯度下降算法相比,只要学习速率正确,随机梯度下降算法可以更快地离开初始区域,并且在初始阶段所花费的时间远远大于随机梯度下降算法面对噪声时在后期所浪费的时间。
在梯度下降算法的计算中,所有的数据都是同时计算的,所有的数据通常都包含相似的数据,构成冗余。因此,在实际应用中,即使使用少量的随机数据,随机梯度下降算法的结果也与梯度下降算法的结果基本相同。当数据集非常大时,很可能会出现类似的函数。新加坡元的优势在这个时候更加明显。梯度下降将在每次参数更新之前计算相似样本的梯度。SGD更新一个样本的方法使得无需遍历就可以很容易地得到最优解。虽然会损失一些精度,但很幸运是的,当我们做机器学习训练任务时,大多数时候我们并不追求最优解,而是往往提前结束,所以精度的小缺陷在这里并不那么重要。
我们在微信上24小时期待你的声音
解答本文疑问/技术咨询/运营咨询/技术建议/互联网交流