GD: 梯度下降是用于找到函数最小值的一阶迭代优化算法。 为了使用梯度下降找到函数的局部最小值,需要采用与当前点处函数的梯度(或近似梯度)的负值成比例的步长。 相反,如果采用与梯度的正值成比例的步长,则接近该函数的局部最大值; 然后将该过程称为梯度上升。