这个想法来源于深度学习中,深度学习模型在数据集上进行训练拟合数据,获得泛化能力,从而能预测新的数据。其中训练算法就是先让模型通过输入数据预测出一个值,将这个值与样本标签值做误差,将误差通过例如牛顿迭代、梯度下降反向更新模型权重,这个权重将会使模型有更准确的预测,于是不断进行这个过程,预测与更新,模型将越来越准确。当然,那是理想情况,模型往往会停留在某一误差上不在继续更新权重,这个误差点,我们称之为局部最优解,与之对应的还有全局最优解。但全局最优解往往可想而不可求,基本上是不可能使模型达到这里。但一般情况,往往模型达到一个次优解,能有个较低的误差就可以了。
这篇文章主要就是想讨论下,人生是否有这样一个解,以及我们应该怎么到达那个解。