我们老师是这么教我们的,优先选择线性回归,因为线性回归容易处理。也可以选择非线性回归。但是一旦选择了后者,就麻烦了,因为非线性回归很复杂,而线性回归的方法基本上前人已经完善的差不多了。
线性回归:
将数据带入假设的线性回归方程中,估计出参数值。之后,还需要对得出的经验回归方程进行假设检验(这个比较复杂,需要找一本概率论的书,自行阅读。)如果检验通过,则表明该经验方程是具备应用意义的。
如果没有通过,则需要更换假设的回归方程,一般仍是假设线性的回归方程,利用逐步分析回归方法:
比如,把影响因子x1,x2,x3与因变量y,进行二次回归或更高次的回归
二次回归假设:E(y)=β0+β1x1+β2x2+β3x3+β4x1x2+β5x1x3+β6x2x3+β7x1^2+β8x2^2+β9x3^2(每一项的次数至多为2)
将观测数据重新带入其中,估计出参数值,再进行假设检验。如果没通过,可以选择用更高次的线性拟合。
非线性回归:
非线性回归当中,估计参数值没有太好的办法。在求解Q(β0,β1,β2)方程的最小值的时候,采用以下办法:就像盲人摸象一样,先选择一个迭代的初始点位,固定一个参数变量的值,以圆形圆形的方式取很多组另外两个参数变量值,进行计算。将这一套计算中的最小值处,作为下一个迭代的初始点位,进行新一轮的计算。这么重复直至初始点位为附近的最小值处位置。
这种方法有明显的弊端,估计参数的时候找到的最小值,不见得是全局的最小值,很可能是局部的最小值点。并且非线性回归分析没有成熟而完整的理论对得到的方程进行假设检验。
温馨提示:答案为网友推荐,仅供参考