线性回归和非线性回归有什么区别?

在机器学习中,我了解线性回归假设方程中的参数或权重应为线性。例如:

  

Y = W1 * X1 + W2 * X2

是一个线性方程,其中X1,X2是特征变量,W1,W2是参数。


  

Y = W1 *(X1)^ 2 + W2 *(X2)^ 2

也是线性的,因为参数(W1,W2)相对于Y呈线性。

现在,我读了一些文章,指出像

这样的方程式
  

Y =对数(W1)* x1 +对数(W2)* x2

也可以通过将其他变量V1和V2视为线性来使

为线性:

  

V1 =对数(W1)
  V2 = Log(W2)

因此,

  

Y = V1 * X1 + V2 * X2

因此,从这个意义上讲,任何非线性方程式都可以线性化,然后非线性回归就可以了。我想我在这里错过了一些重要的事情。  我是机器学习领域的初学者。有人可以帮我吗?

PS-这是我在StackOverflow上遇到的第一个问题,因此,如果在编写有效问题时出错,请原谅我。

qq492096437 回答:线性回归和非线性回归有什么区别?

暂时没有好的解决方案,如果你有好的解决方案,请发邮件至:iooj@foxmail.com
本文链接:https://www.f2er.com/2877412.html

大家都在问