【Python】python实现线性回归,使用梯度下降法,结果成了一条水平直线,哪儿出了问题?
用最小二乘法出来结果是这样的
相应的cost function 是2.9
梯度下降就成这样了。。。。
线的轨迹是从下到上,到中间基本就不怎么动了
cost function 到74.9左右变化就很小
代码如下:
import pandas as pdfrom numpy import *
import matplotlib.pyplot as plt
year = [2000, 2001, 2002, 2003, 2004, 2005, 2006, 2007, 2008,
2009, 2010, 2011, 2012, 2013]
price = [2.000, 2.500, 2.900, 3.147, 4.515, 4.903, 5.365, 5.704,
6.853, 7.971, 8.561, 10.000, 11.280, 12.900]
m = len(year)
# initialize
xx = mat(array(year))
xx = xx.T
x0 = mat(ones((m, 1)))
# print x0
xx = hstack((x0, xx))
# print xx
yy = mat(array(price))
yy = yy.T
# # xx is m*2 matrix
# # yy is m*1
# Hypothesis
def h(vx, theta):
return vx * theta
# Cost function
def J(theta, vx, vy):
J = float((vx * theta - vy).T * (vx * theta - vy)) / 2
return J
# Gradient Descent
theta = mat([0, 0]).T
n_iters = 99
alpha = 0.0000001
J_history = mat(ones((n_iters, 1)))
for i in range(n_iters):
err = xx * theta - yy
theta = theta - alpha/m * xx.T * err
J_history[i, :] = J(theta, xx, yy)
print(J_history[i, :])
print("\n")
plt.scatter(year, price)
plt.plot(year, xx * theta)
print("GD over\n\n\n")
print(J_history)
print("GD over\n\n\n")
print(theta.T)
plt.show()
回答
把2000-2013改成了0-13就好了
学习速率alpha太小了吧,参数基本没有变
theta迭代次数太少,而且每次的学习步长alpha太小。当时学的时候,一般都是10000次迭代,或者当前cost减去前一次的cost的值在一个很小的范围,说明已经到了极小值点附近,就跳出循环
如果楼主想学随机梯度下降算法的话,可以参考这篇文章自己动手用python写梯度下降
以上是 【Python】python实现线性回归,使用梯度下降法,结果成了一条水平直线,哪儿出了问题? 的全部内容, 来源链接: utcz.com/a/79717.html