300字范文,内容丰富有趣,生活中的好帮手!
300字范文 > 机器学习系列 | 线性回归模型(简单线性回归 局部线性回归 非线性关系)

机器学习系列 | 线性回归模型(简单线性回归 局部线性回归 非线性关系)

时间:2020-02-20 20:37:27

相关推荐

机器学习系列 | 线性回归模型(简单线性回归 局部线性回归 非线性关系)

1.什么是线性回归?

线性回归是试图在一堆数据中训练得到自变量x和因变量y中一组线性关系,如 y = w x + b y=wx+b y=wx+b。例如把人脚底板长度作为自变量,身高作为因变量,那么在这两种数据之间就可以做一个简单线性回归,可以得到脚底板长度和身高的关系式。

维基百科:线性回归

在统计学中,线性回归是利用称为线性回归方程的最小二乘函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。

周志华:机器学习

基于均方误差最小化来进行模型求解的方法称为“最小二乘法”,线性回归中最小二乘法就是试图找到一条直线,使所有样本到直线上的欧氏距离之和最小。

2. 线性回归的目标函数

要想求得这组线性关系,即求得相应的回归系数的值。那么先讲解一下线性回归的目标函数。

假设一堆数据中因变量为y,自变量为 x 1 , x 2 , . . . , x n x_1,x_2,...,x_n x1​,x2​,...,xn​,对其进行线性回归,求得结果会如下所示:

y = w 0 + w 1 x 1 + w 2 x 2 + . . . + w n x n = ∑ i = 0 n w i x i = w T x y=w_0+w_1x_1+w_2x_2+...+w_nx_n=\sum_{i=0}^nw_ix_i=w^Tx y=w0​+w1​x1​+w2​x2​+...+wn​xn​=i=0∑n​wi​xi​=wTx

其中w0是x0=1的系数,表示为全局偏移量,在平面直线中的具体意义为截距,也作为自变量的一个维度,其中w就是我们需要求得的。那么怎么去求得这个w呢?假设一共有m个样本,对于第i个数据,有

y ( i ) = w T x ( i ) + ξ ( i ) y^{(i)}=w^Tx^{(i)}+\xi^{(i)} y(i)=wTx(i)+ξ(i)

对于一个样本来说, y ( i ) − w T x ( i ) y^{(i)}-w^Tx^{(i)} y(i)−wTx(i)为一个样本存在的误差。显然求得需要的w的方法,就是找出使误差最小的w,然而使用这个误差的简单累加将使得正差值和复差值抵消,所以我们采用均方误差,那么对于全部的m个样本来说,总误差为

J ( w ) = ∑ i = 1 m ( y ( i ) − w T x ( i ) ) 2 J(w)=\sum_{i=1}^{m}(y^{(i)}-w^Tx^{(i)})^2 J(w)=i=1∑m​(y(i)−wTx(i))2

均方误差是回归任务中最常用的性能度量,有非常好的几何意义,它对应了常用的欧几里得距离或简称“欧氏距离”

显然我们需要这个总误差的值为最小,所以取目标函数为

J ( w ) = ∑ i = 1 m ( y ( i ) − w T x ( i ) ) 2 J(w)=\sum_{i=1}^{m}(y^{(i)}-w^Tx^{(i)})^2 J(w)=i=1∑m​(y(i)−wTx(i))2

求这个目标函数最小值时的w,就是我们需要的w了。

3. 求目标函数得回归系数

3.1 梯度下降算法

对于求最小值的问题,我们能想到的第一个应该是梯度下降算法。在实验过程中发现,在对上述的目标函数进行梯度下降时,需要把步长设置的很小很小才行,为此我们先将目标函数改为如下形式

J ( w ) = 1 2 m ∑ i = 1 m ( y ( i ) − w T x ( i ) ) 2 J(w)=\frac{1}{2m}\sum_{i=1}^{m}(y^{(i)}-w^Tx^{(i)})^2 J(w)=2m1​i=1∑m​(y(i)−wTx(i))2

之后我们使用梯度下降算法来求这个目标函数的最小值。该目标函数的梯度为

∇ J ( w ) = ( ∂ J ( w ) ∂ w 1 , ∂ J ( w ) ∂ w 2 , . . . , ∂ J ( w ) ∂ w n + 1 ) \nabla J(w) = (\frac{\partial J(w)}{\partial w_1},\frac{\partial J(w)}{\partial w_2},...,\frac{\partial J(w)}{\partial w_{n+1}}) ∇J(w)=(∂w1​∂J(w)​,∂w2​∂J(w)​,...,∂wn+1​∂J(w)​)

∂ J ( w ) ∂ w j = ∂ 1 2 m ∑ i = 1 m ( y ( i ) − w T x ( i ) ) 2 ∂ w j = 1 2 m ∑ i = 1 m ∂ ( y ( i ) − w T x ( i ) ) 2 ∂ w j = 1 m ∑ i = 1 m ( w T x ( i ) − y ( i ) ) . x j i \begin{aligned} \frac{\partial J(w)}{\partial w_j} &= \frac{\partial {\frac{1}{2m}\sum_{i=1}^{m}(y^{(i)}-w^Tx^{(i)})^2}}{\partial w_j}\\ &=\frac{1}{2m}\sum_{i=1}^m\frac{\partial (y^{(i)}-w^Tx^{(i)})^2}{\partial w_j}\\ &=\frac{1}{m}\sum_{i=1}^m(w^Tx^{(i)}-y^{(i)}).x_j^i \end{aligned} ∂wj​∂J(w)​​=∂wj​∂2m1​∑i=1m​(y(i)−wTx(i))2​=2m1​i=1∑m​∂wj​∂(y(i)−wTx(i))2​=m1​i=1∑m​(wTx(i)−y(i)).xji​​

所以使用梯度算法迭代的公式为

w j = w j − α ∂ J ( w ) ∂ w j = w j − α m ∑ i = 1 m ( w T x ( i ) − y ( i ) ) . x j i \begin{aligned} w_j &= w_j-\alpha\frac{\partial J(w)}{\partial w_j}\\ &=w_j-\frac{\alpha}{m}\sum_{i=1}^m(w^Tx^{(i)}-y^{(i)}).x_j^i \end{aligned} wj​​=wj​−α∂wj​∂J(w)​=wj​−mα​i=1∑m​(wTx(i)−y(i)).xji​​

然而对于迭代过程中使用的训练集数量不同,会有不同细分的梯度下降算法,但是都是梯度下降算法,核心没有变。

批量梯度下降算法

使用所有的数据集,存在的问题是每次下降都要对整个数据集进行遍历运算,当数据集很大时,他的计算机会出现溢出,或者计算时间非常长。然而随机梯度下降就可以解决这些问题。

随机梯度下降算法

每次迭代使用的是一组数据。然而随机梯度下降算法由于每次只是用了一组数据,因为他受噪声/离群点/异常值的影响非常大,由此有了一种折中的方法,那就是小批量梯度下降。

小批量梯度下降算法

每次迭代时使用一批数据,这批数据可以自行选择也可以随机产生,大小也可自由定,越大就越接近批量梯度下降,越小就越接近随机梯度下降。

下面是上述三种算法的Python代码实现,可以参考一下:

'''批量梯度下降算法'''def BGD(xArr, yArr, alpha, theta, times):m = len(xArr)for k in range(times):# 一次迭代for j in range(len(theta)):sum = 0.0# 进行求和for xi, yi in zip(xArr, yArr):sum += ((theta * xi).sum() - yi) * xi[j]# 更新theta[j] = theta[j] - (alpha * sum) / m # 不除以m的话,得把步长设置的很小很小return theta'''随机梯度下降算法'''def SGD(xArr, yArr, alpha, theta, times):m = len(xArr)for k in range(times * 10):t = random.randint(0, m - 1)# 一次迭代for j in range(len(theta)):sum = ((theta * xArr[t]).sum() - yArr[t]) * xArr[t][j]# 更新theta[j] = theta[j] - (alpha * sum) / mreturn theta'''小批量梯度下降算法'''def MBGD(xArr, yArr, alpha, theta, times):m = len(xArr)n = 5 # 小批量数据的数量for k in range(times):# 随机产生小批量的数据train_set = []for t in range(n):train_set.append(random.randint(0, m - 1))# 一次迭代for j in range(len(theta)):sum = 0.0for i in train_set:sum += ((theta * xArr[i]).sum() - yArr[i]) * xArr[i][j]# 更新theta[j] = theta[j] - (alpha * sum) / mreturn theta

3.2 矩阵求导

针对这个最小值的求法我们还可以使用的矩阵的方法,上述的目标函数

J ( w ) = ∑ i = 1 m ( y ( i ) − w T x ( i ) ) 2 J(w)=\sum_{i=1}^{m}(y^{(i)}-w^Tx^{(i)})^2 J(w)=i=1∑m​(y(i)−wTx(i))2

可以用矩阵表示为,

J ( w ) = ∑ i = 1 m ( y ( i ) − w T x ( i ) ) 2 = ( y − X w ) T ( y − X w ) J(w)=\sum_{i=1}^{m}(y^{(i)}-w^Tx^{(i)})^2=(y-Xw)^T(y-Xw) J(w)=i=1∑m​(y(i)−wTx(i))2=(y−Xw)T(y−Xw)

其中X表示m个n维样本,每一行表示一个样本,即X为mxn阶矩阵。之后求向量w的导数

J ′ ( w ) = 2 X T ( X w − y ) J'(w)=2X^T(Xw-y) J′(w)=2XT(Xw−y)

令上式为0,求得

w = ( X T X ) − 1 X T y w = (X^TX)^{-1}X^Ty w=(XTX)−1XTy

这个w就是我们需要的回归系数。但是需要注意的是,在求该式的时候涉及到了矩阵逆的计算,因此这个方程只能在逆矩阵存在的时候适用

矩阵求导方式的核心代码实现

'''矩阵的方法求参数值'''def mat(xArr, yArr):xMat = np.mat(xArr) # x矩阵xMatT = xMat.T # x的转置矩阵yMat = np.mat(yArr).T # y矩阵xTx = xMatT * xMatif (np.linalg.det(xTx) != 0):theta = xTx.I * xMatT * yMatreturn thetareturn None

4. 简单线性回归的Python实现

下面我们模拟出分布在某个函数周围的数据,然后使用上述四种方法进行线性回归,全部代码如下

import numpy as npimport mathimport randomimport matplotlib.pyplot as plt'''批量梯度下降算法'''def BGD(xArr, yArr, alpha, theta, times):m = len(xArr)for k in range(times):# 一次迭代for j in range(len(theta)):sum = 0.0# 进行求和for xi, yi in zip(xArr, yArr):sum += ((theta * xi).sum() - yi) * xi[j]# 更新theta[j] = theta[j] - (alpha * sum) / m # 不除以m的话,得把步长设置的很小很小return theta'''随机梯度下降算法'''def SGD(xArr, yArr, alpha, theta, times):m = len(xArr)for k in range(times * 10):t = random.randint(0, m - 1)# 一次迭代for j in range(len(theta)):sum = ((theta * xArr[t]).sum() - yArr[t]) * xArr[t][j]# 更新theta[j] = theta[j] - (alpha * sum) / mreturn theta'''小批量梯度下降算法'''def MBGD(xArr, yArr, alpha, theta, times):m = len(xArr)n = 5 # 小批量数据的数量for k in range(times):# 随机产生小批量的数据trainSet = []for t in range(n):trainSet.append(random.randint(0, m - 1))# 一次迭代for j in range(len(theta)):sum = 0.0for i in trainSet:sum += ((theta * xArr[i]).sum() - yArr[i]) * xArr[i][j]# 更新theta[j] = theta[j] - (alpha * sum) / mreturn theta'''矩阵的方法求参数值'''def mat(xArr, yArr):xMat = np.mat(xArr) # x矩阵xMatT = xMat.T # x的转置矩阵yMat = np.mat(yArr).T # y矩阵xTx = xMatT * xMatif (np.linalg.det(xTx) != 0):theta = xTx.I * xMatT * yMatreturn thetareturn None'''画图'''def draw_line(xArr, theta):y = []for i in xArr:y.append((theta * i).sum())plt.plot(xArr[:, 1], np.array(y), 'r', lw=2)def main():x = np.arange(0, 25, 0.5)xArr = []yArr = []# 产生用于训练的数据for xi in x:xArr.append([1, xi])yArr.append(0.5 * xi + 3 + random.uniform(0, 1) * math.sin(xi))xArr = np.array(xArr)yArr = np.array(yArr)alpha = 0.005 # 步长theta = np.array([0.0, 0.0]) # 回归系数times = 10000 # 迭代次数theta_re = BGD(xArr, yArr, alpha, theta, times)print("批量梯度下降算法下求的theta值 ", theta_re)print("批量梯度下降算法求得相关系数为\n", # 计算相关系数np.corrcoef(yArr, np.array(np.mat(xArr) * np.mat(theta_re).T)[:,0]))draw_line(xArr, theta_re)theta_re = SGD(xArr, yArr, alpha, theta, times)print("随机梯度下降算法下求的theta值", theta_re)print("随机梯度下降算法求得相关系数为\n", # 计算相关系数np.corrcoef(yArr, np.array(np.mat(xArr) * np.mat(theta_re).T)[:, 0]))draw_line(xArr, theta_re)theta_re = MBGD(xArr, yArr, alpha, theta, times)print("小批量梯度下降算法下求的theta值", theta_re)print("小批量梯度下降算法求得相关系数为\n",np.corrcoef(yArr, np.array(np.mat(xArr) * np.mat(theta_re).T)[:, 0]))draw_line(xArr, theta_re)theta_re = mat(xArr, yArr)print("矩阵求逆法求得的theta值", np.array(theta_re)[:, 0])print("小批量梯度下降算法求得相关系数为\n",np.corrcoef(yArr, np.array(np.mat(xArr) * theta_re)[:, 0]))draw_line(xArr, np.array(theta_re)[:, 0])plt.scatter(x, yArr, 60)plt.show()if __name__ == "__main__":main()

上述的梯度下降算法中,没有加上对函数值变换很小时的判断

控制台的输出结果如下所示

批量梯度下降算法下求的theta值 [3.15890008 0.48804966]批量梯度下降算法求得相关系数为[[1. 0.99426138][0.99426138 1. ]]随机梯度下降算法下求的theta值 [3.15560184 0.49059031]随机梯度下降算法求得相关系数为[[1. 0.99426138][0.99426138 1. ]]小批量梯度下降算法下求的theta值 [3.16014486 0.48668596]小批量梯度下降算法求得相关系数为[[1. 0.99426138][0.99426138 1. ]]矩阵求逆法求得的theta值 [3.15890797 0.48804918]小批量梯度下降算法求得相关系数为[[1. 0.99426138][0.99426138 1. ]]

可以通过相关系数来判断预测值和真实值之间的匹配程度,以此来比较效果好坏。Numpy库提供了相关系数的计算方法corrcoef(),返回的矩阵包含所有两两组合的相关系数。

批量梯度下降算法的图形效果如下:

随机梯度下降算法的效果如下

小批量效果如下

矩阵求逆的效果如下

5. 局部加权线性回归

线性回归的一个问题是很可能出现欠拟合的现象,因为它求的是具有最小均方误差的无偏估计。然而有时候模型会出现欠拟合的情况,那么这种情况下将不能取得很好的预测效果。所以有些方法允许在估计中引入一些偏差,来降低预测的均方误差。其中一个方法就是局部加权线性回归(LWLR)

依旧使用前面使用过的那个目标函数,只是现在是进行加权之后的,如下所示

J ( θ ) = ∑ i = 1 m w ( i ) ( y ( i ) − θ T x ( i ) ) 2 J(\theta)=\sum_{i=1}^{m}w^{(i)}(y^{(i)}-\theta^Tx^{(i)})^2 J(θ)=i=1∑m​w(i)(y(i)−θTx(i))2

其中w(i)是权重,根据要预测的点与数据集中的点的距离来为数据集中的点赋权值。某点离要预测的点越远,其权重越小,否则越大。LWLR使用“核”来对附近的点赋予更高的权重,最常用的核实高斯核,高斯核对应的权重如下:

w ( i ) = e x p ( ∣ x ( i ) − x ∣ − 2 k 2 ) w^{(i)}=exp(\frac{|x^{(i)}-x|}{-2k^2}) w(i)=exp(−2k2∣x(i)−x∣​)

上述公式中包含一个需要用户指定的参数k,它决定了对附近的点赋予多大的权重,这也是使用LWLR时唯一需要考虑的参数。然后对上式进行求解,解得回归系数如下

θ = ( X T W X ) − 1 X T W y \theta = (X^TWX)^{-1}X^TWy θ=(XTWX)−1XTWy

W​是权重矩阵,其中

w ( i , i ) = w ( i ) w(i,i) = w^{(i)} w(i,i)=w(i)

根据上述公式,编写相应的Python代码,通过改变K值来调节回归效果,代码如下

import numpy as npimport randomimport matplotlib.pyplot as pltimport math'''针对一个点的局部线性回归'''def lwlr(testPoint, xArr, yArr, k=1.0):xMat = np.mat(xArr)yMat = np.mat(yArr).Tm = np.shape(xMat)[0]weight = np.mat(np.eye(m)) # 对角都是1的矩阵for i in range(m):diffMat = testPoint - xMat[i, :]weight[i, i] = np.exp((diffMat * diffMat.T) / (-2 * k ** 2))xTx = xMat.T * weight * xMatif np.linalg.det(xTx) != 0:theta = xTx.I * xMat.T * weight * yMatreturn thetareturn Nonedef lwlrAll(testArr, xArr, yArr, k=1.0):m = np.shape(testArr)[0]yHat = np.zeros(m)for i in range(m):thetaRe = lwlr(testArr[i], xArr, yArr, k)yHat[i] = testArr[i] * thetaRereturn yHatdef main():# 产生用于训练的数据x = np.arange(0, 25, 0.5)xArr = []yArr = []for xi in x:xArr.append([1, xi])yArr.append(0.5 * xi + 3 + random.uniform(0, 1) * math.sin(xi))xArr = np.array(xArr)yArr = np.array(yArr)# 对所有样本依次进行局部线性回归,并画图plt.figure(1)yHat = lwlrAll(xArr, xArr, yArr, 1.0)plt.scatter(xArr[:, 1], yArr, 60)plt.plot(xArr[:, 1], yHat, 'r', lw=2)plt.figure(2)yHat = lwlrAll(xArr, xArr, yArr, 0.3)plt.scatter(xArr[:, 1], yArr, 60)plt.plot(xArr[:, 1], yHat, 'r', lw=2)plt.figure(3)yHat = lwlrAll(xArr, xArr, yArr, 0.1)plt.scatter(xArr[:, 1], yArr, 60)plt.plot(xArr[:, 1], yHat, 'r', lw=2)plt.show()if __name__ == "__main__":main()

上述代码的效果如下,第一张图是K=1.0的,拟合的效果较好;第二张图是K=0.3的;第三张图是K=0.1,考虑太多噪声,有点过拟合了。

最后说一下局部线性回归存在的问题,局部线性回归增加一定的计算量,因为它对每个点做预测时都必须使用整个数据集。从上述图中K=0.1的情况中可以看出,大多数据点的权重都接近零,如果避免这些计算将可以减少程序运行时间,从而缓解计算机量增加带来的问题。

6. 示例:预测鲍鱼的年龄

这个示例是机器学习实战这本书上的一个示例,将局部线性回归知识用于真实数据。使用的是来自UCI数据集合的数据,数据集大概情况如下(数据集地址见文末)

10.4550.3650.0950.5140.22450.1010.151510.350.2650.090.22550.09950.04850.077-10.530.420.1350.6770.25650.14150.21910.440.3650.1250.5160.21550.1140.1551000.330.2550.080.2050.08950.03950.055700.4250.30.0950.35150.1410.07750.128-10.530.4150.150.77750.2370.14150.3320-10.5450.4250.1250.7680.2940.14950.261610.4750.370.1250.50950.21650.11250.1659-10.550.440.150.89450.31450.1510.3219-10.5250.380.140.60650.1940.14750.211410.430.350.110.4060.16750.0810.1351010.490.380.1350.54150.21750.0950.1911-10.5350.4050.1450.68450.27250.1710.20510-10.470.3550.10.47550.16750.08050.1851010.50.40.130.66450.2580.1330.241200.3550.280.0850.29050.0950.03950.1157-10.440.340.10.4510.1880.0870.131010.3650.2950.080.25550.0970.0430.17

从数据集可以看到,数据集是多维的,最后一列代表鲍鱼的真实年龄,前面几列的数据是一些鲍鱼的特征,例如鲍鱼壳的层数等,基于的推论是鲍鱼的真实年龄可由鲍鱼壳的层数等鲍鱼的特征推算而出。下面我们不对数据进行处理,直接测试局部加权回归的效果:

import numpy as npdef loadDataSet(filePath):f = open(filePath)numFeat = len(f.readline().split("\t")) - 1 # 获取一行特征的数量dataList = []labelList = []f.seek(0) # 文件指针回到初始位置for line in f.readlines():lineArr = []curLine = line.strip().split("\t") # strip去掉\nfor i in range(numFeat):lineArr.append(float(curLine[i]))dataList.append(lineArr)labelList.append(float(curLine[-1]))return dataList, labelListdef lwlr(testPoint, xArr, yArr, k=1.0):xMat = np.mat(xArr)yMat = np.mat(yArr).Tm = np.shape(xMat)[0]weight = np.mat(np.eye(m))for i in range(m):diffMat = testPoint - xMat[i, :]weight[i, i] = np.exp((diffMat * diffMat.T) / (-2.0 * k ** 2))xTx = xMat.T * (weight * xMat)if np.linalg.det(xTx) != 0.0:theta = xTx.I * (xMat.T * (weight * yMat))return testPoint * thetareturn Nonedef lwlrAll(testArr, xArr, yArr, k=1.0):m = np.shape(testArr)[0]yHat = np.zeros(m)for i in range(m):yHat[i] = lwlr(testArr[i], xArr, yArr, k)return yHatdef standRegres(xArr, yArr):xMat = np.mat(xArr)yMat = np.mat(yArr).TxTx = xMat.T * xMatif np.linalg.det(xTx) != 0.0:theta = xTx.I * (xMat.T * yMat)return thetareturn Nonedef rssError(yArr, yHatArr):return ((yArr - yHatArr) ** 2).sum()if __name__ == '__main__':abaloneX, abaloneY = loadDataSet("abalone.txt")yHat01 = lwlrAll(abaloneX[0:99], abaloneX[0:99], abaloneY[0:99], 0.1)yHat1 = lwlrAll(abaloneX[0:99], abaloneX[0:99], abaloneY[0:99], 1)yHat10 = lwlrAll(abaloneX[0:99], abaloneX[0:99], abaloneY[0:99], 10)print("k=0.1时,训练集上的误差为:", rssError(abaloneY[0:99], yHat01))print("k=1时,训练集上的误差为:", rssError(abaloneY[0:99], yHat1))print("k=10时,训练集上的误差为:", rssError(abaloneY[0:99], yHat10))yHat01 = lwlrAll(abaloneX[100:199], abaloneX[0:99], abaloneY[0:99], 0.1)yHat1 = lwlrAll(abaloneX[100:199], abaloneX[0:99], abaloneY[0:99], 1)yHat10 = lwlrAll(abaloneX[100:199], abaloneX[0:99], abaloneY[0:99], 10)print("k=0.1时,测试集上的误差为:", rssError(abaloneY[100:199], yHat01))print("k=1时,测试集上的误差为:", rssError(abaloneY[100:199], yHat1))print("k=10时,测试集上的误差为:", rssError(abaloneY[100:199], yHat10))theta = standRegres(abaloneX[0:99],abaloneY[0:99])yHat = np.mat(abaloneX[100:199])*thetaprint("简单线性回归时的误差为:", rssError(abaloneY[100:199], yHat.T.A))

输出结果如下:

k=0.1时,训练集上的误差为: 56.78868743050092k=1时,训练集上的误差为: 429.89056187038k=10时,训练集上的误差为: 549.1181708827924k=0.1时,测试集上的误差为: 57913.51550155911k=1时,测试集上的误差为: 573.5261441895982k=10时,测试集上的误差为: 517.5711905381903简单线性回归时的误差为: 518.6363153245542

从输出结果可以看出,当核k=10的时候,训练集上的误差是最大的,但是测试集上的误差是最小的,同时它效果和简单线性回归的效果类似。所以在所有数据集上都使用最小的核的话,将会造成过拟合,在新数据上不一定能达到最好的预测效果。

注意:

1.在局部加权线性回归中,过小的核可能导致过拟合现象,即在训练集上表现良好,但在测试集上表现就不行了;

2.训练的模型要在测试集上比较他们的效果,而不是训练集;

7.如何用线性回归模型拟合非线性关系

线性模型也可以拟合自变量和因变量之间的非线性关系,只是需要对样本数据进行修改。比如有一些样本,只有一个特征,我们把特征和结果作图以后发现,可能是这个样子的:

从样本特征和结果关系走势来看,这不是一个直线,看起来挺像二阶曲线的,那么我们可以把一个特征“变成”两个,如

设 X = ( x 1 , x 2 ) ( 其 中 x 1 = x 2 ; x 2 = x ) , 有 : f ( x 1 , x 2 ) = a + b 1 x 2 + b 2 x = a + b 1 x 1 + b 2 x 2 设 X=(x_1,x_2)(其中 x_1=x^2;x_2=x),有:\\ f(x_1,x_2)=a+b_1x^2+b_2x=a+b_1x_1+b_2x_2 设X=(x1​,x2​)(其中x1​=x2;x2​=x),有:f(x1​,x2​)=a+b1​x2+b2​x=a+b1​x1​+b2​x2​

那么在添加“新的特征”之后的样本集上去训练这个函数

f ( x 1 , x 2 ) = a + b 1 x 1 + b 2 x 2 f(x_1,x_2)=a+b_1x_1+b_2x_2 f(x1​,x2​)=a+b1​x1​+b2​x2​

那么得到回归系数之后代回函数

f ( x ) = a + b 1 x 2 + b 2 x f(x)=a+b_1x^2+b_2x f(x)=a+b1​x2+b2​x

那么就相当于拟合了一个二阶多项式了。这种操作以此类推都可以,比如三阶、四阶、对数都行。

预测鲍鱼的年龄的数据集地址:/xiaoheidev/MachineLearningInActionSourceCode/blob/master/Ch08/abalone.txt

参考内容

机器学习,周志华机器学习实战,[美]Peter HarringtonCSDN_线性回归及其Python实现(最大似然法)CSDN_Python实现批量梯度下降 随机梯度下降 小批量梯度下降 代码CSDN_【机器学习】局部加权线性回归

欢迎关注微信公众号【一口程序锅】,一口想煮点技术的锅。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。