学机器学习怎么可以不知道最小二乘法

  • 时间:
  • 浏览:1
  • 来源:大发快三_快三开户_大发快三开户

起源

起源:最小二乘法源于天文学和大地测量学领域。不可能 你这俩个多领域对精度的高要求而被发明人。

110001年,意大利天文学家朱塞普·皮亚齐发现了第一颗小行星谷神星。进行了40天的跟踪观测后,但不可能 谷神星运行到太阳肩头,选着选着离开了具体位置信息。后来全世界的科学家利用皮亚齐的观测数据后来刚开始寻找谷神星,一点 根据大多数人计算的结果来寻找谷神星都都还能能结果。时年24岁的高斯也计算了谷神星的轨道。奥地利天文学家海因里希·奥伯斯根据高斯计算出来的轨道重新发现了谷神星。高斯使用的最小二乘法的法律依据 发表于110009年他的著作《天体运动论》中,你这俩高斯正是著名数学家 卡尔·弗里德里希·高斯 ,没错倘若亲戚亲戚大伙儿大类学 认识的那个高斯。

机器学习本质确实倘若求最优解的过程,最小二乘法是回归算法中求最优解的法律依据 之一,还4个多多是梯度下降法,以前 会讲~。

思考

亲戚亲戚大伙儿在正式讲最小二乘法以前 ,读者大大们可不都还能能想下下面你这俩问题临近中秋,小明我应该 个人做月饼,现在已知你这俩规格月饼所需的面粉重量如下:

月饼重量(g)面粉重量(g)
1000 20
1000 81
1000 110
190 90
220 11000

现在小明想做规格为140g的月饼,请问他时要多少克月饼现在读者大大们根据平时经验,可不都还能能思考下为啥会么会求。九年义务教育我时要看见你这俩题目就条件反射列方程求未知数,真不知道读者大大们是是是不是是也是原来~

原理

亲戚亲戚大伙儿从原来角度来看你这俩问题亲戚亲戚大伙儿将这有一个月饼用坐标系标出来,如下图 一点 亲戚亲戚大伙儿先用画出一根绳子 接近这有一个点的线,假设线性关系为

是是是不是是倘若亲戚亲戚大伙儿找出一根绳子 最接近这有一个点的线就可不都还能能了,原来算出来的值是最接近真实值的。

由图可不都还能能得出,时要这条线跟你这俩有一个点的误差最小, 每个点跟线的误差如下所示

不可能 误差是长度,很多很多要算绝对值,计算起来不方便,用平方来替代

最后将所有误差值累加得出

最小二乘法呼之欲出,这倘若最小二乘法的原理了,即让误差的平方总和尽不可能 小。从求一根绳子 最接近这有一个点的线的问题转化成求最小化误差的问题。

求解

都还能能为啥会么会求呢,继续以中间的为例子。这是4个多二次函数。总误差的平方:

根据多元微积分,当

你这俩以前 ϵ 取得最小值,求的a,b的解为

a,b求出后,这条最接近的线也就出来了

进一步现在假设这条线是 二次函数,结果如可

亲戚亲戚大伙儿可不都还能能选着不同的 f(x),根据最小二乘法得出不一样的拟合函数。不过选着f(x)还是都还能能太随意,不然要么不准,要么容易过拟合。代码实现整个思路如下

目标函数:代入生成的x,生成对应的y

def real_func(x):
  return np.sin(2*np.pi*x)

随机生成10个x进行实验:

x = np.linspace(0, 1, 10)

构造多项式拟合函数:

#多项式
def fit_func(p,x):
    """
    eg:p = np.poly1d([2,3,5,7])

   print(p)==>>2x3 + 3x2 + 5x + 7
    """
    f = np.poly1d(p)
    return f(x)

计算误差:

#残差
def residuals_func(p, x, y):
    ret = fit_func(p, x) - y
    return ret

leastsq 是 scipy 库 进行最小二乘法计算的函数,也倘若通过误差函数以及数据点进行亲戚亲戚大伙儿前面讲的对参数进行求导操作,最后得出亲戚亲戚大伙儿拟合出来的函数。

def fitting(M=0):
    """
    n 为 多项式的次数
    """    
    # 随机初始化多项式参数
    #numpy.random.rand(d0)的随机样本占据

[0, 1)之间。d0表示返回多少个
    p_init = np.random.rand(M+1) #生成M+4个多随机数的列表
    # 最小二乘法
    p_lsq = leastsq(residuals_func, p_init, args=(x, y)) # 4个多参数:误差函数、函数参数列表、数据点
    print('Fitting Parameters:', p_lsq[0])
    
    # 可视化
    plt.plot(x_points, real_func(x_points), label='real')
    plt.plot(x_points, fit_func(p_lsq[0], x_points), label='fitted curve')
    plt.plot(x, y, 'bo', label='noise')
    plt.legend()
    return p_lsq
    
    # M=0
    p_lsq = fitting(M=0)

亲戚亲戚大伙儿从一次函数依次增加项式,找到最大慨的拟合曲线。



到9次的以前 ,不可能 详细拟合那先 点了 。

总结

亲戚亲戚大伙儿可不都还能能看出,最小二乘法的原理确实非常简单,运用起来也简洁,应用广泛。一点 它是是不是一定的局限性,比如不可能 拟合函数是是不是线性的,就无法用最小二乘法了。还有一点,本文讲的最小二乘法是最简洁的,一点 它对噪声的容忍度很低,容易造成过拟合,很多很多还时要加上正则化,你这俩有兴趣的读者可不都还能能了解下。最小二乘法运用误差角度求最优解的思路是亲戚亲戚大伙儿机器学习中4个多很经典也很常用的思维方向之一,为学习机器学习打下4个多好基础。这也是把它装入 亲戚亲戚大伙儿的机器学习系列最后来刚开始的因为。

ps:时要详细代码,关注公众号,回复‘最小二乘法’获得~

本文首发微信公众号“哈尔的数据城堡”.