西瓜书 习题11.1 编程实现Relief算法 特征选择、正则化总结

前端之家收集整理的这篇文章主要介绍了西瓜书 习题11.1 编程实现Relief算法 特征选择、正则化总结前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

Relief算法的数据以及代码:https://github.com/qdbszsj/Relief

西瓜书第十一章,主要讲了一下特征选择的方法,通常来说,有很多冗余特征,如果能把这些特征从我们的数据集中筛选出去,那么可以极大地提高我们的程序运行效率,当然有的时候我们还需要人为保留或者创造一些冗余特征,当且仅当这些冗余特征恰好对应了完成任务所需要的“中间概念”。比如要求一个立方体的体积时,输入数据只有长宽高,如果能人为创造一个“底面积”或者“侧面积”这样的冗余特征,那么更容易求解,这个冗余特征要分情况来确定。

这里我们不主要探讨冗余特征,而是多说一些如何筛选特征,也就是搜索一个特征子集,让这个子集训练出来的模型最棒,这个问题显然是NP的,一切搜索方法都有局限性,那么目前我们常用的特征选择方法三种:过滤式filter、包裹式wrapper、嵌入式embedding。

过滤式选择:

先对数据集进行特征选择,再训练学习器,特征选择与后续学习无关,我这个Relief算法就是一种经典的过滤式选择,Relief是先把每个个体的最近邻求出来,这里有几个分类结果就要求几个对应的近邻,分为猜中近邻(near-hit)和猜错近邻(near-miss),然后根据式11.3求一下各个属性的值就行,分量值越大,对应属性的能力就越强。

包裹式选择:

直接把最终要使用的学习器的性能作为特征子集的评价准则,量身定做特征子集,这里就是固定好学习器,然后随机的选子集,哪个子集误差小就用哪个,著名的有LAW拉斯维加斯wrapper。

嵌入式选择:

说白了就是用L1正则化来求解目标函数,比较容易得到稀疏解,然后有的分量可能取值就为0了,于是这个分量对应的属性就相当于被筛掉了。

这里重点说一下正则化:

正则化是用来防止过拟合的工具,样本特征多,样本数量少,很容易陷入过拟合,这时候我们加一个正则化项,希望求到一个尽量平滑、权值和较小的解,这里通常有L2、L1、L0正则化,L2范数就是求w的欧式距离,L1对应曼哈顿距离,L0对应切比雪夫距离,这些距离都是类闵可夫斯基距离,就是各个分量差的p次方之和再开p次根,在二维空间里,如果距离为1,欧式距离可以理解为一个半径为1的圆,曼哈顿距离能画出一个旋转了45度的正方形,对角线长度是2,边长根2,切比雪夫就是一个边长为2的正方形,在三维空间里,若距离为1,L2就是半径为1的球,L1就是一个边长根2的正八面体,L0就是一个边长为2的立方体。于是L1和L0更容易在顶点处与误差项相交(L0比L1更容易),从而获得稀疏解,而L2更容易获得各个分量都很均衡的解。这里我们通常不用L0正则,因为L0正则是不连续的,没法求导,无法优化求解。(书P253页的图很棒)

Relief的代码

这里我把西瓜数据集都处理成连续值了,因为要求最近邻,必须要把数据处理一下,离散值要处理成单独的一个属性或者是连续值。

  1. import numpy as np
  2. import pandas as pd
  3. dataset=pd.read_csv('/home/parker/watermelonData/watermelon_3.csv',delimiter=",")
  4. del dataset['编号']
  5. print(dataset)
  6. attributeMap={}
  7. attributeMap['浅白']=0
  8. attributeMap['青绿']=0.5
  9. attributeMap['乌黑']=1
  10. attributeMap['蜷缩']=0
  11. attributeMap['稍蜷']=0.5
  12. attributeMap['硬挺']=1
  13. attributeMap['沉闷']=0
  14. attributeMap['浊响']=0.5
  15. attributeMap['清脆']=1
  16. attributeMap['模糊']=0
  17. attributeMap['稍糊']=0.5
  18. attributeMap['清晰']=1
  19. attributeMap['凹陷']=0
  20. attributeMap['稍凹']=0.5
  21. attributeMap['平坦']=1
  22. attributeMap['硬滑']=0
  23. attributeMap['软粘']=1
  24. attributeMap['否']=0
  25. attributeMap['是']=1
  26. data=dataset.values
  27.  
  28.  
  29. m,n=np.shape(data)
  30. for i in range(m):
  31. for j in range(n):
  32. if data[i,j] in attributeMap:
  33. data[i,j]=attributeMap[data[i,j]]
  34. else: data[i,j]=round(data[i,j],3)
  35.  
  36. X=data[:,:-1]
  37. y=data[:,-1]
  38. m,n=np.shape(X)
  39. # print(X,y)
  40. near=np.zeros((m,2))#near[i,0] is nearHit,near[i,1] is nearMiss
  41. # print(near)
  42.  
  43. def distance(x1,x2):
  44. return sum((x1-x2)**2)
  45.  
  46. for i in range(m):
  47. hitDistance=99999 #init as INF
  48. missDistance=99999
  49. for j in range(m):
  50. if j==i:continue
  51. curDistance=distance(X[i],X[j])
  52. if y[i]==y[j] and curDistance<hitDistance:
  53. hitDistance=curDistance
  54. near[i,0]=j
  55. if y[i]!=y[j] and curDistance<missDistance:
  56. missDistance=curDistance
  57. near[i,1]=j
  58.  
  59. #P250--(11.3)
  60. relief=np.zeros(n)
  61. for j in range(n):
  62. for i in range(m):
  63. relief[j]+=(X[i,j]-X[int(near[i,1]),j])**2-(X[i,0]),j])**2
  64. print(relief)
结果我们发现纹理得分4.25,很关键,这一点跟ID3决策树的结果是一致的,然后脐部、色泽也很重要,GiniIndex决策树也把这两项作为树根了,含糖率重要性也很大,这也符合我们的认知,总之我们发现这个Relief算法还真不错。

猜你在找的正则表达式相关文章