& @3 ^/ _2 c% v. J# v( Y( O2 S
Question1|为什么需要对数值类型的特征做归一化?
/ B5 e# f0 O; c7 R: P' {
1 C5 c6 W, u0 a0 j8 B+ A2 Q Question:在对数据进行预处理时,应该怎样处理类别型特征?
- A8 V6 {2 H0 i2 O7 `( F ■ 序号编码
8 V7 @. K4 @% U! B0 p
序号编码通常用于处理类别间具有大小关系的数据。例如成绩,可以分为
: \+ r+ G- r$ ~- V4 S
低、中、高三档,并且存在“高>中>低”的排序关系。序号编码会按照大小关系对类别型特征赋予一个数值ID,例如高表示为3、中表示为2、低表示为1,转换后依然保留了大小关系。
% B0 Z# B+ m; @, c9 t- J' g$ O/ p
■ 独热编码
) G) ] s6 r/ h" _* P2 S
独热编码通常用于处理类别间不具有大小关系的特征。例如血型,一共有4个取值(A型血、B型血、AB型血、O型血),独热编码会把血型变成一个4维稀疏向量,A型血表示为(1, 0, 0, 0),B型血表示为(0, 1, 0, 0),AB型表示为(0, 0,1, 0),O型血表示为(0, 0, 0, 1)。对于类别取值较多的情况下使用独热编码需要注意以下问题。
9 D* v0 C& q" n" y/ J+ ]* ]- J/ [' F (1)使用稀疏向量来节省空间。在独热编码下,特征向量只有某一维取值为1,其他位置取值均为0。因此可以利用向量的稀疏表示有效地节省空间,并且目前大部分的算法均接受稀疏向量形式的输入。
4 @" f* T7 q* Y; G( k
(2)配合特征选择来降低维度。高维度特征会带来几方面的问题。一是在K近邻算法中,高维空间下两点之间的距离很难得到有效的衡量;二是在逻辑回归模型中,参数的数量会随着维度的增高而增加,容易引起过拟合问题;三是通常只有部分维度是对分类、预测有帮助,因此可以考虑配合特征选择来降低维度。
. i1 N1 o% p9 D. U$ b, P9 r+ P ■ 二进制编码
( F8 y" [# i* y2 h
二进制编码主要分为两步,先用序号编码给每个类别赋予一个类别ID,然后将类别ID对应的二进制编码作为结果。以A、B、AB、O血型为例,表1.1是二进制编码的过程。A型血的ID为1,二进制表示为001;B型血的ID为2,二进制表示为010;以此类推可以得到AB型血和O型血的二进制表示。可以看出,二进制编码本质上是利用二进制对ID进行哈希映射,最终得到0/1特征向量,且维数少于独热编码,节省了存储空间。
/ t' I7 ?8 w5 h( i8 E7 V4 x& @5 s 
$ L7 B3 J1 b' _3 p* a4 a1 f( w3 O 除了本章介绍的编码方法外,有兴趣的读者还可以进一步了解其他的编码方式,比如Helmert Contrast、Sum Contrast、Polynomial Contrast、BackwardDifference Contrast等。
# v0 S) g5 O+ |% J$ |# V6 \ X* D. `
参考:《百面机器学习
6 j4 C' D0 j$ m+ V; p6 e; I: j 》1.1
A7 h* E" K: V8 [( Q7 [
/ k( K4 n4 {7 Z! ~# o