点击获取AI摘要

XGB内容补充

1. 集成学习 (Ensemble Learning)

集成学习

2. Boosting 方法的核心优化思想

Boosting 方法,尤其是像 GBDT 和 XGBoost 这样的梯度提升算法,其核心在于迭代优化一个目标函数(通常是训练数据的损失函数加上可能的正则化项)。与传统的机器学习模型(如线性回归、SVM)在参数空间中寻找最优解不同,Boosting 是在函数空间中进行优化,即每一步迭代添加一个函数(弱学习器,通常是决策树)来改进当前的集成模型。

2.1 从参数空间到函数空间 (From Parameter Space to Function Space)

  • 参数空间优化: 大多数机器学习模型通过调整模型内部的参数(如线性模型的系数、神经网络的权重)来最小化损失函数。例如,线性回归 y=wTx+by = w^T x + b,优化的是参数 wwbb。目标函数通常是 minL(y,f(x;w,b))=minL(y,wTx+b)\min L(y, f(x; w, b)) = \min L(y, w^T x + b)
  • 函数空间优化: Boosting 的思想是将模型表示为一系列函数的加法:F(x)=t=1Tht(x)F(x) = \sum_{t=1}^T h_t(x)。每一步迭代 tt,我们固定前面 t1t-1 步得到的模型 Ft1(x)=k=1t1hk(x)F_{t-1}(x) = \sum_{k=1}^{t-1} h_k(x),然后寻找一个新的函数 ht(x)h_t(x),使得加入 ht(x)h_t(x) 后,整体模型 Ft(x)=Ft1(x)+ht(x)F_t(x) = F_{t-1}(x) + h_t(x) 的目标函数最小化。目标函数是 minL(y,Ft1(x)+ht(x))\min L(y, F_{t-1}(x) + h_t(x)).

2.2 梯度下降与牛顿法 (Gradient Descent vs. Newton’s Method)

优化目标函数常用的迭代方法是梯度下降。

  • 梯度下降 (Gradient Descent):
    • 基本思想: 在当前点沿着函数梯度的反方向移动,因为梯度指向函数值增加最快的方向。
    • 更新规则 (参数空间): wk+1=wkηJ(wk)w_{k+1} = w_k - \eta \nabla J(w_k),其中 JJ 是目标函数,η\eta 是学习率。
    • 在函数空间中,梯度提升(GBDT)可以理解为在函数空间中应用梯度下降。要找到下一个要添加的函数 ht(x)h_t(x),我们希望它能最大程度地降低目标函数 L(y,Ft1(x)+ht(x))L(y, F_{t-1}(x) + h_t(x))。如果我们将 ht(x)h_t(x) 视为“函数步长”,最快的下降方向是负梯度方向。所以,GBDT 训练的下一棵树就是去拟合当前模型的负梯度。
  • 牛顿法 (Newton’s Method):
    • 基本思想: 使用函数的二阶导数(Hessian 矩阵)信息。它通过在当前点用二次函数近似目标函数,然后跳到二次函数的最低点。
    • 更新规则 (参数空间): wk+1=wk[HJ(wk)]1J(wk)w_{k+1} = w_k - [H J(w_k)]^{-1} \nabla J(w_k),其中 HH 是 Hessian 矩阵(二阶导数矩阵)。牛顿法通常比梯度下降收敛更快,尤其是在目标函数接近二次函数时。
    • 牛顿法使用了一阶和二阶导数信息。这启发了 XGBoost 的目标函数优化。

2.3 误差函数的二阶泰勒展开 (Second-order Taylor Expansion of the Loss Function)

为了更精确地优化目标函数 L(yi,y^i(t1)+ht(xi))L(y_i, \hat{y}_i^{(t-1)} + h_t(x_i)) 关于 ht(xi)h_t(x_i),XGBoost 借鉴了牛顿法的思想,使用了二阶泰勒展开来近似损失函数。
对于一个在点 x0x_0 附近可微的函数 f(x)f(x),其在 x0x_0 处的泰勒展开式为:

f(x)=f(x0)+f(x0)(xx0)+12f(x0)(xx0)2+R2(x)f(x) = f(x_0) + f'(x_0)(x-x_0) + \frac{1}{2} f''(x_0)(x-x_0)^2 + R_2(x)

其中 R2(x)R_2(x) 是余项。
在 XGBoost 中,我们将损失函数 L(yi,y^i)L(y_i, \hat{y}_i) 视为关于当前预测值 y^i\hat{y}_i 的函数,并在 y^i(t1)\hat{y}_i^{(t-1)} 处进行泰勒展开,展开变量是我们要添加的函数 ht(xi)h_t(x_i) 的输出。令 x0=y^i(t1)x_0 = \hat{y}_i^{(t-1)},变量为 Δx=ht(xi)\Delta x = h_t(x_i),则:

L(yi,y^i(t1)+ht(xi))L(yi,y^i(t1))+[L(yi,y^)y^]y^=y^i(t1)ht(xi)+12[2L(yi,y^)y^2]y^=y^i(t1)ht(xi)2L(y_i, \hat{y}_i^{(t-1)} + h_t(x_i)) \approx L(y_i, \hat{y}_i^{(t-1)}) + \left[ \frac{\partial L(y_i, \hat{y})}{\partial \hat{y}} \right]_{\hat{y}=\hat{y}_i^{(t-1)}} h_t(x_i) + \frac{1}{2} \left[ \frac{\partial^2 L(y_i, \hat{y})}{\partial \hat{y}^2} \right]_{\hat{y}=\hat{y}_i^{(t-1)}} h_t(x_i)^2

gi=[L(yi,y^)y^]y^=y^i(t1)g_i = \left[ \frac{\partial L(y_i, \hat{y})}{\partial \hat{y}} \right]_{\hat{y}=\hat{y}_i^{(t-1)}} 为损失函数对当前预测的一阶偏导数(梯度),hi=[2L(yi,y^)y^2]y^=y^i(t1)h_i = \left[ \frac{\partial^2 L(y_i, \hat{y})}{\partial \hat{y}^2} \right]_{\hat{y}=\hat{y}_i^{(t-1)}} 为二阶偏导数(Hessian)。则近似公式变为:

L(yi,y^i(t1)+ht(xi))L(yi,y^i(t1))+giht(xi)+12hiht(xi)2L(y_i, \hat{y}_i^{(t-1)} + h_t(x_i)) \approx L(y_i, \hat{y}_i^{(t-1)}) + g_i h_t(x_i) + \frac{1}{2} h_i h_t(x_i)^2

这个近似形式是一个关于 ht(xi)h_t(x_i) 的二次函数,类似于牛顿法中的目标函数近似。

2.4 回归树的学习策略(作为基学习器)

在 Boosting 中,个体学习器通常是回归树(即使解决分类问题,也是拟合伪残差或负梯度等数值)。回归树的学习策略是:

  1. 从根节点开始,遍历所有特征和所有可能的分裂点。
  2. 对于每个分裂点,计算分裂后两个子节点的“纯度”或“损失减少量”。
  3. 选择能够带来最大损失减少(或增益)的分裂点。
  4. 将节点分裂,递归进行,直到满足停止条件(如达到最大深度、叶子节点样本数少于阈值、分裂增益小于阈值等)。
  5. 对于每个叶子节点,其输出值(预测值)是落在该节点上所有样本的目标值的某种聚合(如平均值,或在 Boosting 中是经过优化的值)。
    在 GBDT 中,回归树拟合的是当前模型的负梯度。在 XGBoost 中,回归树拟合的是一个可以使目标函数(包含一阶和二阶导数)最小化的值。

3. XGBoost (eXtreme Gradient Boosting)

XGBoost (eXtreme Gradient Boosting) 是由陈天奇等人提出的一种高效、灵活且可移植的梯度提升算法实现。它在 GBDT 的基础上进行了多方面的优化和改进,使其在许多机器学习任务中表现出色,尤其是在结构化数据上的应用。

  • 核心思想: XGBoost 仍然基于梯度提升框架,通过迭代地添加决策树来优化目标函数。但它对目标函数和优化过程进行了深度优化,并加入了正则化项,使其在性能和计算效率上远超标准 GBDT。

3.1 与标准 GBDT 的主要区别和改进

  1. 正则化 (Regularization): 在目标函数中加入了正则化项 (L1 和 L2 正则化),用于控制模型的复杂度,有效防止过拟合。这是 XGBoost 区别于传统 GBDT 的一个重要特性。
  2. 目标函数优化 (Objective Function): 使用了二阶泰勒展开来近似损失函数,这使得目标函数不仅考虑了一阶导数(梯度),还考虑了二阶导数(Hessian),从而可以更精确地找到下降方向,加快收敛。
  3. 分裂策略 (Split Finding): 引入了新的最优分裂点查找算法,包括精确贪婪算法 (Exact Greedy) 和近似算法 (Approximate) / 直方图算法 (Hist),可以在考虑正则化的情况下选择最佳分裂点。分裂的衡量标准是增益 (Gain)
  4. 对稀疏值处理 (Sparse Value Handling): XGBoost 对稀疏值(包括缺失值)有内置的处理机制。在特征分裂时,它可以自动学习将缺失值样本划分到左子树或右子树,无需额外的填充或预处理。
  5. 工程优化 (Engineering Optimizations): 进行了多项工程优化,如并行计算 (Parallelism)、列块存储 (Column Block)、核外计算 (Out-of-Core Computing) 等,显著提高了训练速度和对大规模数据的处理能力。
  6. 收缩 (Shrinkage): 同样使用学习率 (eta) 对每棵树的贡献进行收缩,帮助防止过拟合。
  7. 列采样 (Column Subsampling): 借鉴了随机森林的思想,支持在构建每棵树或每个节点分裂时进行特征采样,进一步减少过拟合和提高计算速度。
  8. 早期停止 (Early Stopping): 支持在验证集上监控性能并提前停止训练,有效控制迭代次数,防止过拟合。

3.2 XGBoost 的目标函数

XGBoost 在第 tt 轮迭代中要训练第 tt 棵树 ht(x)h_t(x),以最小化整体目标函数。目标函数包括训练损失和正则化项:

Obj(t)=i=1nL(yi,y^i(t1)+ht(xi))+Ω(ht)\text{Obj}^{(t)} = \sum_{i=1}^n L(y_i, \hat{y}_i^{(t-1)} + h_t(x_i)) + \Omega(h_t)

其中:

  • L(yi,y^i)L(y_i, \hat{y}_i) 是损失函数,衡量预测值 y^i\hat{y}_i 与真实值 yiy_i 的差异。
  • y^i(t1)\hat{y}_i^{(t-1)} 是前 t1t-1 棵树的集成预测结果。
  • ht(xi)h_t(x_i) 是第 tt 棵树的预测结果。
  • Ω(ht)\Omega(h_t) 是第 tt 棵树的正则化项。

为了优化这个目标函数,XGBoost 使用二阶泰勒展开来近似损失函数。对损失函数在当前模型 y^i(t1)\hat{y}_i^{(t-1)} 处进行二阶泰勒展开:

L(yi,y^i(t1)+ht(xi))L(yi,y^i(t1))+giht(xi)+12hiht(xi)2L(y_i, \hat{y}_i^{(t-1)} + h_t(x_i)) \approx L(y_i, \hat{y}_i^{(t-1)}) + g_i h_t(x_i) + \frac{1}{2} h_i h_t(x_i)^2

其中 gig_i 是损失函数对 y^i(t1)\hat{y}_i^{(t-1)}一阶导数(梯度),hih_i二阶导数(Hessian):

gi=L(yi,y^i)y^iy^i=y^i(t1),hi=2L(yi,y^i)y^i2y^i=y^i(t1)g_i = \frac{\partial L(y_i, \hat{y}_i)}{\partial \hat{y}_i} \Big|_{\hat{y}_i = \hat{y}_i^{(t-1)}} \quad, \quad h_i = \frac{\partial^2 L(y_i, \hat{y}_i)}{\partial \hat{y}_i^2} \Big|_{\hat{y}_i = \hat{y}_i^{(t-1)}}

将泰勒展开代入目标函数,并忽略常数项 L(yi,y^i(t1))L(y_i, \hat{y}_i^{(t-1)}),得到简化后的目标函数:

Obj(t)i=1n[giht(xi)+12hiht(xi)2]+Ω(ht)\text{Obj}^{(t)} \approx \sum_{i=1}^n \left[ g_i h_t(x_i) + \frac{1}{2} h_i h_t(x_i)^2 \right] + \Omega(h_t)

这个目标函数只与当前要学习的树 hth_t 有关,是关于树结构和叶子节点权重的函数。

3.3 XGBoost 的正则化项

正则化项 Ω(ht)\Omega(h_t) 用于控制树的复杂度,定义为:

Ω(ht)=γT+12λj=1Twj2+αj=1Twj\Omega(h_t) = \gamma T + \frac{1}{2}\lambda \sum_{j=1}^T w_j^2 + \alpha \sum_{j=1}^T |w_j|

在提供的笔记中只包含了 L2 正则化,标准 XGBoost 也支持 L1 正则化,对应参数 reg_alpha
其中:

  • TT 是树中叶子节点的数量。
  • wjw_j 是第 jj 个叶子节点的预测值(权重)。
  • γ\gamma (gamma 参数) 是一个惩罚系数,惩罚叶子节点的数量。树的叶子节点越多,复杂度越高,惩罚越大。
  • λ\lambda (reg_lambda 参数) 是 L2 正则化系数,惩罚叶子节点权重的平方和。叶子节点权重越大,模型越可能过度依赖个别样本,惩罚越大。
  • α\alpha (reg_alpha 参数) 是 L1 正则化系数,惩罚叶子节点权重的绝对值和。有助于产生稀疏的叶子节点权重,实现特征选择。

3.4 树结构与叶子节点权重的确定 (打分函数)

对于一个已经确定的树结构,我们将简化目标函数按叶子节点进行分组求和。每个叶子节点 jj 上的所有样本 iIji \in I_j 具有相同的预测值 wj=ht(xi)w_j = h_t(x_i)。结合正则化项,目标函数可以重写为:

Obj(t)=j=1T[(iIjgi)wj+12(iIjhi+λ)wj2+αwj]+γT\text{Obj}^{(t)} = \sum_{j=1}^T \left[ \left( \sum_{i \in I_j} g_i \right) w_j + \frac{1}{2} \left( \sum_{i \in I_j} h_i + \lambda \right) w_j^2 + \alpha |w_j| \right] + \gamma T

为了使目标函数最小化,对于每个叶子节点 jj,我们可以独立地找到最优的权重 wjw_j。忽略 L1 项(为了简化推导,L1 项使得导数在 0 处不可导,但可以通过次梯度或坐标下降求解),对只包含 L2 正则化的目标函数求导并令导数等于 0:

wj[(iIjgi)wj+12(iIjhi+λ)wj2]=iIjgi+(iIjhi+λ)wj=0\frac{\partial}{\partial w_j} \left[ \left( \sum_{i \in I_j} g_i \right) w_j + \frac{1}{2} \left( \sum_{i \in I_j} h_i + \lambda \right) w_j^2 \right] = \sum_{i \in I_j} g_i + (\sum_{i \in I_j} h_i + \lambda) w_j = 0

解出最优的叶子节点权重 wjw_j^* (只考虑 L2 正则化):

wj=iIjgiiIjhi+λw_j^* = - \frac{\sum_{i \in I_j} g_i}{\sum_{i \in I_j} h_i + \lambda}

将最优权重 wjw_j^* 代回目标函数(仅 L2 正则化部分),得到在给定树结构下,每个叶子节点 jj 对整体目标函数的贡献(不含 γT\gamma T),也称为该节点的打分 (Score)

Scorej=12(iIjgi)2iIjhi+λ\text{Score}_j = - \frac{1}{2} \frac{(\sum_{i \in I_j} g_i)^2}{\sum_{i \in I_j} h_i + \lambda}

整个树结构的最终打分(即最优目标函数值)是所有叶子节点打分之和,加上叶子节点数量的惩罚:

Obj(t)=j=1TScorej+γT=j=1T[12(iIjgi)2iIjhi+λ]+γT\text{Obj}^{(t)*} = \sum_{j=1}^T \text{Score}_j + \gamma T = \sum_{j=1}^T \left[ - \frac{1}{2} \frac{(\sum_{i \in I_j} g_i)^2}{\sum_{i \in I_j} h_i + \lambda} \right] + \gamma T

最小化这个打分函数就是 XGBoost 学习树结构的目标。

3.5 树节点分裂方法与增益计算 (Split Finding and Gain Calculation)

XGBoost 在构建树时,会从根节点开始,递归地寻找最佳分裂点。寻找最佳分裂点的策略是贪婪算法:在当前节点,遍历所有特征和该特征所有可能的分裂阈值,计算分裂后的目标函数下降量(即增益),选择增益最大的分裂作为当前节点的最佳分裂。
对于一个节点,假设分裂前包含样本集合 II,分裂后变为左子节点 ILI_L 和右子节点 IRI_R (I=ILIRI = I_L \cup I_R)。分裂带来的增益 (Gain) 计算公式为:

Gain=Objbefore split(Objafter split)\text{Gain} = \text{Obj}_{\text{before split}} - (\text{Obj}_{\text{after split}})

根据前面推导的叶子节点打分公式,分裂前的节点可以看作只有一个叶子节点 ILIRI_L \cup I_R,分裂后变成两个叶子节点 ILI_LIRI_R。其对应的目标函数值变化为:

Gain=[12(iILIRgi)2iILIRhi+λ+γ][(12(iILgi)2iILhi+λ+γ)+(12(iIRgi)2iIRhi+λ+γ)]\text{Gain} = \left[ - \frac{1}{2} \frac{(\sum_{i \in I_L \cup I_R} g_i)^2}{\sum_{i \in I_L \cup I_R} h_i + \lambda} + \gamma \right] - \left[ \left( - \frac{1}{2} \frac{(\sum_{i \in I_L} g_i)^2}{\sum_{i \in I_L} h_i + \lambda} + \gamma \right) + \left( - \frac{1}{2} \frac{(\sum_{i \in I_R} g_i)^2}{\sum_{i \in I_R} h_i + \lambda} + \gamma \right) \right]

化简后得到:

Gain=12[(iILgi)2iILhi+λ+(iIRgi)2iIRhi+λ(iILIRgi)2iILIRhi+λ]γ\text{Gain} = \frac{1}{2} \left[ \frac{(\sum_{i \in I_L} g_i)^2}{\sum_{i \in I_L} h_i + \lambda} + \frac{(\sum_{i \in I_R} g_i)^2}{\sum_{i \in I_R} h_i + \lambda} - \frac{(\sum_{i \in I_L \cup I_R} g_i)^2}{\sum_{i \in I_L \cup I_R} h_i + \lambda} \right] - \gamma

增益越大,表示分裂带来的目标函数下降越多。 γ-\gamma 项是引入新叶子节点的惩罚,如果计算出的最大增益小于 γ\gamma,则这个分裂不值得进行,节点将停止分裂。

XGBoost 提供了多种分裂点查找算法 (tree_method 参数):

  • 精确贪婪算法 (Exact Greedy Algorithm): (tree_method='exact') 在每个节点遍历所有特征和所有可能的取值作为分裂点。适用于小到中等数据集。
  • 近似算法 (Approximate Algorithm): (tree_method='approx') 对连续特征根据分位数构造候选分裂点,在候选点中寻找最佳分裂。适用于大数据集。
  • 直方图算法 (Histograms): (tree_method='hist') 将连续特征离散化为多个离散桶,基于直方图计算增益。进一步提高了效率,在大数据集上表现出色,类似 LightGBM。

3.6 稀疏值处理 (Sparse Value Handling)

XGBoost 对稀疏特征(包括缺失值 NaN)有内置的支持,无需额外的填充。

  • 机制: 在进行特征分裂时,XGBoost 不仅考虑将非缺失值样本根据阈值划分,还会同时计算将所有缺失值样本统一放入左子节点或右子节点所带来的增益。
  • 学习: 通过比较将缺失值放入左、右子节点的增益,算法自动选择增益更大的方向作为缺失值的默认分裂方向。
  • 优点: 这种基于数据学习的处理方式通常比简单的填充更有效。

3.7 工程优化:核外计算与并行化 (Engineering Optimizations: Out-of-Core Computation and Parallelism)

XGBoost 进行了大量工程优化,使其能够高效地处理大规模数据集:

  • 列块存储 (Column Block): 训练数据按存储并在内存块中预先排序。方便快速按特征访问数据和计算梯度统计量。
  • 核外计算 (Out-of-Core Computing): 支持处理无法完全载入内存的数据集,通过独立的线程将数据块流式读入内存进行计算。
  • 并行计算 (Parallelism): 支持多核 CPU 并行。特征并行(分裂点查找时并行计算不同特征)、数据并行(近似算法/直方图算法时分块并行处理)。

3.8 XGBoost 参数解释 (部分关键参数)

XGBoost 参数众多,下表列举一些重要的参数:

参数/属性 描述 默认值 类型/选项 重要性级别
objective 定义学习任务及相应的损失函数。重要! 例如 'reg:squarederror' (回归),'binary:logistic' (二分类概率),'multi:softmax' (多分类类别)。 'reg:squarederror' string
eval_metric 验证数据所使用的评估指标。重要! 用于早期停止。例如 'rmse' (回归), 'logloss' (分类), 'error' (分类错误率), 'auc' (AUC)。 根据 objective 自动设置 string or list of strings 高 (用于评估)
eta 学习率 (Learning Rate)。 缩放每棵树的贡献。小值通常需要更多树,但泛化能力更好。 0.3 float
n_estimators Boosting 迭代次数,即树的数量。 通常设置较大值,配合早期停止。 100 int
max_depth 树的最大深度。 控制单棵树的复杂度。通常设置在 3-10 之间。 6 int
min_child_weight 子节点中样本的二阶导数(Hessian)之和的最小值。 如果一个分裂导致的子节点的 Hessian 和小于此值,则分裂被放弃。类似于 min_samples_leaf,但基于二阶信息。值越大,模型越保守。 1 float
gamma 在节点分裂时,只有分裂后损失函数的减少量大于等于 γ\gamma 时,才会进行分裂。 控制树的剪枝(或最小增益分裂)。值越大,模型越保守。 0 float
subsample 训练每棵树时,随机采样的训练样本比例。 ([0, 1]) 小于 1.0 用于行采样,防止过拟合。 1 float
colsample_bytree 训练每棵树时,随机采样的特征比例。 ([0, 1]) 用于列采样,防止过拟合。 1 float
colsample_bylevel 在树的每个层级分裂时,随机采样的特征比例。 ([0, 1]) 更细粒度的列采样。 1 float
colsample_bynode 在树的每个节点分裂时,随机采样的特征比例。 ([0, 1]) 最细粒度的列采样。 1 float
reg_alpha L1 正则化系数。 ([0, $\infty$)) 惩罚叶子节点权重的 L1 范数。 0 float
reg_lambda L2 正则化系数。 ([0, $\infty$)) 惩罚叶子节点权重的 L2 范数。等同于公式中的 λ\lambda 1 float
tree_method 构建树的算法。 'auto', 'exact', 'approx', 'hist'. 'hist' 通常更快且内存占用低,推荐用于大数据集。 'auto' string 实用
n_jobs 并行计算使用的CPU数量。 -1 表示使用所有可用处理器。 1 int 实用
random_state 随机种子。 控制数据采样等随机性,确保结果可复现。 0 int 实用
early_stopping_rounds [fit 方法参数] 早期停止轮数。fit 方法中指定。如果在验证集上经过此轮数后评估指标没有提升,训练停止。非常重要! N/A int 高 (用于早期停止)
eval_set [fit 方法参数] 验证集列表。 格式为 [(X_val, y_val), ...]. 用于早期停止和评估。非常重要! N/A list of tuples 高 (用于早期停止)

3.9 Scikit-learn API 示例 (XGBoost)

XGBoost 提供了与 scikit-learn 兼容的 API (XGBClassifierXGBRegressor),使用非常方便。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
# 导入 XGBoost 的 Scikit-learn API
import xgboost as xgb
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score, classification_report
from sklearn.datasets import load_iris # 假设使用 Iris 数据集
import warnings # 用于忽略一些警告

# 忽略 XGBoost 相关的警告
warnings.filterwarnings("ignore", category=UserWarning, module='xgboost')

# 加载数据集
iris = load_iris()
X, y = iris.data, iris.target
feature_names = iris.feature_names
target_names = iris.target_names

# 分割数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42, stratify=y)

print("\n--- XGBoost Classifier 示例 ---")

# 初始化 XGBoost 分类器
# objective='multi:softmax' 用于多分类,返回预测类别索引
# eval_metric='mlogloss' 是多分类常用的评估指标
# num_class 需要指定多分类的类别数量
xgb_clf = xgb.XGBClassifier(objective='multi:softmax',
num_class=3, # 多分类时需要指定类别数量
eval_metric='mlogloss', # 评估指标
n_estimators=500, # 初始设置多一些树,配合 early stopping
learning_rate=0.1, # 学习率
max_depth=3, # 最大深度
subsample=0.8, # 样本采样比例
colsample_bytree=0.8, # 列采样比例 (每棵树)
gamma=0.1, # 最小分裂增益
reg_alpha=0.1, # L1 正则化
reg_lambda=1, # L2 正则化
n_jobs=-1, # 使用所有CPU
random_state=42 # 随机种子
)

# 使用 Early Stopping 进行训练
# 需要提供评估数据集和评估指标
# eval_set 是包含 (X_val, y_val) 的列表
eval_set = [(X_test, y_test)] # 这里使用测试集作为验证集演示,实际应使用单独验证集
print("开始训练 (可能因 Early Stopping 提前结束)...")
xgb_clf.fit(X_train, y_train,
eval_set=eval_set,
early_stopping_rounds=10, # 连续10轮验证集分数没有提升则停止
verbose=False # 关闭详细训练日志,设置为 True 会打印每轮结果
)

# 预测
y_pred_xgb = xgb_clf.predict(X_test)
accuracy_xgb = accuracy_score(y_test, y_pred_xgb)
print(f"准确率: {accuracy_xgb:.4f}")
print("分类报告:")
print(classification_report(y_test, y_pred_xgb, target_names=target_names))

# 打印实际训练的树数量 (如果使用了 Early Stopping)
if hasattr(xgb_clf, 'best_iteration'):
print(f"实际训练的树数量 (Early Stopped): {xgb_clf.best_iteration + 1}")
else:
print(f"实际训练的树数量: {xgb_clf.n_estimators}") # 未 Early Stop 则使用全部树

# 打印特征重要性 (默认基于 'gain')
print("\n特征重要性 (XGBoost - Gain):")
for name, importance in zip(feature_names, xgb_clf.feature_importances_):
print(f" {name}: {importance:.4f}")

# 也可以获取其他类型的特征重要性 ('weight', 'cover', 'total_gain', 'total_cover')
# booster = xgb_clf.get_booster()
# importance_weight = booster.get_score(importance_type='weight')
# print("\n特征重要性 (XGBoost - Weight):")
# for name in feature_names:
# # Use .get(key, default_value) as some features might have 0 weight
# print(f" {name}: {importance_weight.get(name, 0):.0f}")

3.10 XGBoost 的优点和缺点

  • 优点:
    • 高性能: 在许多结构化数据任务中通常能达到最先进的精度。
    • 鲁棒性: 通过二阶泰勒展开、正则化、列采样、子样本采样等技术,有效控制过拟合。
    • 高效: 工程优化(如列块存储、核外计算、并行计算)使其训练速度快,能处理大规模数据。
    • 灵活: 支持自定义损失函数和评估指标。
    • 处理稀疏值: 内置缺失值等稀疏数据的处理机制。
    • 丰富的参数: 提供了细粒度的控制,可以针对不同问题进行调优。
  • 缺点:
    • 参数众多: 调参难度较大,需要经验和交叉验证。
    • 模型可解释性相对差: 与决策树本身类似,集成后可解释性更差。
    • 训练仍然是串行的核心: 虽然内部计算并行化,但树与树之间依赖前一棵树的结果,整体 Boosting 过程是串行的。
    • 对内存要求较高: 特别是当使用精确分裂算法或处理高基数类别特征时,需要存储排序后的列块或直方图信息。

3.11 小结

XGBoost 作为 GBDT 的一个强大升级版本,通过在目标函数中引入基于二阶泰勒展开的优化、增加正则化项、改进分裂点查找算法、内置稀疏值处理以及大量的工程优化(如列块存储、核外计算、并行化),极大地提升了模型性能和训练效率。它在实践中被广泛应用并成为许多数据竞赛的首选算法。理解其基于二阶信息的目标函数、控制复杂度的正则化、以及高效的分裂策略工程实现对于高效使用 XGBoost 至关重要。Early Stopping 是防止过拟合和提高效率的必备技巧。