列表

详情


173. 说一下xgboost的特性

回答思路

梯度下降,利用损失函数的二阶导数作为学习目标,采用牛顿法进行优化。 正则项,利用L2正则来防止过拟合。 树节点分裂方法,不是简单地按照样本个数进行分位,而是以二阶导数值作为权重。 shrinkage(收缩)方法,相当于学习系数eta。对每颗子树都要乘上该系数,防止过拟合。

上一题