列表

详情


171. 逻辑回归和xgboost有什么区别

回答思路

逻辑回归:假设数据服从伯努利分布,通过极大似然函数的方法,运用梯度下降来求解参数,来达到数据二分类的目的。 xgboost:通过boosting的思想,由一堆cart树,将每棵树的预测值加在一起就得到了最后的预测值。 
1.从模型的角度上来说,两者本质都是监督学习,但是LR是线性模型,XGB是非线性模型。 
2.从策略的角度上来说,LR本质是分类器算法,XGB本质是回归算法。 
3.从使用的角度上来说,XGB的Loss比较复杂,参数比较多,但是可以支持自定义Loss,会自动求一阶和二阶导数,也就是说其实是一个残差学习框架,应用于适用感知器准则的任何框架。 
4.从特征的角度上来说,LR不具备特征筛选的能力,它假设特征之间是相互独立的,只具有线性分界面。 答案解析 说明定义+从2-3个角度上说一下两者的区别。

上一题