最新文章专题视频专题关键字专题1关键字专题50关键字专题500关键字专题1500TAG最新视频文章视频文章20视频文章30视频文章40视频文章50视频文章60 视频文章70视频文章80视频文章90视频文章100视频文章120视频文章140 视频2关键字专题关键字专题tag2tag3文章专题文章专题2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章专题3
mate20上市时间 华为12599怎么关闭 华为mate30pro怎么安装双卡 查看内存频率 i38100和i39100区别 apple watch 网易云音乐本地是怎么下载的 mate20和mate30的区别 华为 watch gt2 运动版 时尚版 区别 switch休眠模式会继续下载吗 查找我的iphone在哪里ios13 苹果指纹按键贴的坏处 3done是什么 苹果的查找朋友位置准确吗 m1908c3je是什么手机 华为手机的微信扫一扫怎么不能用了 华为magic2滑盖寿命 空调开着开着就停了是怎么回事 台式电脑怎么连接打印机设备 手机充电器充switch 苹果芯片a12a11区别 苹果手机刷地铁没反应 查看手机号 微信账号和密码在哪查看 苹果6怎么开机按哪个键 辅助验证有风险吗 任务栏没有网络图标 运动步数怎么刷 微信支付用不了信用卡 框框怎么打出来 入网资格验证失败是什么意思 微信注销多久生效 标度散热器是品牌吗 什么是网络时代 华为20s耳机孔在哪里 苹果手机照片怎么恢复 mate20支持反向充电吗 小米授权店怎么加盟店 8p的基带是哪家的 微信里的视频号怎么发视频 通过微信能查到对方的手机号么
当前位置: 首页 - 科技 - 知识百科 - 正文

gbdt和xgboost区别

来源:懂视网 责编:小采 时间:2021-11-16 10:20:25
文档

gbdt和xgboost区别

1 传统GBDT以CART作为基分类器,xgboost还支持线性分类器,这个时候xgboost相当于带L1和L2正则化项的逻辑斯蒂回归(分类问题)或者线性回归(回归问题)。
推荐度:
导读1 传统GBDT以CART作为基分类器,xgboost还支持线性分类器,这个时候xgboost相当于带L1和L2正则化项的逻辑斯蒂回归(分类问题)或者线性回归(回归问题)。

gbdt和xgboost区别如下:
  
  1、传统GBDT以CART作为基分类器,xgboost还支持线性分类器,这个时候xgboost相当于带L1和L2正则化项的逻辑斯蒂回归(分类问题)或者线性回归(回归问题)。
  
  2、传统GBDT在优化时只用到一阶导数信息,xgboost则对代价函数进行了二阶泰勒展开,同时用到了一阶和二阶导数。顺便提一下,xgboost工具支持自定义代价函数,只要函数可一阶和二阶求导。
  
  3、xgboost在代价函数里加入了正则项,用于控制模型的复杂度。正则项里包含了树的叶子节点个数、每个叶子节点上输出的score的L2模的平方和。从Bias variance tradeoff角度来讲,正则项降低了模型的variance,使学习出来的模型更加简单,防止过拟合,这也是xgboost优于传统GBDT的一个特性。(关于这个点,接下来详细解释)
  
  4、Shrinkage(缩减),相当于学习速率(xgboost中的eta)。xgboost在进行完一次迭代后,会将叶子节点的权重乘上该系数,主要是为了削弱每棵树的影响,让后面有更大的学习空间。实际应用中,一般把eta设置得小一点,然后迭代次数设置得大一点。(补充:传统GBDT的实现也有学习速率)
  
  5、列抽样(column subsampling)即特征抽样。xgboost借鉴了随机森林的做法,支持列抽样,不仅能降低过拟合,还能减少计算,这也是xgboost异于传统gbdt的一个特性。
  
  6、对缺失值的处理。对于特征的值有缺失的样本,xgboost可以自动学习出它的分裂方向。
  
  7、xgboost工具支持并行。boosting不是一种串行的结构吗?怎么并行的?注意xgboost的并行不是tree粒度的并行,xgboost也是一次迭代完才能进行下一次迭代的(第t次迭代的代价函数里包含了前面t1次迭代的预测值)。xgboost的并行是在特征粒度上的。
  
  决策树的学习最耗时的一个步骤就是对特征的值进行排序(因为要确定最佳分割点),xgboost在训练之前,预先对数据进行了排序,然后保存为block结构,后面的迭代中重复地使用这个结构,大大减小计算量。这个block结构也使得并行成为了可能,在进行节点的分裂时,需要计算每个特征的增益,最终选增益最大的那个特征去做分裂,那么各个特征的增益计算就可以开多线程进行。
  
  可并行的近似直方图算法。树节点在进行分裂时,需要计算每个特征的每个分割点对应的增益,即用贪心法枚举所有可能的分割点。当数据无法一次载入内存或者在分布式情况下,贪心算法效率就会变得很低,所以xgboost还提出了一种可并行的近似直方图算法,用于高效地生成候选的分割点。
  
  

声明:本网页内容旨在传播知识,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。TEL:0731-84117792 E-MAIL:11247931@qq.com

文档

gbdt和xgboost区别

1 传统GBDT以CART作为基分类器,xgboost还支持线性分类器,这个时候xgboost相当于带L1和L2正则化项的逻辑斯蒂回归(分类问题)或者线性回归(回归问题)。
推荐度:
标签: 区别 不同 bo
  • 热门焦点

最新推荐

猜你喜欢

热门推荐

专题keras lstm 参数专题xgboost 使用专题cifar10分类专题xgboost使用专题neo4j 推荐算法专题mat转qimage专题xgboost 案例专题abap f类型专题iplimage转mat专题bpr算法专题gbdt构造特征专题tensorflow cifar10专题pytorch和keras专题ue4 算法专题keras lambda层专题tone mapping算法专题opencv exp专题emgucv bitmap转mat专题abaqus场变量输出专题tensorflow lstm 预测专题
Top