当前位置:首页 » 《关注互联网》 » 正文

机器学习模型SHAP解释——R语言

20 人参与  2024年05月08日 18:59  分类 : 《关注互联网》  评论

点击全文阅读


SHAP(SHapley Additive exPlanations)作为一种解释机器学习模型输出的方法,基于Shapley值理论,通过将模型预测结果分解为每个特征的贡献,为模型提供全局和局部的可解释性。

SHAP作为机器学习模型的解释工具,已经是一项重大突破。

在处理医学问题时,我们往往通过构建模型,来寻找病因。此处,会有歧义,谈谈个人见解,此种解释并非因果关系,与Logistic回归的OR值有区别,此种解释不是因果解释,我们不能因为预测变量shap值贡献大,而认为这个变量是结局变量的危险因素。这种关系,只能说明由于变量的贡献,能在多大程度上增加预测模型的准确率。

当前阶段,SHAP实现方法,大多数是基于Python,随着算法的流行,R语言也有了相关的SHAP解释。但是R的SHAP解释,目前应用的包是shapviz,这个包仅能对Xgboost、LightGBM以及H2O模型进行解释,其余的机器学习模型并不适用。

这里通过举例,来展示shap模型的R实现:

通过Xgboost模型来预测结直肠癌肝转移。最后一列是Liver,0代表未转移,1代表肝转移

1.加载相关的包,读入数据

#install.packages("shapviz")library(shapviz)#install.packages("xgboost")library(xgboost)library(caret)library(pROC)library(tibble)library(ROCit)data =read.csv("data.csv",header = T,check.names = F)

2.通过caret包划分训练集和测试集数据

# 划分训练集和测试集set.seed(123)#设置随机数inTrain<-createDataPartition(y=data[,"Liver"], p=0.7, list=F)#划分训练集,设置训练集的比例为0.7traindata<-data[inTrain,]#提取训练集数据testdata<-data[-inTrain,]#提取验证集数据

3.构建Xgboost模型

model_xgboost = xgboost(  data = as.matrix(traindata[,c(1:(ncol(traindata)-1))]),#训练集的自变量矩阵                   label = traindata$Liver,                   max_depth = 3,                    eta = 1,                    nthread = 2,                    nrounds = 10,                   objective = "binary:logistic")

4.模型的预测结果

#生成预测值traindata$pred <- predict(model_xgboost, as.matrix(traindata[,c(1:(ncol(traindata)-1))]))#计算AUCROC_train <- round(auc(response=traindata$Liver,predictor=traindata$pred),4)ROC_train#计算置信区间CI_train=ci(response=traindata$Liver,predictor=traindata$pred)CI_train#通过那个paste0连接AUC_CI_train=paste0("AUC=",round(CI_train[2],3),",95%CI (",round(CI_train[1],3)," - ",round(CI_train[3],3),")")AUC_CI_train

5.绘制ROC曲线

这里美化图片的原因是,中华系列杂志需要这样去绘图。

#整理数据,美化图片ROC_data <- rocit(score=traindata$pred,class=traindata$Liver)m1=tibble(  name="Model",  TPR=ROC_data$TPR,  FPR=ROC_data$FPR,  AUC=AUC_CI_test)pdf("ROC_train.pdf",5,5,family = "serif")ggplot(m1,aes(x = FPR, y = TPR)) +  geom_path() +  labs(title= " ",        x = "False Positive Rate (1-Specificity)",        y = "True Positive Rate (Sensitivity)")+  geom_abline(lty = 3) +  theme_classic()+  annotate("text", x = 0.6 , y = 0.2,label = AUC_CI_test,colour="black")+  scale_y_continuous(expand=c(0,0))+  scale_x_continuous(expand=c(0,0))+  theme(    axis.ticks.length=unit(-0.1, "cm"),    legend.position = c(0.7, 0.2),    legend.title = element_blank(),    strip.background = element_blank(),    text = element_text(size = 15,color="black")#face="bold"  )

6.计算shap值并绘图

#单个样本力图sv_force(shap_xgboost,row_id = 2)

#去掉图片灰色背景sv_importance(shap_xgboost,kind = "beeswarm")+theme_bw()

这里图片的背景是灰色的,这里的函数均是基于ggplot2绘制的,因此我们可以通过添加theme主题函数,来修改图片的背景

#变量重要性柱状图sv_importance(shap_xgboost)+theme_bw()

sv_dependence(shap_xgboost, "T",               alpha = 0.5,              size = 1.5,              color_var = NULL)+theme_bw()

#多个变量偏相关依赖图sv_dependence(shap_xgboost,               v = c("Sex",                    "Grade",                    "Histologic",                    "Surg"))+theme_bw()

以上就是R的Xgboost模型的SHAP解释。【公众号:小庞统计】


点击全文阅读


本文链接:http://zhangshiyu.com/post/105365.html

<< 上一篇 下一篇 >>

  • 评论(0)
  • 赞助本站

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

关于我们 | 我要投稿 | 免责申明

Copyright © 2020-2022 ZhangShiYu.com Rights Reserved.豫ICP备2022013469号-1