R信息解析:追隨top期刊手把手教你做1個(gè)臨床預(yù)判模型
臨床預(yù)判模型也是大家較為感興致的,今日就帶著大家看一篇臨床預(yù)判模型的文章,以及用1個(gè)例子給大家過(guò)一遍作法。
這篇文章來(lái)自護(hù)理行業(yè)高級(jí)期刊的文章,文章名在以下
Ballesta-Castillejos A, Gómez-Salgado J, Rodríguez-Almagro J, Hernández-Martínez A. Development and validation of a predictive model of exclusive breastfeeding at hospital discharge: Retrospective cohort study. Int J Nurs Stud. 2021 May;117:103898. doi: 10.1016/j.ijnurstu.2021.103898. Epub 2021 Feb 7. PMID: 33636452.
文章作家做了個(gè)入院時(shí)純潔母乳豢養(yǎng)的預(yù)判模型,信息來(lái)自2個(gè)隊(duì)列,1個(gè)隊(duì)列做模型,此外1個(gè)拿來(lái)驗(yàn)證。樣件量的計(jì)算用的是“10個(gè)樣件1個(gè)變量”的規(guī)范,預(yù)判結(jié)局變量是個(gè)二分類,變量篩選的方式仍然是單原因有意思的都?xì)w入預(yù)判模型中,詳細(xì)的建模方式是logistic回歸模型。接著用AUC進(jìn)行模型的評(píng)價(jià)。
在結(jié)果報(bào)表上,作家報(bào)表了一切的有意思的預(yù)判原因,每個(gè)原因會(huì)展現(xiàn)OR和OR的置信區(qū)間,還有總體模型的評(píng)估指標(biāo),含蓋展現(xiàn)了模型的ROC曲線,和AUC,作家還展現(xiàn)了不同幾率階截?cái)嘀迪碌哪P偷腟ensitivity, Specificity, PPV, NPV, LR+, LR-。如圖:
作家全部文章是用SPSS做出去的,今日給大家寫(xiě)寫(xiě)論文中的各類指標(biāo)全是什么意思并且怎樣用R話語(yǔ)做出去論文中須要報(bào)表的各類指標(biāo)。理論鋪墊
首先給大家寫(xiě)靈敏度(Sensitivity)與特異度(Specificity),這2個(gè)物品全是對(duì)于二分類結(jié)局來(lái)講的,大家先瞅瞅以下的圖:
咱們真正的結(jié)果有兩類也許,模型的預(yù)判也有兩類也許,上圖的AD表示模型預(yù)判對(duì)的個(gè)案數(shù)目,如此靈敏度就是:在真的有病了,你的模型有多大也許檢查出去,表示為
Sensitivity: A/(A+C) × 100
在論文中就是這個(gè)母親真的是純潔母乳豢養(yǎng)的,模型有多大也許辨認(rèn)為真的純潔母乳豢養(yǎng)。
特異度就是:我是真的真的沒(méi)病,你的模型有多大也許說(shuō)我真的沒(méi)病,表示為:
Specificity: D/(D+B) × 100
在論文中就是這個(gè)母親真的不會(huì)去純潔母乳豢養(yǎng)的,模型有多大也許辨認(rèn)為真的不僅純母乳豢養(yǎng)。
有類學(xué)友說(shuō),我知曉個(gè)模型預(yù)判確切率不就好了嗎,用(A+D)/(A+B+C+D)來(lái)評(píng)價(jià)模型不就好了嗎?搞如此麻煩。。
不可如此想的,例如你如今有1個(gè)傻瓜模型,這個(gè)模型傻到它只會(huì)將一切的人都預(yù)判為沒(méi)病,恰好這個(gè)模型被用在了1個(gè)常態(tài)人群中,接著咱們發(fā)掘這個(gè)傻瓜模型的準(zhǔn)確率也是100%,這個(gè)就很離譜,因此并模型預(yù)判確切性是不可廣泛評(píng)價(jià)模型體現(xiàn)的,須要借助Sensitivity, Specificity。
咱們?cè)倏?PPV, NPV這2個(gè)指標(biāo):
Positive Predictive Value: A/(A+B) × 100
Negative Predictive Value: D/(D+C) × 100
看上面的公式,相信大家都看得出這2個(gè)實(shí)則就是模型的陰性預(yù)判確切性和陽(yáng)性預(yù)判確切性,也能夠從特定角度闡明模型的體現(xiàn)。
再看LR+和 LR-,這2個(gè)就是陰性似然比 (positive likelihood ratio, LR+)和 陽(yáng)性似然比
(positive likelihood ratio, LR+),似然比的概念請(qǐng)考慮下一段英文描繪:
Likelihood ratio (LR) is the ratio of two probabilities: (i) probability that a given test result may be expected in a diseased individual and (ii) probability that the same result will occur in a healthy subject.
如此:(LR+) = sensitivity / (1 - specificity),意義就是真陰性率與假陰性率之比。闡明模型準(zhǔn)確判定陰性的也許性是錯(cuò)誤判定陰性也許性的倍數(shù)。比值越大,實(shí)驗(yàn)結(jié)果陰性時(shí)為真陰性的幾率越大。
(LR-) = (1 - sensitivity) / specificity,意義就是假陽(yáng)性率與真陽(yáng)性率之比。表示錯(cuò)誤判定陽(yáng)性的也許性是準(zhǔn)確判定陽(yáng)性也許性的倍數(shù)。其比值越少,實(shí)驗(yàn)結(jié)果陽(yáng)性時(shí)為真陽(yáng)性的也許性越大。
因此大家記?。宏幮运迫槐仍酱笤胶茫?yáng)性似然比越少越好。
最終再把上面的一切的內(nèi)容總結(jié)1個(gè)表獻(xiàn)給可惡的粉絲們,嘿嘿。以下就是1個(gè)分類結(jié)局預(yù)判變量須要報(bào)表的許多模型評(píng)價(jià)指標(biāo):
再回過(guò)頭想想咱們所謂的陰性或者陽(yáng)性,假設(shè)用logistics回歸做的話自身這個(gè)陰性陽(yáng)性的鑒別全是能夠設(shè)定的,由于咱們的模型擬合出去的是呼應(yīng)幾率,就是Logit公式里面的那個(gè)p值,你能夠以p=0.5為咱們鑒別陰陰性的cutoff,固然你還能夠以0.9或者0.1為cutoff,cutoff不同自然咱們模型靈敏度和特異度就不同了,就是說(shuō)靈敏度和特異度是緊隨cutoff不同而改變著的,因此要安穩(wěn)地評(píng)價(jià)模型體現(xiàn)還須要此外的指標(biāo),這個(gè)時(shí)候咱們就引出了1個(gè)很首要的概念:ROC曲線和曲線以下積AUC。在實(shí)戰(zhàn)中解讀ROC曲線
我如今手上有信息如下:
我要做1個(gè)default的預(yù)判模型,default是個(gè)二分類變量,取值為“No” 和“Yes”,為了簡(jiǎn)潔我預(yù)判原因只參考1個(gè)balance。因而我創(chuàng)建1個(gè)logistics模型:
model_glm = glm(default ~ balance, data = default_trn, family = "binomial")
咱們將預(yù)判為Yes的幾率為0.1的時(shí)候成為cutoff值,區(qū)分預(yù)判結(jié)局(p<0.1的時(shí)候?yàn)镹o,p>0.1的時(shí)候?yàn)閅es),一樣地咱們還能夠?qū)utoff設(shè)置為0.5,0.9。接著咱們分別看一看模型的靈敏度和特異度:
test_pred_10 = get_logistic_pred(model_glm, data = default_tst, res = "default",
pos = "Yes", neg = "No", cut = 0.1)
test_pred_50 = get_logistic_pred(model_glm, data = default_tst, res = "default",
pos = "Yes", neg = "No", cut = 0.5)
test_pred_90 = get_logistic_pred(model_glm, data = default_tst, res = "default",
pos = "Yes", neg = "No", cut = 0.9)
test_tab_10 = table(predicted = test_pred_10, actual = default_tst$default)
test_tab_50 = table(predicted = test_pred_50, actual = default_tst$default)
test_tab_90 = table(predicted = test_pred_90, actual = default_tst$default)
test_con_mat_10 = confusionMatrix(test_tab_10, positive = "Yes")
test_con_mat_50 = confusionMatrix(test_tab_50, positive = "Yes")
test_con_mat_90 = confusionMatrix(test_tab_90, positive = "Yes")
metrics = rbind(
c(test_con_mat_10$overall["Accuracy"],
test_con_mat_10$byClass["Sensitivity"],
test_con_mat_10$byClass["Specificity"]),
c(test_con_mat_50$overall["Accuracy"],
test_con_mat_50$byClass["Sensitivity"],
test_con_mat_50$byClass["Specificity"]),
c(test_con_mat_90$overall["Accuracy"],
test_con_mat_90$byClass["Sensitivity"],
test_con_mat_90$byClass["Specificity"])
)
rownames(metrics) = c("c = 0.10", "c = 0.50", "c = 0.90")
metrics
運(yùn)作代碼后獲得呼應(yīng)幾率不同cutoff值的狀況下模型的靈敏度和特異度,如下圖:
能夠看見(jiàn)咱們?cè)O(shè)定的呼應(yīng)幾率的cutoff值不同,就是判定陰陽(yáng)的規(guī)范不同,咱們獲得的模型的靈敏度和特異度就是不同的。
以上不過(guò)為了再次給大家直觀地闡明咱們的模型的靈敏度和特異度是取決于咱們的呼應(yīng)幾率界值的,你判定陰陽(yáng)的規(guī)范會(huì)直接牽連模型的靈敏度和特異度,因而,咱們換個(gè)思想,針對(duì)1個(gè)模型,咱們將靈敏度成為橫坐標(biāo),特異度成為縱坐標(biāo),接著cutoff輕易取,咱們生成一條曲線,這就參考了一切的cutoff狀況了,就能夠安穩(wěn)地評(píng)價(jià)模型的體現(xiàn)了,這條曲線就是ROC曲線。
如此咱們希望的是1個(gè)模型它的靈敏度高的時(shí)候,特異度也能高,表現(xiàn)到曲線上就是曲線下的面積可以越大越好。預(yù)判模型R話語(yǔ)實(shí)操
此部份給大家寫(xiě)怎樣做出論文中的各類指標(biāo),并且怎樣繪出ROC曲線。
仍然是用上一部份的信息,仍然是做balance預(yù)判default的模型:
model_glm = glm(default ~ balance, data = default_trn, family = "binomial")
模型流出結(jié)果如下:
結(jié)果中有流出模型的截距和balance的β值,咱們能夠用如下代碼獲得balance的OR值并且置信區(qū)間:
exp(cbind(OR = coef(model_glm), confint(model_glm)))
運(yùn)作上面的代碼就能夠獲得balance的OR值和OR的置信區(qū)間:
同時(shí)咱們有遠(yuǎn)古的真正值,咱們模型擬合好了以后能夠用該模型進(jìn)行預(yù)判,獲得預(yù)判值,生成攪渾矩陣:
model_glm_pred = ifelse(predict(model_glm, type = "response") > 0.5, "Yes", "No")
在矩陣中就能夠獲得哪類是遠(yuǎn)古信息真正的No和Yes,哪類是模型預(yù)判出去的No和Yes:
上面就是咱們自身信息做出去的攪渾矩陣,接著大家就能夠直接帶公式計(jì)算出須要報(bào)表的模型的Sensitivity, Specificity, PPV, NPV, LR+, LR-了。
同時(shí)大家能夠用pROC包中的roc函數(shù)一行代碼繪制出ROC曲線并獲得曲線以下積,例如我做的模型,寫(xiě)出代碼如下:
test_roc = roc(default_tst$default ~ test_prob, plot = TRUE, print.auc = TRUE)
就能夠獲得ROC曲線和曲線以下積了:
上面的一切操控全是能夠在SPSS中完結(jié)的,論文作家也是用SPSS做的。大家感興致去閱讀原論文哈。小結(jié)
今日結(jié)合刊登文章給大家寫(xiě)了分類結(jié)局的預(yù)判模型須要報(bào)表哪類指標(biāo),指標(biāo)的意思并且怎樣用R做1個(gè)分類結(jié)局的預(yù)判模型,感激大家耐煩看完,自身的文章都寫(xiě)的很細(xì),首要代碼都在原文中,期望大家都能夠自身做一做,請(qǐng)轉(zhuǎn)發(fā)本文到同伙圈后私信答復(fù)“信息鏈接”獲得一切信息和自己采集的學(xué)習(xí)資料。假設(shè)對(duì)您有用請(qǐng)先記得珍藏,再點(diǎn)贊分享。
也歡迎大家的看法和倡議,大家想了解什么統(tǒng)計(jì)方式都能夠在文章下留言,說(shuō)不定我看到了就會(huì)給你寫(xiě)教學(xué)哦,有疑問(wèn)歡迎私信。
假設(shè)你是1個(gè)大學(xué)本科生或研發(fā)生,假設(shè)你正在由于你的統(tǒng)計(jì)功課、信息解析、模型建立,科研統(tǒng)計(jì)設(shè)計(jì)等憂愁,假設(shè)你在應(yīng)用SPSS, R,Python,Mplus, Excel中碰到任意問(wèn)題,都能夠聯(lián)絡(luò)我。由于我能夠給您供應(yīng)最佳的,最全面和耐煩的信息解析服務(wù)。
假設(shè)你對(duì)Z檢查,t檢查,方差解析,多元方差解析,回歸,卡方檢查,有關(guān),多程度模型,構(gòu)造方程模型,中介調(diào)整,量表信效度等等統(tǒng)計(jì)方法有任意問(wèn)題,請(qǐng)私信我,獲得全面和耐煩的引導(dǎo)。
If you are a student and you are worried about you statistical #Assignments, #Data #Analysis, #Thesis, #Reports, #Composing, #Quizzes, Exams.. And if you are facing problem in #SPSS, #R-Programming, #Excel, Mplus, then contact me. Because I could provide you the best services for your Data Analysis.
Are you confused with statistical Techniques like z-test, t-test, ANOVA, MANOVA, Regression, Logistic Regression, Chi-Square, Correlation, Association, SEM, multilevel model, mediation and moderation etc. for your Data Analysis...??
Then Contact Me. I will solve your Problem...
加油吧,打工人!往期精彩
R信息解析:用R話語(yǔ)做meta解析
R信息解析:用R話語(yǔ)做潛類型解析LCA
R信息解析:什么是人群歸因分?jǐn)?shù)Population Attributable Fraction
R信息解析:手把手教你畫(huà)列線圖(Nomogram)及理解結(jié)果
R信息解析:偏向性評(píng)分匹配完好實(shí)例(R實(shí)行)
R文本發(fā)掘:感情解析
R信息解析:怎樣用R做驗(yàn)證性因子解析及繪圖,實(shí)例操練
R信息解析:有調(diào)整的中介
R信息解析:怎樣用R做多重插補(bǔ),實(shí)例操練
R信息解析:多分類邏輯回歸
R文本發(fā)掘:中文詞云形成,以2021新年賀辭為例
R信息解析:臨床預(yù)判模型的樣件量討論及R實(shí)行
R信息解析:混合效應(yīng)模型實(shí)例
R信息解析:隨機(jī)截距交叉滯后RI-CLPM與傳統(tǒng)交叉滯后CLPM
R信息解析:多程度模型全面闡明
R信息解析:怎樣做潛在剖面解析Mplus
R信息解析:主成份解析及可視化
R信息解析:生存解析的作法與闡明續(xù)
R信息解析:競(jìng)爭(zhēng)危害模型的作法妥協(xié)釋二
R信息解析:怎樣做邏輯斯蒂回歸
R信息解析:開(kāi)拓性因子解析
R信息解析:交叉滯后模型非專業(yè)闡明
R信息解析:線性回歸的作法和優(yōu)化實(shí)例
R信息解析:多元邏輯斯蒂回歸的作法
R信息解析:非專業(yè)講解潛變量增長(zhǎng)模型
R信息解析:競(jìng)爭(zhēng)危害模型的作法妥協(xié)釋
R信息解析:中介功效與調(diào)整功效的解析與闡明
R信息解析:混合效應(yīng)模型的可視解除釋,再不懂就真沒(méi)方法
R信息解析:潛增長(zhǎng)模型LGM的作法妥協(xié)釋,及其與混合模型對(duì)照
信息可視化——R話語(yǔ)分組較為時(shí)圖形增加P值和明顯性程度
R信息解析:構(gòu)造方程模型繪圖并且模型較為,實(shí)例操練
本文網(wǎng)址:http://www.holzbau-technik.com/news/1887.html
相關(guān)標(biāo)簽:預(yù)判模型,總體模型,模型預(yù)判,傻瓜模型,這個(gè)模型,評(píng)價(jià)模型,模型評(píng)價(jià),模型靈敏度,logistics模型,1個(gè)模型,1個(gè)模型它,模型流出,流出模型,程度模型,方程模型,效應(yīng)模型實(shí)例,危害模型,滯后模型,增長(zhǎng)模型,效應(yīng)模型,模型LGM,混合模型
最近瀏覽:
相關(guān)產(chǎn)品:
相關(guān)新聞:
- 劍橋華人隊(duì)伍搞出多模態(tài)醫(yī)學(xué)大模型!單個(gè)消費(fèi)級(jí)顯卡就能布置
- 種子磁力鏈接聚合搜索工具-magnetW老司機(jī)必備的5個(gè)資源網(wǎng)站,第3個(gè)還能搜索種子BT!除了常見(jiàn)的搜索引擎,您還須要知曉這類良知的搜索神器python爬蟲(chóng)入門01:教你在 Chrome 瀏覽器輕盈抓包這5個(gè)在線資源網(wǎng)站較強(qiáng)大,能幫你搜到99%的資源!5款SteamVR動(dòng)作游戲分享舉薦10款必玩的熱點(diǎn)VR游戲舉薦,不玩你的Oculus Quest VR眼鏡就白買了體會(huì)完這個(gè)新品后,我感覺(jué)爽用VR的日子要來(lái)了設(shè)施太貴內(nèi)容太坑?VR前景令人擔(dān)心,誰(shuí)才是順利路上的絆腳石熱點(diǎn)經(jīng)典VR游戲分享清點(diǎn),5款優(yōu)秀Meta
- 服務(wù)經(jīng)營(yíng)| 優(yōu)化決策在醫(yī)療健康行業(yè)的理論+實(shí)踐
- 模型展上多奇葩:往年的WF展上的幾個(gè)有趣(沙雕)模型
- 中國(guó)學(xué)者開(kāi)發(fā)嶄新癡呆危害預(yù)判模型 可提早十年預(yù)判癡呆發(fā)病
- 港科大褚曉文:醫(yī)療場(chǎng)景下的 AutoML,模型參數(shù)量更小、分類準(zhǔn)確率更高
- 提前一周預(yù)測(cè)流感,中國(guó)首個(gè)AI流感實(shí)時(shí)預(yù)測(cè)模型登《柳葉刀》子刊
- 晶體-細(xì)胞互相功效的蛋白質(zhì)組學(xué):腎結(jié)石研發(fā)的模型
- 法證先鋒:3D打印解剖模型在法庭上大現(xiàn)身手 證實(shí)原告言行
- “四大海”創(chuàng)建的中醫(yī)人體模型分析《傷寒論》|《醫(yī)圣心印》連載8