背景与目标
高性能机器学习模型(如XGBoost)常被视为"黑箱",缺乏可解释性限制了其临床应用。本研究旨在弥合预测准确性与叙事透明度之间的差距,专注于肌肉减少症风险评估。
方法
提出LLM自适应解释框架(LAI-ML),这是一种新颖的知识蒸馏架构。该框架通过专门技术(HAGA和CACS)将训练好的XGBoost模型的特征归因转化为概率格式。随后,在强化学习循环和案例检索的指导下,大语言模型生成数据可信的诊断叙述。
结果
LAI-ML框架达到83%的预测准确率,显著优于基线XGBoost模型(提升13%)。值得注意的是,大语言模型不仅复制了教师模型的逻辑,还在21.7%的不一致案例中纠正了其预测,展现出增强的推理能力。
结论
LAI-ML有效将不透明的模型预测转化为可信且可解释的临床见解,为医疗人工智能中的"黑箱"问题提供了可部署的解决方案。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)