当前位置:
X-MOL 学术
›
Transp. Res. Part E Logist. Transp. Rev.
›
论文详情
Our official English website, www.x-mol.net, welcomes your
feedback! (Note: you will need to create a separate account there.)
An interpretable machine learning framework for enhancing road transportation safety
Transportation Research Part E: Logistics and Transportation Review ( IF 8.3 ) Pub Date : 2025-01-21 , DOI: 10.1016/j.tre.2025.103969
Ismail Abdulrashid, Wen-Chyuan Chiang, Jiuh-Biing Sheu, Shamkhal Mammadov
Transportation Research Part E: Logistics and Transportation Review ( IF 8.3 ) Pub Date : 2025-01-21 , DOI: 10.1016/j.tre.2025.103969
Ismail Abdulrashid, Wen-Chyuan Chiang, Jiuh-Biing Sheu, Shamkhal Mammadov
This study presents a comprehensive decision-making framework that employs eXplainable Artificial Intelligence (XAI)-based methods to improve proactive road transport safety management, which is critical for global supply chain networks. The framework offers explainable predictions as well as suggestions pertaining to the near-future digitization of safety tools and their usage, customized for road transport safety management. We employed four black-box machine learning-based models—artificial neural network (ANN), support vector machine (SVM), random forest (RF), and extreme gradient boosting (XGBoost)—in this setting to enhance our comprehension of the crash-related risk factors that contribute to the severity of traffic accident injuries. Due to their opaqueness and complex inner workings, stakeholders often perceive these models as data-driven black-box approaches, making them incapable of providing an efficient decision-support tool. The recommended decision support incorporates agreement levels for predictions and interpretation across various XAI modeling paradigms. We deploy PFI (Permutation Feature Importance) and FIRM (Feature Importance Ranking Measures) tools to evaluate the extent of agreement in explainability between these various modeling approaches. The recommendations are based on PFI and FIRM values of highly performing models. We execute the framework as an illustration of the concept using a real crash dataset obtained from the NHTSA (National Highway Transportation Safety Administration of the United States) and report end-user feedback for use by transport policymakers.
中文翻译:
用于提高道路运输安全的可解释机器学习框架
本研究提出了一个全面的决策框架,该框架采用基于 eXplainable 人工智能 (XAI) 的方法来改善主动的道路运输安全管理,这对全球供应链网络至关重要。该框架提供了可解释的预测以及有关安全工具及其使用的近期数字化的建议,为道路运输安全管理进行了定制。在这种情况下,我们采用了四种基于黑盒机器学习的模型——人工神经网络 (ANN)、支持向量机 (SVM)、随机森林 (RF) 和极端梯度提升 (XGBoost),以增强我们对导致交通事故伤害严重程度的碰撞相关风险因素的理解。由于它们的不透明性和复杂的内部运作,利益相关者通常将这些模型视为数据驱动的黑盒方法,使其无法提供有效的决策支持工具。建议的决策支持包含各种 XAI 建模范例中预测和解释的一致性级别。我们部署了 PFI (排列特征重要性) 和 FIRM (特征重要性排名度量) 工具来评估这些不同建模方法之间可解释性的一致性程度。这些建议基于高性能模型的 PFI 和 FIRM 值。我们使用从 NHTSA(美国国家公路运输安全管理局)获得的真实碰撞数据集来执行该框架作为概念的例证,并报告最终用户的反馈供交通政策制定者使用。
更新日期:2025-01-21
中文翻译:
![](https://scdn.x-mol.com/jcss/images/paperTranslation.png)
用于提高道路运输安全的可解释机器学习框架
本研究提出了一个全面的决策框架,该框架采用基于 eXplainable 人工智能 (XAI) 的方法来改善主动的道路运输安全管理,这对全球供应链网络至关重要。该框架提供了可解释的预测以及有关安全工具及其使用的近期数字化的建议,为道路运输安全管理进行了定制。在这种情况下,我们采用了四种基于黑盒机器学习的模型——人工神经网络 (ANN)、支持向量机 (SVM)、随机森林 (RF) 和极端梯度提升 (XGBoost),以增强我们对导致交通事故伤害严重程度的碰撞相关风险因素的理解。由于它们的不透明性和复杂的内部运作,利益相关者通常将这些模型视为数据驱动的黑盒方法,使其无法提供有效的决策支持工具。建议的决策支持包含各种 XAI 建模范例中预测和解释的一致性级别。我们部署了 PFI (排列特征重要性) 和 FIRM (特征重要性排名度量) 工具来评估这些不同建模方法之间可解释性的一致性程度。这些建议基于高性能模型的 PFI 和 FIRM 值。我们使用从 NHTSA(美国国家公路运输安全管理局)获得的真实碰撞数据集来执行该框架作为概念的例证,并报告最终用户的反馈供交通政策制定者使用。