a diffusione dell’intelligenza artificiale (AI) nei sistemi di manutenzione predittiva (predictive maintenace, PdM) sta trasformando radicalmente la gestione delle infrastrutture, soprattutto nel settore dei trasporti. La manutenzione predittiva rappresenta un approccio innovativo che sfrutta l’AI per individuare in anticipo potenziali criticità nei processi e nei sistemi, riducendo il rischio di guasti e ottimizzando l’impiego delle risorse. Tuttavia, l’impiego di modelli complessi, spesso assimilabili a “scatole nere” o black box pone interrogativi in termini di trasparenza e spiegabilità. L’incapacità dei modelli di spiegare in modo chiaro le proprie decisioni può compromettere la fiducia degli operatori, ostacolando l’adozione delle strategie predittive. In questo contesto, l’Explainable AI (XAI) si afferma come leva fondamentale per garantire il controllo umano significativo (cd. meaningful human control), convalidare l’affidabilità delle previsioni e promuovere una governance efficace e responsabile dell’AI. L’articolo approfondisce il nesso tra PdM e trasparenza algoritmica, evidenziando le potenzialità e i limiti degli approcci XAI, con particolare attenzione al quadro normativo europeo e alle implicazioni per le pubbliche amministrazioni.
Manutenzione predittiva nei trasporti: il ruolo dell’Explainable AI / Gentilucci, Riccardo. - In: AGENDA DIGITALE EU. - ISSN 2421-4167. - (2025).
Manutenzione predittiva nei trasporti: il ruolo dell’Explainable AI
RICCARDO GENTILUCCI
2025
Abstract
a diffusione dell’intelligenza artificiale (AI) nei sistemi di manutenzione predittiva (predictive maintenace, PdM) sta trasformando radicalmente la gestione delle infrastrutture, soprattutto nel settore dei trasporti. La manutenzione predittiva rappresenta un approccio innovativo che sfrutta l’AI per individuare in anticipo potenziali criticità nei processi e nei sistemi, riducendo il rischio di guasti e ottimizzando l’impiego delle risorse. Tuttavia, l’impiego di modelli complessi, spesso assimilabili a “scatole nere” o black box pone interrogativi in termini di trasparenza e spiegabilità. L’incapacità dei modelli di spiegare in modo chiaro le proprie decisioni può compromettere la fiducia degli operatori, ostacolando l’adozione delle strategie predittive. In questo contesto, l’Explainable AI (XAI) si afferma come leva fondamentale per garantire il controllo umano significativo (cd. meaningful human control), convalidare l’affidabilità delle previsioni e promuovere una governance efficace e responsabile dell’AI. L’articolo approfondisce il nesso tra PdM e trasparenza algoritmica, evidenziando le potenzialità e i limiti degli approcci XAI, con particolare attenzione al quadro normativo europeo e alle implicazioni per le pubbliche amministrazioni.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.


