L’articolo esplora criticamente l’assunzione secondo cui la fairness nei sistemi automatizzati di supporto decisionale equivalga intrinsecamente ad algoritmi etici. Sebbene la fairness sia diventata un criterio fondamentale per la valutazione etica delle applicazioni di Intelligenza Artificiale, questo lavoro sostiene che questa non garantisca necessariamente risultati etici. Richiamandosi alle prospettive deontologica, consequenzialista e dell’etica della cura, l’articolo evidenzia come l’affidarsi acriticamente alla fairness possa trascurare l’unicità individuale e rafforzare strutture di potere esistenti, in quanto gli algoritmi tendono a ridurre identità umane complesse a categorie fisse. Inoltre, l’imparzialità, dimensione della fairness spesso valorizzata nel dibattito sui sistemi di IA, può risultare eticamente inadeguata in contesti in cui il riconoscimento della singolarità individuale e delle sfumature situazionali risulta essenziale. Infine, l’articolo sostiene la necessità di una valutazione trasparente dei quadri etici che modellano i sistemi di IA, sottolineando il rischio di un’introduzione surrettizia di scopi e visioni etiche. Viene adottato il concetto di fair washing, una pratica che rischia di rappresentare i sistemi automatizzati di supporto alla decisione come intrinsecamente etici in virtù della loro fairness, eludendo la responsabilità di definire e analizzare gli obiettivi di tali tecnologie.
Un’analisi critica del fair washing dei sistemi di supporto decisionale basati sull’IA / Campione, Francesca. - (2025). (Intervento presentato al convegno Dati e algoritmi tra disuguaglianze e resistenze tenutosi a Perugia, Italia).
Un’analisi critica del fair washing dei sistemi di supporto decisionale basati sull’IA
Francesca Campione
2025
Abstract
L’articolo esplora criticamente l’assunzione secondo cui la fairness nei sistemi automatizzati di supporto decisionale equivalga intrinsecamente ad algoritmi etici. Sebbene la fairness sia diventata un criterio fondamentale per la valutazione etica delle applicazioni di Intelligenza Artificiale, questo lavoro sostiene che questa non garantisca necessariamente risultati etici. Richiamandosi alle prospettive deontologica, consequenzialista e dell’etica della cura, l’articolo evidenzia come l’affidarsi acriticamente alla fairness possa trascurare l’unicità individuale e rafforzare strutture di potere esistenti, in quanto gli algoritmi tendono a ridurre identità umane complesse a categorie fisse. Inoltre, l’imparzialità, dimensione della fairness spesso valorizzata nel dibattito sui sistemi di IA, può risultare eticamente inadeguata in contesti in cui il riconoscimento della singolarità individuale e delle sfumature situazionali risulta essenziale. Infine, l’articolo sostiene la necessità di una valutazione trasparente dei quadri etici che modellano i sistemi di IA, sottolineando il rischio di un’introduzione surrettizia di scopi e visioni etiche. Viene adottato il concetto di fair washing, una pratica che rischia di rappresentare i sistemi automatizzati di supporto alla decisione come intrinsecamente etici in virtù della loro fairness, eludendo la responsabilità di definire e analizzare gli obiettivi di tali tecnologie.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.


