Le forme di controllo e sorveglianza sociale esercitati da attori pubblici e privati nei contesti urbani cambiano anche a causa degli strumenti tecnologici via via disponibili. In particolare, innovazioni e sviluppi nel campo dell’intelligenza artificiale (IA) stanno apportando cambiamenti rilevanti e accelerati nelle politiche per la sicurezza che sfidano la capacità del loro governo politico-istituzionale e amministrativo. Per capire da una prospettiva sociologica la complessità dei processi innescati, è dunque necessario ricostruire sia le implicazioni delle innovazioni tecnologiche per le forme del controllo sociale, sia l’esercizio di potere nelle relazioni attraverso le quali sono gestite: da un lato fra le istituzioni e i sistemi di produzione ed enforcement di norme coinvolti, dall’altro fra i poteri politici e quelli annidati nelle connessioni fra scienza, tecnica, competenze ed economia. Mettendo a fuoco l’uso di sistemi di intelligenza artificiale nelle politiche di sicurezza urbana in Italia, nell’intervento proposto si esamina il secondo aspetto, ossia le implicazioni politiche e istituzionali del “governare gli algoritmi, mentre si governa con gli algoritmi" (Kuziemsky, Misuraca 2020). L’AI permette di differenziare le forme e gli obiettivi del controllo sociale nelle città, sia con pratiche e tecniche di social scoring, solo delineate in Italia (ad es. Roma, Bergamo, Bologna, Fidenza), ma ampiamente sperimentate altrove (Liang et al. 2018), sia moltiplicando gli effetti della videosorveglianza, aspetto sul quale si concentra questo intervento. L’accresciuta importanza della sicurezza urbana nelle agende politiche (Battistelli 2016; Ricotta 2016) ha dato luogo ad azioni locali e a una politica nazionale (D.L. 20 02 2017, n. 14 - Disposizioni urgenti in materia di sicurezza delle città), attuata attraverso “Patti per la sicurezza urbana” sottoscritti da prefetto e sindaco, che disciplinano la collaborazione fra comuni, prefetture e rispettive forze dell’ordine. In un policy frame che intende integrare ordine, crescita economica e inclusione sociale, insieme ad altre misure sono promossi “prevenzione e contrasto dei fenomeni di criminalità diffusa e predatoria” (…) anche “attraverso l’installazione di sistemi di videosorveglianza” (art. 5), per i quali sono stanziate somme e previsti incentivi per attori privati (art. 7) e che integrano la flagranza (art. 10). Le sopravvenute opportunità offerte dall’integrazione in spazi privati e pubblici fra videosorveglianza, IoT, big data e IA favoriscono l’innovazione anche in questa politica di sicurezza.  Tuttavia, proprio l’uso dell’IA a fini di enforcement collide con altri ambiti di normatività. La tensione tra il perseguimento di obiettivi di sicurezza pubblica e prevenzione del crimine e la tutela dei diritti individuali e di gruppi sociali evidenzia le difficoltà di governare i trade-off fra potenzialità e rischi di queste ed altre applicazioni dell’IA (Yigitcanlar et al. 2021; Strover et al. 2021). Da un lato, l’AI elaborando grandi quantità di dati, incluse le videoregistrazioni delle telecamere di sicurezza, promette benefici di portata inedita non solo per l’economia, ma anche nei processi decisionali e gestionali pubblici, che spaziano dal supporto e miglioramento delle decisioni umane alla loro sostituzione (Saetra 2021). Dall’altro lato, l’impiego di questo tipo di tecnologie si accompagna a rischi e possibili errori (Wang et al. 2020; Schachtner 2021), censiti e monitorati anche dalla società civile (es. https://incidentdatabase.ai/), come: violazioni dei diritti delle persone (es. privacy, trasparenza e sicurezza dei dati), riproduzione o approfondimento di disuguaglianze sociali e discriminazione; opacità nei processi decisionali, mancanza di trasparenza e limitata partecipazione e attenzione del pubblico (McQuillan 2022). Non a caso, tentativi di promuovere e disciplinare una human-centered and trustworthy AI strutturano sia le agende di regolazione pubblica (attualmente soprattutto l’AI Act dell’UE), sia le interazioni pubblico/pubblico e pubblico/privato nella governance e metagovernance dell’AI, facendo emergere tensioni relative a diverse forme e fonti della normatività: tra soft-law e hard-law; circa la scala dell’uso e della regolazione pubblici (Marchant 2019; Floridi 2021). Tenendo conto di questi aspetti, l’intervento:  2 (i) precisa le domande di un’agenda di ricerca sociologica sui rapporti tra poteri sociali – la politica, l’expertise tecnico- scientifica, le imprese, la società civile no-profit – nell’usare, promuovere e regolare l’AI. In particolare, ci si chiede quali attori (politici e amministrativi di livelli diversi, privati, tecnici, della società civile) intervengano nella governance dell’uso di IA nelle politiche di sicurezza e come: attraverso quali processi e interazioni, sulla base di quali obiettivi, frame delle azioni, percezione del contesto e uso di risorse per esercitare potere. (ii) presenta i primi risultati di una ricerca sull’uso dell’IA nelle politiche urbane, condotta mediante: (a) una mappatura delle pratiche e dei progetti che utilizzano IA per varie finalità in 111 città italiane capoluogo di provincia nel periodo 2019-2022, che ha consentito di individuare 28 progetti di sistemi di IA in 25 città; (b) l’approfondimento del caso del progetto di videosorveglianza “Argo” a Torino, selezionato sulla base di tre criteri: la salienza nel dibattito locale e nazionale, il livello di rischio secondo la classificazione nel processo legislativo dell’AI Act; le implicazioni relative ad uso e trattamento dei dati personali. Sono state sinora analizzati, attraverso analisi desk e interviste con esponenti dell’amministrazione e della polizia locale e del Garante per la Protezione dei Dati Personali (GPDP): l’ingresso in agenda e l’implementazione del progetto; le controversie circa il rapporto tra raccolta e gestione di meta-dati e tecnologie di riconoscimento facciale; il ruolo della normazione diretta e indiretta dell’IA nelle interazioni fra scala locale (Comune; Regione), nazionale ed europea (Ministero Interno; moratoria legislativa del biometrico ne 2021; ruolo di GPDP e GDPR – Regolamento UE 2016/679).  La ricerca ha permesso di trarre prime conclusioni circa il modo in cui i trade-off tra benefici per la collettività (sicurezza) e rischi (per la privacy) dell’IA sono gestiti nelle interazioni fra i poteri sociali della politica e della società civile. La politica produce decisioni all’intersezione tra i distinti sottosistemi di normazione e governo multi-scalari (locale, nazionale, GPDP) della sicurezza urbana e dei diritti alla privacy. Ciascuno di essi include parti di società civile, polarizzata fra domande securitarie e garanzie per la privacy, attraverso il ruolo di associazioni. Questa governance lascia spazi limitati per forme di “AI localism”, indipendentemente dai colori politici.

Poteri sociali e governance dell’intelligenza artificiale nelle politiche della sicurezza urbana: la videosorveglianza a Torino / D'Albergo, Ernesto; Fasciani, Tommaso; Giovanelli, Giorgio. - (2023). (Intervento presentato al convegno Re-assembling the social. Re(i)stituire il sociale. 40 anni di AIS tenutosi a Napoli; Italia).

Poteri sociali e governance dell’intelligenza artificiale nelle politiche della sicurezza urbana: la videosorveglianza a Torino

Ernesto d'Albergo
;
Tommaso Fasciani
;
Giorgio Giovanelli
2023

Abstract

Le forme di controllo e sorveglianza sociale esercitati da attori pubblici e privati nei contesti urbani cambiano anche a causa degli strumenti tecnologici via via disponibili. In particolare, innovazioni e sviluppi nel campo dell’intelligenza artificiale (IA) stanno apportando cambiamenti rilevanti e accelerati nelle politiche per la sicurezza che sfidano la capacità del loro governo politico-istituzionale e amministrativo. Per capire da una prospettiva sociologica la complessità dei processi innescati, è dunque necessario ricostruire sia le implicazioni delle innovazioni tecnologiche per le forme del controllo sociale, sia l’esercizio di potere nelle relazioni attraverso le quali sono gestite: da un lato fra le istituzioni e i sistemi di produzione ed enforcement di norme coinvolti, dall’altro fra i poteri politici e quelli annidati nelle connessioni fra scienza, tecnica, competenze ed economia. Mettendo a fuoco l’uso di sistemi di intelligenza artificiale nelle politiche di sicurezza urbana in Italia, nell’intervento proposto si esamina il secondo aspetto, ossia le implicazioni politiche e istituzionali del “governare gli algoritmi, mentre si governa con gli algoritmi" (Kuziemsky, Misuraca 2020). L’AI permette di differenziare le forme e gli obiettivi del controllo sociale nelle città, sia con pratiche e tecniche di social scoring, solo delineate in Italia (ad es. Roma, Bergamo, Bologna, Fidenza), ma ampiamente sperimentate altrove (Liang et al. 2018), sia moltiplicando gli effetti della videosorveglianza, aspetto sul quale si concentra questo intervento. L’accresciuta importanza della sicurezza urbana nelle agende politiche (Battistelli 2016; Ricotta 2016) ha dato luogo ad azioni locali e a una politica nazionale (D.L. 20 02 2017, n. 14 - Disposizioni urgenti in materia di sicurezza delle città), attuata attraverso “Patti per la sicurezza urbana” sottoscritti da prefetto e sindaco, che disciplinano la collaborazione fra comuni, prefetture e rispettive forze dell’ordine. In un policy frame che intende integrare ordine, crescita economica e inclusione sociale, insieme ad altre misure sono promossi “prevenzione e contrasto dei fenomeni di criminalità diffusa e predatoria” (…) anche “attraverso l’installazione di sistemi di videosorveglianza” (art. 5), per i quali sono stanziate somme e previsti incentivi per attori privati (art. 7) e che integrano la flagranza (art. 10). Le sopravvenute opportunità offerte dall’integrazione in spazi privati e pubblici fra videosorveglianza, IoT, big data e IA favoriscono l’innovazione anche in questa politica di sicurezza.  Tuttavia, proprio l’uso dell’IA a fini di enforcement collide con altri ambiti di normatività. La tensione tra il perseguimento di obiettivi di sicurezza pubblica e prevenzione del crimine e la tutela dei diritti individuali e di gruppi sociali evidenzia le difficoltà di governare i trade-off fra potenzialità e rischi di queste ed altre applicazioni dell’IA (Yigitcanlar et al. 2021; Strover et al. 2021). Da un lato, l’AI elaborando grandi quantità di dati, incluse le videoregistrazioni delle telecamere di sicurezza, promette benefici di portata inedita non solo per l’economia, ma anche nei processi decisionali e gestionali pubblici, che spaziano dal supporto e miglioramento delle decisioni umane alla loro sostituzione (Saetra 2021). Dall’altro lato, l’impiego di questo tipo di tecnologie si accompagna a rischi e possibili errori (Wang et al. 2020; Schachtner 2021), censiti e monitorati anche dalla società civile (es. https://incidentdatabase.ai/), come: violazioni dei diritti delle persone (es. privacy, trasparenza e sicurezza dei dati), riproduzione o approfondimento di disuguaglianze sociali e discriminazione; opacità nei processi decisionali, mancanza di trasparenza e limitata partecipazione e attenzione del pubblico (McQuillan 2022). Non a caso, tentativi di promuovere e disciplinare una human-centered and trustworthy AI strutturano sia le agende di regolazione pubblica (attualmente soprattutto l’AI Act dell’UE), sia le interazioni pubblico/pubblico e pubblico/privato nella governance e metagovernance dell’AI, facendo emergere tensioni relative a diverse forme e fonti della normatività: tra soft-law e hard-law; circa la scala dell’uso e della regolazione pubblici (Marchant 2019; Floridi 2021). Tenendo conto di questi aspetti, l’intervento:  2 (i) precisa le domande di un’agenda di ricerca sociologica sui rapporti tra poteri sociali – la politica, l’expertise tecnico- scientifica, le imprese, la società civile no-profit – nell’usare, promuovere e regolare l’AI. In particolare, ci si chiede quali attori (politici e amministrativi di livelli diversi, privati, tecnici, della società civile) intervengano nella governance dell’uso di IA nelle politiche di sicurezza e come: attraverso quali processi e interazioni, sulla base di quali obiettivi, frame delle azioni, percezione del contesto e uso di risorse per esercitare potere. (ii) presenta i primi risultati di una ricerca sull’uso dell’IA nelle politiche urbane, condotta mediante: (a) una mappatura delle pratiche e dei progetti che utilizzano IA per varie finalità in 111 città italiane capoluogo di provincia nel periodo 2019-2022, che ha consentito di individuare 28 progetti di sistemi di IA in 25 città; (b) l’approfondimento del caso del progetto di videosorveglianza “Argo” a Torino, selezionato sulla base di tre criteri: la salienza nel dibattito locale e nazionale, il livello di rischio secondo la classificazione nel processo legislativo dell’AI Act; le implicazioni relative ad uso e trattamento dei dati personali. Sono state sinora analizzati, attraverso analisi desk e interviste con esponenti dell’amministrazione e della polizia locale e del Garante per la Protezione dei Dati Personali (GPDP): l’ingresso in agenda e l’implementazione del progetto; le controversie circa il rapporto tra raccolta e gestione di meta-dati e tecnologie di riconoscimento facciale; il ruolo della normazione diretta e indiretta dell’IA nelle interazioni fra scala locale (Comune; Regione), nazionale ed europea (Ministero Interno; moratoria legislativa del biometrico ne 2021; ruolo di GPDP e GDPR – Regolamento UE 2016/679).  La ricerca ha permesso di trarre prime conclusioni circa il modo in cui i trade-off tra benefici per la collettività (sicurezza) e rischi (per la privacy) dell’IA sono gestiti nelle interazioni fra i poteri sociali della politica e della società civile. La politica produce decisioni all’intersezione tra i distinti sottosistemi di normazione e governo multi-scalari (locale, nazionale, GPDP) della sicurezza urbana e dei diritti alla privacy. Ciascuno di essi include parti di società civile, polarizzata fra domande securitarie e garanzie per la privacy, attraverso il ruolo di associazioni. Questa governance lascia spazi limitati per forme di “AI localism”, indipendentemente dai colori politici.
2023
File allegati a questo prodotto
Non ci sono file associati a questo prodotto.

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11573/1680495
 Attenzione

Attenzione! I dati visualizzati non sono stati sottoposti a validazione da parte dell'ateneo

Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact