Muovendo dal presupposto dell’ontologica porosità dei confini tra ambienti interni ed esterni, così come della natura squisitamente relazionale di dati e identità, il contributo mette in discussione la tenuta del modello di tutela civilistico della privacy e dei dati personali, quale quello apprestato dal GDPR. Il principio dualistico che ne informa la tutela — distinguendo tra dati personali, astratti dal soggetto ma ad esso legati da un vincolo di prossimità, e dati non personali, “esterni” al raggio di tutela — si è rivelato un limite strutturale di fronte alla pervasività della computazione bio-ipermediale. Alla luce di tali limiti, e sulla base di un’interpretazione costituzionalmente orientata, il contributo propone una traiettoria di ricomposizione del soggetto che sposti il focus della tutela dai frammenti identitari (i cosiddetti “dati personali”), eredi di un approccio analogico, verso l’insieme rappresentato dall’identità personale, prisma attraverso cui i diritti fondamentali si riconnettono e si rafforzano reciprocamente. A seguito di tale reductio ad unum, il focus della tutela trasla inevitabilmente dal quid (quali dati) al quomodo della computazione, ossia al modo in cui i sistemi di AI e la computazione del soggetto agiscono nei processi di costruzione identitaria. Un cambio di prospettiva che consente di ripensare il consenso come processo iterativo, volto a coinvolgere democraticamente gli human recipients nelle decisioni che informano il modus operandi dei sistemi con cui, volenti o nolenti, si troveranno a interagire. Un quadro orizzontale in grado di recuperare la dimensione sociale ed epistemica della Trustworthiness - paradigma chiave - della regolazione europea dell’Intelligenza Artificiale.
Porosità identitaria nell’human-machine interaction, Verso Una "controsoggettività algoritmica"? / De Vivo, Isabella. - In: GRUPPO DI PISA. - ISSN 2039-8026. - n. 11 Special Issue(2025), pp. 451-472.
Porosità identitaria nell’human-machine interaction, Verso Una "controsoggettività algoritmica"?
Isabella de Vivo
Primo
Writing – Original Draft Preparation
2025
Abstract
Muovendo dal presupposto dell’ontologica porosità dei confini tra ambienti interni ed esterni, così come della natura squisitamente relazionale di dati e identità, il contributo mette in discussione la tenuta del modello di tutela civilistico della privacy e dei dati personali, quale quello apprestato dal GDPR. Il principio dualistico che ne informa la tutela — distinguendo tra dati personali, astratti dal soggetto ma ad esso legati da un vincolo di prossimità, e dati non personali, “esterni” al raggio di tutela — si è rivelato un limite strutturale di fronte alla pervasività della computazione bio-ipermediale. Alla luce di tali limiti, e sulla base di un’interpretazione costituzionalmente orientata, il contributo propone una traiettoria di ricomposizione del soggetto che sposti il focus della tutela dai frammenti identitari (i cosiddetti “dati personali”), eredi di un approccio analogico, verso l’insieme rappresentato dall’identità personale, prisma attraverso cui i diritti fondamentali si riconnettono e si rafforzano reciprocamente. A seguito di tale reductio ad unum, il focus della tutela trasla inevitabilmente dal quid (quali dati) al quomodo della computazione, ossia al modo in cui i sistemi di AI e la computazione del soggetto agiscono nei processi di costruzione identitaria. Un cambio di prospettiva che consente di ripensare il consenso come processo iterativo, volto a coinvolgere democraticamente gli human recipients nelle decisioni che informano il modus operandi dei sistemi con cui, volenti o nolenti, si troveranno a interagire. Un quadro orizzontale in grado di recuperare la dimensione sociale ed epistemica della Trustworthiness - paradigma chiave - della regolazione europea dell’Intelligenza Artificiale.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.


