1. La nuova frontiera delle società «intelligenti» - Premesse Delineare il perimetro effettivo del fenomeno dell’Intelligenza Artificiale (d’ora in avanti indifferentemente IA — Intelligenza Artificiale o AI — Artificial Intelligence), per quanto ad oggi possibile, ed apprezzarne i vantaggi e le potenzialità, così come individuarne le criticità, non è impresa facile. Tenterò in questo breve scritto, di fornire un contributo interpretativo dello stato attuale del fenomeno e, se possibile, di tracciare le linee di una sua regolazione eterointrodotta o, addirittura, endoprocedimentalizzata, all’interno della produzione algoritmica che governerà l’agere di questa nuova, affascinante scommessa. L’intelligenza è sì anche, la capacità di integrare le informazioni del mondo mutevole che ci circonda, elaborarle e concretizzarle in azioni e movimenti, grazie alla comunicazione degli stimoli e delle informazioni; se ciò è vero, la capacità di una macchina di mettere in correlazione fra loro grandi quantità di informazioni e dati, elaborarli secondo una determinata formula preconfezionata (l’algoritmo) e dare il risultato previsto e richiesto, può dirsi essere simile all’intelligenza umana. Tuttavia, nonostante la capacità delle macchine di imparare da se stesse, attraverso il c.d. machine learning, o addirittura di elaborare nuovi percorsi di apprendimento con il c.d. « deep learning », alle stesse manca la capacità, tutta umana, di valutazione delle molteplici variabili impreviste o imprevedibili: il cosiddetto discernimento. Ciò che occorre fare, medio tempore, è conoscere e regolare i vari fenomeni; a fortiori e principaliter quello dell’algoritmo, al fine di tutelare il consumatore ed evitare, per quanto possibile, ogni deriva commerciale che usi il flusso dei dati in corso, a fini eminentemente speculativi e, nel contempo, consenta una competitività responsabile. Torna qui il tema eterno della libertà di iniziativa economica privata di cui all’art. 41 della nostra Costituzione, vis à vis, la necessità di individuare la giusta regolazione per la salvaguardia dei diritti inviolabili dell’uomo. L’Agenda digitale europea ha imposto delle scadenze ben precise; il GDPR ha imposto date stringenti; è già oggi necessario incasellare una serie di responsabilità potenziali e numerosi alert, per far sì che la difesa della privacy sia, anche, difesa della dignità umana, tutela del consumatore e rispetto dei diritti fondamentali. Tuttavia, forse, occorre osservare che nel mondo 4.0 e 5.0, la disponibilità dei dati come contributo al bene comune è universalmente inteso quale bene della vita. È infatti, fondamentale, tenere presente che i dati, se utilizzati in maniera idonea possono rappresentare un fattore di riferimento esponenziale per la ricerca in tutti i campi. Ciò posto, ritengo che, lo sviluppo dell’Intelligenza Artificiale sia un bene per la società e che porterà ad uno stravolgimento del sistema facendo saltare tutti i paradigmi cui eravamo abituati, ma se noi saremo ancora dotati di intelligenza e me lo auguro, sapremo sfruttare al meglio questa nuova opportunità. 2. Intelligenza Artificiale e sistemi neurali complessi Negli ultimi anni, il mondo sta investendo nello studio e nell’applicazione dell’AI, tuttavia, ad oggi, non esiste una disciplina normativa che dia dei parametri certi di riferimento in merito a tutte le implicazioni che tale attività può produrre. Come detto, i sistemi neurali complessi e gli algoritmi sono in grado di far « imparare » le macchine, nel senso di affinare le tecniche di ricerca e di risoluzione di problemi rispetto agli obiettivi dati, attraverso un sofisticato sistema di correlazione dei famosi big data, che sono una fonte quasi inesauribile di informazioni sulle persone di ogni età, sesso e nazionalità. È quindi fondamentale che l’algoritmo sia progettato correttamente, o che vi sia un controllo su di esso. Come sappiamo, già Isaac Asimov, nel racconto « Circolo vizioso » del 1942 aveva teorizzato quelle che vengono definite « Le 3 leggi della robotica », al fine di facilitare una futura convivenza tra uomo e macchina: 1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. 2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge. 3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.» Ciò che qui occorre sottolineare, è che le 3 leggi della robotica di cui sopra, sono rimaste, almeno per ora, su un piano meramente teorico, non trovando alcuna concreta applicazione nella realtà. Inoltre, a parere di chi scrive, queste leggi, per molti versi sono state superate nei fatti e andrebbero riviste e aggiornate alla luce dei nuovi principi etici e morali che si sono venuti a sviluppare sino ad oggi. Riflessione di non poco conto se pensiamo che due robot, recentemente messi a confronto, hanno iniziato a dialogare tra loro in inglese e, dopo qualche ora, parlavano in una lingua non più comprensibile; l’esperimento è stato interrotto, con la motivazione di “guasto di programmazione”ma la cosa ha lasciato non pochi dubbi circa le reali implicazioni di una robotica dotata di IA senza controllo. 3. Intelligenza Artificiale e progettazione algoritmica 3.1 Tenuto conto delle potenzialità dell’AI, oggi moltissime imprese in tutto il mondo si stanno concentrando nello studio di algoritmi necessari per il suo sviluppo. Nel 2015 Google ha introdotto nel suo motore di ricerca l’algoritmo RankBrain basato su un approccio in grado di imparare dall’esperienza, cioè di identificare patterns tra ricerche complesse apparentemente non correlate e capire che, in realtà, esse sono molto simili tra loro. Questo approccio ha permesso a Google di rispondere in modo più pertinente a quel 15% di ricerche (450 milioni su 3 miliardi giornalieri) che contengono sequenze di parole mai digitate prima da nessun utente. Allora, il tema non è, solo, come potrebbe sembrare facile sostenere, rendere meno disponibili i nostri dati in nome della privacy, ma, eminentemente, determinare il perimetro del loro utilizzo. È evidente, quindi, che uno dei problemi più importanti da risolvere, dato il continuo e crescente sviluppo e utilizzo dell’AI, è la necessità di fare in modo che le applicazioni di intelligenza artificiale rispondano a criteri etici accettabili. Ciò premesso, non sembra qui azzardato sostenere che, alla luce dei condivisi valori etici, proprio i paesi Europei potrebbero cimentarsi nella scrittura di queste « linee guida » su come deve essere progettato l’algoritmo. Questa è un’opportunità che l’Italia, e l’Europa in generale, deve necessariamente cogliere; disegnare l’algoritmo che governerà la futura AI, o i requisiti che questo dovrà avere, per essere legittimamente introdotto in beni e servizi, ed effettuare un continuo controllo etico dello stesso, significherebbe, non solo esportare i valori e la cultura del nostro Continente nel resto del mondo, ma principalmente e soprattutto, acquisire ed accrescere in maniera significativa il ruolo dell’Europa nel mondo. Questa mia riflessione ha trovato riscontro, sia nella comunicazione della Commissione del 7.12.2018, che espone un piano coordinato sull’intelligenza artificiale (24) sia con la prima bozza resa nota dalla Commissione Europea di linee guida etiche sull’AI; guida predisposta dall’High Level Expert Group on Artificial Intelligence, che comprende ben 52 esperti da tutte le parti del mondo (di cui 2italiani). È evidente che l’AI non è solo un obiettivo di grande interesse economico, ma può anche essere uno strumento di dominio. Non è un caso, infatti, che i maggiori investimenti in intelligenza artificiale sono quelli dei due grandi giganti del ventunesimo secolo, Stati Uniti e Cina, con un probabile vantaggio dei cinesi in termini di fondi investiti. Alla luce della velocità con cui l’AI si sta evolvendo, forse una delle iniziative da mettere in campo in Europa, e sicuramente in Italia, è quella di preparare le future generazioni, non solo all’utilizzo degli strumenti che in parte già esistono e funzionano con l’intelligenza artificiale, ma anche allo studio delle tecnologie che possono portare a disegnare gli algoritmi regolatori della stessa AI. 3.2 Ciò premesso, un tema di fondamentale importanza e strettamente connesso all’Intelligenza Artificiale come detto, è quello della tutela della privacy, e quindi della tutela dei dati personali, tenuto conto della circostanza che la fame di dati e di consensi alla condivisione degli stessi è altissima, non solo per fini commerciali, ma anche per lo sviluppo stesso dell’intelligenza artificiale. Per cercare di trovare delle risposte si potrebbe partire proprio dal GDPR, le cui disposizioni sono divenute definitivamente applicabili in tutti i Paesi membri dell’Unione Europea il 25 maggio 2018 e in Italia con il Decreto Legislativo n. 101 del 10 agosto 2018. Nel Decreto si stabilisce tra l’altro, che gli individui hanno il diritto di non essere oggetto di una decisione basata esclusivamente su un trattamento automatizzato, ad eccezione dei casi in cui questa sia imposta dalla legge, derivi da un obbligo contrattuale o sia giustificata dal consenso esplicito del soggetto. 3.3 Un altro principio fondamentale ai fini della tutela dei dati personali del singolo da eventuali future aggressioni da parte dell’AI è quello, in base al quale è necessario raccogliere presso l’interessato, da parte del titolare del trattamento, un consenso informato circa il trattamento dei dati stessi. Una delle principali fonti di elaborazione per l’intelligenza artificiale siano i Big Data Analytics, cioè la combinazione di enormi volumi di dati e di informazioni di diversa provenienza. La relazione tra AI e Big Data è bidirezionale; da un lato l’AI ha bisogno di una grande quantità di dati da analizzare, dall’altro lato, i Big Data utilizzano tecniche di AI per estrarre valori predeterminati da tali dati. In aggiunta a ciò, bisogna dire che i Big Data hanno ancora un alto margine di errore e distorsione dei dati in ingresso, l’AI potrebbe apprendere informazioni non corrette in base alle quali poi prenderebbe decisioni non corrette, e il tutto rischierebbe di generare un circolo vizioso di operazioni di trattamento dati auto generate ed errate. Ad ogni modo, una prima e soddisfacente risposta a questo problema è stata fornita appunto dal GDPR di cui sopra, grazie al quale, si auspica, sarà possibile sviluppare sistemi di intelligenza artificiale, rispondenti a tali principi e quindi, non comportino rischi per la privacy degli individui. 4. L’intelligenza Artificiale ed il suo impatto pratico Prima di procedere alla trattazione sull’impatto dell’IA in campo giuridico, è bene accennare — in via puramente generale e senza presunzione di alcuna esaustività — il tema dell’impatto che l’IA ha avuto sino ad oggi ed avrà nel prossimo futuro sulla società e sul mondo del lavoro. 4.1 L’avvento dell’IA sta velocemente cancellando o trasformando quasi tutti i lavori in cui l’uomo si è rivelato, oltre che sostituibile, decisamente più lento dei « programmi intelligenti», da un lato riducendo i posti di lavoro, ma dall’altro creando « nuove professionalità » con competenze specifiche per gestire i pro- grammi di IA. L’IA non ha eliminato i mestieri, ma ha sostituito e sostituirà le competenze richieste dal mercato. Un recente studio del World Economic Forum ha stimato che nei prossimi cinque anni 75 milioni di addetti saranno sostituiti da macchine, ma che nello stesso periodo proprio quelle macchine dovrebbero rendere necessari 133 milioni di nuovi occupati. Ciò in quanto la domanda di mercato non richiede più forza lavoro, ma specifiche competenze per utilizzare al meglio le automazioni in grado di garantire, in minor tempo e con un minor costo, la medesima prestazione che sarebbe stata resa dalla quella stessa forza lavoro. L’impatto dell’IA ci obbliga ad una rimeditazione della storica bipartizione blue collar e white collar, operata su base di rilevanza sociale. Per la IA, infatti, i blue collar si identificano con i lavori — connaturati da più o meno alta professionalizzazione — che richiedono una manipolazione fisica, ricomprendendo al suo interno anche professionalità proprie della categoria dei gold collar (per es. i chirurghi). Ai fini dell’applicazione dell’IA la distinzione tra un chirurgo e un orologiaio potrebbe non essere così evidente, nonostante la separazione sociale tra le due professioni. Al contrario, per quanto possa sembrare assurdo, sono i white collar quelli più minacciati dai programmi di IA. Per il resto, è necessario avviare un processo formativo ben studiato, che consenta la migliore conversione dei lavoratori all’interno delle aziende. In questo percorso sarà fondamentale la collaborazione di tutte le parti sociali e, se la contrattazione collettiva (la più adatta ad adottare soluzioni innovative alle mutevoli realtà della nuova economia e dei nuovi lavori) non cederà alla tentazione di arroccarsi su posizioni ormai obsolete, ma avrà il coraggio di sperimentare formule nuove, allora un quadro di regole certe e condivise in tutti i settori (magari con l’aiuto delle blockchain) potrebbe fare da cornice per il sicuro ed utile superamento della quarta rivoluzione industriale. 4.2 Sulla Società La riduzione dei posti di lavoro ed il contemporaneo incremento delle professionalità richieste, conseguenti all’implementazione delle tecnologie di IA pone un evidente problema sociale: un aumento di produttività a cui fa da contraltare una sempre maggiore diffusione della povertà. Tale antinomia può essere giustificata dal fatto che l’avvento delle IA sta velocemente trasformando l’economia da sistema incentrato sul lavoro a sistema incentrato sul capitale. La sostituzione delle competenze richieste dal mercato è così rapida che nell’arco di un ventennio si assisterà alla nascita ed alla morte di specifici lavori strettamente connessi all’evoluzione informatica. La società potrebbe non avere il tempo materiale per adeguarsi al progresso tecnologico, aumentando notevolmente il rischio di disoccupazione complessiva per rapida obsolescenza delle competenze. Noi da inguaribili ottimisti, riteniamo che, se opportunamente indirizzata l’energia dello sviluppo e se adeguatamente individuati i perimetri entro i quali la tecnologia potrà muoversi nel mercato, il futuro potrà riservarci delle sorprese positive.
Intelligenza artificiale ed etica dell'algoritmo / Crisci, Stefano. - In: IL FORO AMMINISTRATIVO. - ISSN 2284-2799. - (2018).
Intelligenza artificiale ed etica dell'algoritmo
Crisci, Stefano
2018
Abstract
1. La nuova frontiera delle società «intelligenti» - Premesse Delineare il perimetro effettivo del fenomeno dell’Intelligenza Artificiale (d’ora in avanti indifferentemente IA — Intelligenza Artificiale o AI — Artificial Intelligence), per quanto ad oggi possibile, ed apprezzarne i vantaggi e le potenzialità, così come individuarne le criticità, non è impresa facile. Tenterò in questo breve scritto, di fornire un contributo interpretativo dello stato attuale del fenomeno e, se possibile, di tracciare le linee di una sua regolazione eterointrodotta o, addirittura, endoprocedimentalizzata, all’interno della produzione algoritmica che governerà l’agere di questa nuova, affascinante scommessa. L’intelligenza è sì anche, la capacità di integrare le informazioni del mondo mutevole che ci circonda, elaborarle e concretizzarle in azioni e movimenti, grazie alla comunicazione degli stimoli e delle informazioni; se ciò è vero, la capacità di una macchina di mettere in correlazione fra loro grandi quantità di informazioni e dati, elaborarli secondo una determinata formula preconfezionata (l’algoritmo) e dare il risultato previsto e richiesto, può dirsi essere simile all’intelligenza umana. Tuttavia, nonostante la capacità delle macchine di imparare da se stesse, attraverso il c.d. machine learning, o addirittura di elaborare nuovi percorsi di apprendimento con il c.d. « deep learning », alle stesse manca la capacità, tutta umana, di valutazione delle molteplici variabili impreviste o imprevedibili: il cosiddetto discernimento. Ciò che occorre fare, medio tempore, è conoscere e regolare i vari fenomeni; a fortiori e principaliter quello dell’algoritmo, al fine di tutelare il consumatore ed evitare, per quanto possibile, ogni deriva commerciale che usi il flusso dei dati in corso, a fini eminentemente speculativi e, nel contempo, consenta una competitività responsabile. Torna qui il tema eterno della libertà di iniziativa economica privata di cui all’art. 41 della nostra Costituzione, vis à vis, la necessità di individuare la giusta regolazione per la salvaguardia dei diritti inviolabili dell’uomo. L’Agenda digitale europea ha imposto delle scadenze ben precise; il GDPR ha imposto date stringenti; è già oggi necessario incasellare una serie di responsabilità potenziali e numerosi alert, per far sì che la difesa della privacy sia, anche, difesa della dignità umana, tutela del consumatore e rispetto dei diritti fondamentali. Tuttavia, forse, occorre osservare che nel mondo 4.0 e 5.0, la disponibilità dei dati come contributo al bene comune è universalmente inteso quale bene della vita. È infatti, fondamentale, tenere presente che i dati, se utilizzati in maniera idonea possono rappresentare un fattore di riferimento esponenziale per la ricerca in tutti i campi. Ciò posto, ritengo che, lo sviluppo dell’Intelligenza Artificiale sia un bene per la società e che porterà ad uno stravolgimento del sistema facendo saltare tutti i paradigmi cui eravamo abituati, ma se noi saremo ancora dotati di intelligenza e me lo auguro, sapremo sfruttare al meglio questa nuova opportunità. 2. Intelligenza Artificiale e sistemi neurali complessi Negli ultimi anni, il mondo sta investendo nello studio e nell’applicazione dell’AI, tuttavia, ad oggi, non esiste una disciplina normativa che dia dei parametri certi di riferimento in merito a tutte le implicazioni che tale attività può produrre. Come detto, i sistemi neurali complessi e gli algoritmi sono in grado di far « imparare » le macchine, nel senso di affinare le tecniche di ricerca e di risoluzione di problemi rispetto agli obiettivi dati, attraverso un sofisticato sistema di correlazione dei famosi big data, che sono una fonte quasi inesauribile di informazioni sulle persone di ogni età, sesso e nazionalità. È quindi fondamentale che l’algoritmo sia progettato correttamente, o che vi sia un controllo su di esso. Come sappiamo, già Isaac Asimov, nel racconto « Circolo vizioso » del 1942 aveva teorizzato quelle che vengono definite « Le 3 leggi della robotica », al fine di facilitare una futura convivenza tra uomo e macchina: 1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. 2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge. 3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.» Ciò che qui occorre sottolineare, è che le 3 leggi della robotica di cui sopra, sono rimaste, almeno per ora, su un piano meramente teorico, non trovando alcuna concreta applicazione nella realtà. Inoltre, a parere di chi scrive, queste leggi, per molti versi sono state superate nei fatti e andrebbero riviste e aggiornate alla luce dei nuovi principi etici e morali che si sono venuti a sviluppare sino ad oggi. Riflessione di non poco conto se pensiamo che due robot, recentemente messi a confronto, hanno iniziato a dialogare tra loro in inglese e, dopo qualche ora, parlavano in una lingua non più comprensibile; l’esperimento è stato interrotto, con la motivazione di “guasto di programmazione”ma la cosa ha lasciato non pochi dubbi circa le reali implicazioni di una robotica dotata di IA senza controllo. 3. Intelligenza Artificiale e progettazione algoritmica 3.1 Tenuto conto delle potenzialità dell’AI, oggi moltissime imprese in tutto il mondo si stanno concentrando nello studio di algoritmi necessari per il suo sviluppo. Nel 2015 Google ha introdotto nel suo motore di ricerca l’algoritmo RankBrain basato su un approccio in grado di imparare dall’esperienza, cioè di identificare patterns tra ricerche complesse apparentemente non correlate e capire che, in realtà, esse sono molto simili tra loro. Questo approccio ha permesso a Google di rispondere in modo più pertinente a quel 15% di ricerche (450 milioni su 3 miliardi giornalieri) che contengono sequenze di parole mai digitate prima da nessun utente. Allora, il tema non è, solo, come potrebbe sembrare facile sostenere, rendere meno disponibili i nostri dati in nome della privacy, ma, eminentemente, determinare il perimetro del loro utilizzo. È evidente, quindi, che uno dei problemi più importanti da risolvere, dato il continuo e crescente sviluppo e utilizzo dell’AI, è la necessità di fare in modo che le applicazioni di intelligenza artificiale rispondano a criteri etici accettabili. Ciò premesso, non sembra qui azzardato sostenere che, alla luce dei condivisi valori etici, proprio i paesi Europei potrebbero cimentarsi nella scrittura di queste « linee guida » su come deve essere progettato l’algoritmo. Questa è un’opportunità che l’Italia, e l’Europa in generale, deve necessariamente cogliere; disegnare l’algoritmo che governerà la futura AI, o i requisiti che questo dovrà avere, per essere legittimamente introdotto in beni e servizi, ed effettuare un continuo controllo etico dello stesso, significherebbe, non solo esportare i valori e la cultura del nostro Continente nel resto del mondo, ma principalmente e soprattutto, acquisire ed accrescere in maniera significativa il ruolo dell’Europa nel mondo. Questa mia riflessione ha trovato riscontro, sia nella comunicazione della Commissione del 7.12.2018, che espone un piano coordinato sull’intelligenza artificiale (24) sia con la prima bozza resa nota dalla Commissione Europea di linee guida etiche sull’AI; guida predisposta dall’High Level Expert Group on Artificial Intelligence, che comprende ben 52 esperti da tutte le parti del mondo (di cui 2italiani). È evidente che l’AI non è solo un obiettivo di grande interesse economico, ma può anche essere uno strumento di dominio. Non è un caso, infatti, che i maggiori investimenti in intelligenza artificiale sono quelli dei due grandi giganti del ventunesimo secolo, Stati Uniti e Cina, con un probabile vantaggio dei cinesi in termini di fondi investiti. Alla luce della velocità con cui l’AI si sta evolvendo, forse una delle iniziative da mettere in campo in Europa, e sicuramente in Italia, è quella di preparare le future generazioni, non solo all’utilizzo degli strumenti che in parte già esistono e funzionano con l’intelligenza artificiale, ma anche allo studio delle tecnologie che possono portare a disegnare gli algoritmi regolatori della stessa AI. 3.2 Ciò premesso, un tema di fondamentale importanza e strettamente connesso all’Intelligenza Artificiale come detto, è quello della tutela della privacy, e quindi della tutela dei dati personali, tenuto conto della circostanza che la fame di dati e di consensi alla condivisione degli stessi è altissima, non solo per fini commerciali, ma anche per lo sviluppo stesso dell’intelligenza artificiale. Per cercare di trovare delle risposte si potrebbe partire proprio dal GDPR, le cui disposizioni sono divenute definitivamente applicabili in tutti i Paesi membri dell’Unione Europea il 25 maggio 2018 e in Italia con il Decreto Legislativo n. 101 del 10 agosto 2018. Nel Decreto si stabilisce tra l’altro, che gli individui hanno il diritto di non essere oggetto di una decisione basata esclusivamente su un trattamento automatizzato, ad eccezione dei casi in cui questa sia imposta dalla legge, derivi da un obbligo contrattuale o sia giustificata dal consenso esplicito del soggetto. 3.3 Un altro principio fondamentale ai fini della tutela dei dati personali del singolo da eventuali future aggressioni da parte dell’AI è quello, in base al quale è necessario raccogliere presso l’interessato, da parte del titolare del trattamento, un consenso informato circa il trattamento dei dati stessi. Una delle principali fonti di elaborazione per l’intelligenza artificiale siano i Big Data Analytics, cioè la combinazione di enormi volumi di dati e di informazioni di diversa provenienza. La relazione tra AI e Big Data è bidirezionale; da un lato l’AI ha bisogno di una grande quantità di dati da analizzare, dall’altro lato, i Big Data utilizzano tecniche di AI per estrarre valori predeterminati da tali dati. In aggiunta a ciò, bisogna dire che i Big Data hanno ancora un alto margine di errore e distorsione dei dati in ingresso, l’AI potrebbe apprendere informazioni non corrette in base alle quali poi prenderebbe decisioni non corrette, e il tutto rischierebbe di generare un circolo vizioso di operazioni di trattamento dati auto generate ed errate. Ad ogni modo, una prima e soddisfacente risposta a questo problema è stata fornita appunto dal GDPR di cui sopra, grazie al quale, si auspica, sarà possibile sviluppare sistemi di intelligenza artificiale, rispondenti a tali principi e quindi, non comportino rischi per la privacy degli individui. 4. L’intelligenza Artificiale ed il suo impatto pratico Prima di procedere alla trattazione sull’impatto dell’IA in campo giuridico, è bene accennare — in via puramente generale e senza presunzione di alcuna esaustività — il tema dell’impatto che l’IA ha avuto sino ad oggi ed avrà nel prossimo futuro sulla società e sul mondo del lavoro. 4.1 L’avvento dell’IA sta velocemente cancellando o trasformando quasi tutti i lavori in cui l’uomo si è rivelato, oltre che sostituibile, decisamente più lento dei « programmi intelligenti», da un lato riducendo i posti di lavoro, ma dall’altro creando « nuove professionalità » con competenze specifiche per gestire i pro- grammi di IA. L’IA non ha eliminato i mestieri, ma ha sostituito e sostituirà le competenze richieste dal mercato. Un recente studio del World Economic Forum ha stimato che nei prossimi cinque anni 75 milioni di addetti saranno sostituiti da macchine, ma che nello stesso periodo proprio quelle macchine dovrebbero rendere necessari 133 milioni di nuovi occupati. Ciò in quanto la domanda di mercato non richiede più forza lavoro, ma specifiche competenze per utilizzare al meglio le automazioni in grado di garantire, in minor tempo e con un minor costo, la medesima prestazione che sarebbe stata resa dalla quella stessa forza lavoro. L’impatto dell’IA ci obbliga ad una rimeditazione della storica bipartizione blue collar e white collar, operata su base di rilevanza sociale. Per la IA, infatti, i blue collar si identificano con i lavori — connaturati da più o meno alta professionalizzazione — che richiedono una manipolazione fisica, ricomprendendo al suo interno anche professionalità proprie della categoria dei gold collar (per es. i chirurghi). Ai fini dell’applicazione dell’IA la distinzione tra un chirurgo e un orologiaio potrebbe non essere così evidente, nonostante la separazione sociale tra le due professioni. Al contrario, per quanto possa sembrare assurdo, sono i white collar quelli più minacciati dai programmi di IA. Per il resto, è necessario avviare un processo formativo ben studiato, che consenta la migliore conversione dei lavoratori all’interno delle aziende. In questo percorso sarà fondamentale la collaborazione di tutte le parti sociali e, se la contrattazione collettiva (la più adatta ad adottare soluzioni innovative alle mutevoli realtà della nuova economia e dei nuovi lavori) non cederà alla tentazione di arroccarsi su posizioni ormai obsolete, ma avrà il coraggio di sperimentare formule nuove, allora un quadro di regole certe e condivise in tutti i settori (magari con l’aiuto delle blockchain) potrebbe fare da cornice per il sicuro ed utile superamento della quarta rivoluzione industriale. 4.2 Sulla Società La riduzione dei posti di lavoro ed il contemporaneo incremento delle professionalità richieste, conseguenti all’implementazione delle tecnologie di IA pone un evidente problema sociale: un aumento di produttività a cui fa da contraltare una sempre maggiore diffusione della povertà. Tale antinomia può essere giustificata dal fatto che l’avvento delle IA sta velocemente trasformando l’economia da sistema incentrato sul lavoro a sistema incentrato sul capitale. La sostituzione delle competenze richieste dal mercato è così rapida che nell’arco di un ventennio si assisterà alla nascita ed alla morte di specifici lavori strettamente connessi all’evoluzione informatica. La società potrebbe non avere il tempo materiale per adeguarsi al progresso tecnologico, aumentando notevolmente il rischio di disoccupazione complessiva per rapida obsolescenza delle competenze. Noi da inguaribili ottimisti, riteniamo che, se opportunamente indirizzata l’energia dello sviluppo e se adeguatamente individuati i perimetri entro i quali la tecnologia potrà muoversi nel mercato, il futuro potrà riservarci delle sorprese positive.File | Dimensione | Formato | |
---|---|---|---|
Crisci_Intelligenza_2018.pdf
solo gestori archivio
Note: http://www.dejure.it
Tipologia:
Versione editoriale (versione pubblicata con il layout dell'editore)
Licenza:
Tutti i diritti riservati (All rights reserved)
Dimensione
265.99 kB
Formato
Adobe PDF
|
265.99 kB | Adobe PDF | Contatta l'autore |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.