ISSN 1123-5055
ISSN 1123-5055
Pubblicazione trimestrale
Anno XXXVIII
4/2022
Contratto e impresa
Dialoghi con la giurisprudenza civile e commerciale
RIVISTA FONDATA DA ▇▇▇▇▇▇▇▇▇ ▇▇▇▇▇▇▇
Tariffa R.O.C Poste Italiane s.p.a.- Sped. in abb. post. - D.L. 353/2003 (conv. in L. 27/02/2004 n°46) art. I, comma I, DCB Milano
• La responsabilità civile nel dialogo fra le Corti
• Digital Services Act e nuovo regime di esenzione da responsabilità
per gli intermediari
• Obbligazioni e contratti
Il domicilio digitale
Natura e disciplina delle obbligazioni
in tema di privacy by design e by default
Il donation-based crowdfunding
I pre-commercial procurement contracts
• Impresa e società
Le SSUU sulla validità delle fideiussioni rilasciate da Società di garanzia collettiva dei fidi
In house providing e attuazione del PNRR
▇▇▇▇▇▇▇▇▇▇▇▇▇▇▇▇▇▇▇▇.▇▇▇/▇▇
▇▇▇▇▇▇▇ ▇▇▇▇▇▇▇
ALGOCRAZIA E SISTEMA DEMOCRATICO. ALLA RICERCA DI UNA MITE SOLUZIONE ANTROPOCENTRICA
SOMMARIO: 1. ffxcusatio: perche´ e` urgente discutere di A.I. – 2. Definizioni di A.I. – 3. Al cospetto della tecnica tra necessita` e apparente neutralita`: ibridazione dei saperi e translinguismo in tempo di crisi. – 4. L’irresistibile ascesa dell’A.I. Il social credit system cinese: prove tecniche di algo (oligo)crazia? – 5. Una “persona” in cerca di autore: l’A.I. tra sviste, omissioni e bias. – 6. Alla ricerca di un’A.I. costituzionalmente orien- tata. – 7. Law is code? come regolamentare i sistemi di A.I.? – 8. La risposta regola- toria: verso un gold standard europeo? – 9. Carta etica europea sull’utilizzo dell’intel- ligenza nei sistemi giudiziari. – 10. La proposta di regolamento UE sull’approccio europeo all’intelligenza artificiale.
1. – ▇▇▇▇ ▇▇▇▇▇▇ ▇▇▇▇▇▇▇ ▇▇▇ affermava che “Il computer non e` una macchina intelligente che aiuta le persone stupide, anzi e` una macchina stupida che funziona solo nelle mani delle persone intelligenti” (1) Oggi e` arrivato il momento di chiedersi: e` ancora cosı`? Una pluralita` di conside- razioni chiamano il ceto dei giuristi a volgere l’attenzione alle questioni di principio e sistematiche che l’avvento dell’AI pone al diritto e alla giuri- sdizione. Primo fra tutti, il rilievo e l’impatto costituzionale che l’adozione di sistemi di intelligenza artificiale determina sul sistema democratico, i diritti e le liberta` della persona (e, del suo precipitato costituzionale co- stituito dal sistema delle tutele giurisdizionali) (2). A maggior ragione una
(1) Una frase attribuita a ▇▇▇▇▇▇▇, neuropsicologo linguistico, ci ricorda che i computer danno esattamente quello che gli e` stato immesso; se futilita` immettiamo, futilita` otterremo, ma gli uomini non sono molto diversi.
(2) D’▇▇▇▇▇, Il diritto verso “il mondo nuovo”. Le sfide dell’Intelligenza Artificiale, in BioLaw Journal – Rivista di BioDiritto, 2019, 1: «Responsabilita`, giustizia, salute, lavoro, privacy, decisione autonoma, sono solo alcuni dei punti di ricaduta sul diritto come espe- rienza (e tecnica di regolazione) sociale di questa complessa categoria dell’evoluzione tec- nologica. Come si puo` vedere, si tratta di assets fondamentali del discorso giuridico; in questo senso, si e` aperto ormai un campo di lavoro straordinariamente affascinante, in larga parte ancora da costruire e da esplorare, sullo sfondo del quale si colgono sfide etiche e sociali davvero molto intense e al tempo stesso incerte nell’esito, a maggior ragione se proviamo ad incrociare lo sviluppo di AI systems con altri temi anch’essi in forte movimento e certamente interconnessi, come biotecnologie, nanotecnologie, neuroscienze. L’interesse
Contratto e impresa 4/2022
riflessione si impone ove si consideri che il ricorso sistemi di AI al settore giustizia e` previsto dal PNRR e dal piano straordinario di finanziamenti per la ricerca adottato del Ministero di Giustizia nell’ambito del PON Governance (3). Va, poi, considerato che la pervasivita` dei sistemi di intel- ligenza artificiali (e il ricorso, sempre piu` frequente, ad algoritmi con finalita` decisorie e non solo di mera funzionalita` conoscitiva) determina sempre piu` contenzioso che ha assunto una maggiore consistenza sul versante della giustizia amministrativa in considerazione del ricorso a si- stemi algoritmici nel diritto amministrativo per l’attivita` di natura sia vin- colata che discrezionale (si pensi al contenzioso amministrativo conseguen- te all’adozione dell’algoritmo della c.d. Buona scuola di assegnazione della sede scolastica previsto dalla l. n. 107 del 2015) (4). Infine, occorre se- gnalare che, recentemente, il Governo, unitamente al Ministero dello Svi- luppo Economico, dell’Universita` e della Ricerca e per l’innovazione tec- nologica e la Transizione Digitale, ha pubblicato sul proprio sito istituzio- nale – lo scorso 24 novembre – il Programma Strategico per l’Intelligenza Artificiale (I.A) 2022-2024 (5), il cui scopo e` rafforzare le competenze nel settore dell’I.A, aumentare i finanziamenti per la ricerca avanzata e incen- tivare l’utilizzo dell’I.A in tutti i settori socio-economici. Sei gli obiettivi individuati all’interno del piano e concernenti il rafforzamento della ricer- ca di frontiera nell’I.A., al fine di incentivare un approccio multidiscipli- nare tra la ricerca e le politiche industriali; la riduzione della frammenta- zione nella ricerca sull’I.A. attraverso la promozione di collaborazioni di rete; lo sviluppo e l’adozione di un’I.A. antropocentrica e affidabile per la progettazione di sistemi intelligenti conformi alle norme in vigore; la cre- scita dell’innovazione basata sull’I.A. e lo sviluppo delle tecnologie di I.A. facendo ricorso a sistema di promozione industriale anche per le PMI; lo sviluppo di politiche e servizi basati sull’I.A. nel settore pubblico; la pro- mozione dell’I.A. in tutti i settori dell’innovazione con lo scopo di incen-
del diritto per l’AI trova allora una giustificazione quasi “naturale”, intrinseca. Il diritto e`, in una prospettiva realista, un prodotto di forze sociali, il riflesso di esigenze e problemi della vita sociale contemporanea; l’AI e` ormai, e sempre piu` lo sara`, un elemento essenziale nella vita delle persone, nel sistema di relazioni sociali, che e` proprio cio` che il diritto e` chiamato a mediare con le sue regole e le sue risorse».
(3) «Progetto unitario su diffusione dell’Ufficio del Processo e per l’implementazione di modelli operativi innovativi negli Uffici giudiziari per lo smaltimento dell’arretrato», reperi- bile sul sito Pon Governance 2014/2020 ▇▇▇▇://▇▇▇.▇▇▇▇▇▇▇▇▇▇▇▇▇▇▇▇▇.▇▇▇.▇▇/▇▇/▇▇▇▇▇▇▇- nita/ministero-della-giustizia-progetto-unitario-su-diffusione-dellufficio-del-processo-e-per-lim- plementazione-di-modelli-operativi-innovativi-negli-uffici-giudiziari-per-lo-smaltimento/.
(4) Cons. Stato, sez. VI, sent. 8 aprile 2019, n. 2270.
(5) V. ▇▇▇▇▇://▇▇▇▇▇▇.▇▇▇▇▇▇▇▇▇▇▇.▇▇▇.▇▇/▇▇▇▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇▇▇-▇▇▇▇▇.▇▇▇.
tivare l’operato dei ricercatori della materia. Sono stati, inoltre, previsti cinque principi guida del programma strategico che si sostanziano nella coordinazione a livello europeo, nella visione del Paese quale polo globale di ricerca e innovazione dell’I.A., in un’ottica antropocentrica, affidabile e sostenibile, con l’investimento in aziende leader nella ricerca, nello svilup- po e nell’innovazione di I.A.; infine le Pubbliche Amministrazioni Italiane governeranno l’I.A. con l’I.A, nel senso che «il governo si e` impegnato a governare l’intelligenza artificiale per attenuarne i potenziali rischi, con particolare riferimento alla salvaguardia dei diritti umani e a un’IA che rispetti i principi etici fondanti della Repubblica. D’altra parte, il governo migliorera` i propri processi interni e le politiche grazie ad un uso respon- sabile dei dati e della tecnologia I.A.» (6).
2. – La definizione di AI piu` sintetica, ma icastica ci parla di macchine che «replicano il risultato del pensiero umano senza replicare il pensiero» (7); sostituzione ancor piu` significativa nei sistemi di machine learning – sottoinsieme dell’AI – capace di operare tramite algoritmi in grado di migliorare autonomamente le proprie prestazioni sulla base di informazio- ni date, che consentono di passare dal cosiddetto knowledge-driven ML (dove l’apprendimento e` basato sulla conoscenza, ovvero su un set di istruzioni) al data-driven ML, ovvero un insieme di tecniche statistiche in grado di individuare modelli significativi (pattern) in opportune masse di dati. Siamo di fronte ad una parola contenitore, un umbrella term, che include una varieta` di tecniche computazionali di tipo algoritmico dedicate a migliorare l’abilita` delle macchine nel fare cose che richiedono intelli- genza: macchine che trascendono la dimensione meramente esecutiva es- sendo in grado di apprendere attraverso l’esperienza e la comparazione di enormi masse di dati nonche´, grazie all’interazione con l’essere umano, di adeguare il loro comportamento all’ambiente in cui operano e di reagire a situazioni prospettando anche soluzioni ovvero prendendo anche decisio- ni. Senza dubbio il tentativo piu` significativo di applicare l’Intelligenza artificiale al mondo del diritto negli ultimi anni e` quello del ricorso ai sistemi di Machine learning, nel qual caso il sistema informatico impara senza una programmazione ex ante, mediante l’identificazione di schemi e
(6) BUCCA e PINCI, IA e giustizia: tutto sulle leggi italiane ed europee, in Agenda Digitale, consultabile all’url ▇▇▇▇▇://▇▇▇.▇▇▇▇▇▇▇▇▇▇▇▇▇▇.▇▇/▇▇▇▇▇▇▇▇▇/▇▇▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇/▇▇-▇-▇▇▇▇▇▇▇▇▇- cosa-dicono-le-leggi-europee-e-nazionali/.
(7) ▇▇▇▇, A Brutal Intelligence: AI, Chess, and the Human Mind, Los Angeles, 2017,
▇▇▇▇▇://▇▇▇▇▇▇▇▇▇▇▇▇▇▇▇.▇▇▇/▇▇▇▇▇▇▇/▇-▇▇▇▇▇▇-▇▇▇▇▇▇▇▇▇▇▇▇-▇▇-▇▇▇▇▇-▇▇▇-▇▇▇-▇▇▇▇▇-▇▇▇▇.
correlazioni all’interno di un grande volume di dati evitando quindi la trasformazione delle regole giuridiche in norme logiche. Parimenti, anche secondo una logica combinatoria con il M.L., si assiste al ricorso a tecniche di Natural Language Processing (NLP) finalizzate alla comprensione del linguaggio naturale, scritto o parlato, emulando la capacita` umana median- te l’utilizzo di algoritmi; emulazione che consente alla macchina di appro- priarsi di un linguaggio dal significato delle parole, alla appropriatezza d’uso rispetto ad un contesto, noncheı` regole di esposizione e struttura stilistica.
L’elemento piu` innovativo risiede, certamente, nel fatto che il funziona- mento dei sistemi algoritmici piu` avanzati di M.L. – organizzati sulla base di reti neurali che replicano il funzionamento del cervello umano – si basa su un approccio statistico (e non gia` logico-deduttivo): l’algoritmo opera sulla base di mere correlazioni statistiche di confronto di dati (e non gia` sulla base di relazioni causali): proprio tale caratteristica determina l’estrema difficolta`, se non l’impossibilita` di identificare il ragionamento sotteso ad una decisione automatizzata, ponendosi quindi la questione della cosiddetta trasparenza algoritmica. Come rilevato, in particolare nei sistemi di ML (ma si pensi, soprattutto, al Deep Learning ad apprendimento automatico) (8), l’uso di algoritmi non deterministici comporta che non e` possibile comprendere, recte, ricostruire ex post all’output algoritmico “l’iter logico” seguito dalla macchina per raggiungere l’obiettivo assegnato, operando il sistema sulla base di un complesso data set navigato in modo autonomo dal software stesso sulla base di inferenze, induzioni e correlazioni/regolarita` di natura statistica e non (cd. fenomeno della black box) (9).
(8) ABRIANI, Diritto delle imprese e intelligenza artificiale. Dalla Fintech alla Corptech, Bologna, 2021 rileva come «la peculiarita` di questa tipologia di algoritmi e quindi rappre- sentata dalla capacita` di apprendere in autonomia come raggiungere un dato obiettivo e di impararlo in modo sempre piu` efficiente con il passare del tempo. Questa caratteristica segna un cambio di rotta rispetto alle tecnologie non basate su tecniche di machine learning, ossia tradizionalmente operanti con un approccio logico deduttivo. Secondo quest’ultimo approccio alla macchina viene preventivamente insegnato il criterio in base al quale operare e svolgere il compito segnato (…) al contrario la tecnica di apprendimento automatico consente agli algoritmi di individuare il parametro dirimente al fine dell’assolvimento del compito secondo un approccio statistico (…) la principale caratteristica del machine lear- ning va individuata nella capacita` della macchina di qualificare autonomamente informazio- ni non ricomprese nel set di training iniziale e inserite nel sistema successivamente» sicche´
«(…) siamo di fronte a macchine che trascendono la dimensione esecutiva essendo in grado di apprendere attraverso l’esperienza e l’interazione di adeguare il loro comportamento all’ambiente in cui operano e di agire in contesti – e reagire a situazioni – diverse ulteriori rispetto a quelle per le quali erano state programmate».
(9) Per “black box” si intende il massimo livello di opacita` che contraddistingue alcuni
L’approccio antroprocentrico europeo ha gia` offerto varie definizioni, via via sempre piu` centrate e analitiche: la definizione contenuta nella Comunicazione Artificial Intelligence for ffurope del 25 aprile 2018 [COM (2018) 237 final] – «l’intelligenza artificiale (IA) indica sistemi che mostrano un comportamento intelligente analizzando il proprio am- biente e compiendo azioni, con un certo grado di autonomia, per raggiun- ▇▇▇▇ specifici obiettivi. I sistemi basati sull’IA possono consistere solo in software che agiscono nel mondo virtuale (ad esempio, assistenti vocali, software per l’analisi delle immagini, motori di ricerca, sistemi di ricono- scimento vocale e facciale), oppure incorporare l’IA in dispositivi hardwa- re (ad esempio, in robot avanzati, auto a guida autonoma, droni o appli- cazioni dell’Internet delle Cose)» – e quella contenuta nella «Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari»
(10) adottata nel dicembre 2018 dalla CEPEJ – insieme di metodi scienti- fici, teorie e tecniche finalizzate a riprodurre mediante le macchine le capacita` cognitive degli esseri umani – hanno tracciato la strada per la definizione offerta dalla recente Proposta di regolamento europeo (11): l’ffxplanatory Memorandum a corredo della Proposta all’art. 3 par. 1 afferma che, ai fini del Regolamento, per sistema di intelligenza artificiale (o sistema IA) si intende «un software sviluppato con una tecnica o un approccio tra quelli elencati nell’Allegato I, a loro volta individuati in approcci di machine learning (o “ML”), tra cui il supervised, l’unsupervised e il reinforcement learning, che applicano vari metodi, e.g. il deep learning (o “DL”); approcci
c.d. knowledge-based o logic-based, come le rappresentazioni, la program- mazione induttiva e i sistemi esperti; nonche´ approcci statistici, valutazioni bayesiane e metodi di ricerca e ottimizzazione».
Quanto sin qui osservato, non puo` non tenere conto dell’acuta osser- vazione di parte della dottrina in ordine alla non appropriatezza della terminologia prescelta con la locuzione “intelligenza artificiale”, per la quale si sarebbe dinanzi a un evidente ossimoro, nella misura in cui si attribuisce all’artificiale qualcosa che essenzialmente naturale in quanto e`
sistemi di I.A., tale da rendere imperscrutabili, anche agli occhi degli stessi programmatori e sviluppatori, il loro meccanismo di funzionamento e il percorso seguito nella elaborazione degli input (dati) per arrivare ai risultati.
(10) ▇▇▇▇▇://▇▇.▇▇▇.▇▇▇/▇▇▇▇▇-▇▇▇▇▇-▇▇▇▇▇▇▇-▇▇▇▇-▇▇▇▇▇▇▇▇-▇▇▇▇-▇▇▇▇▇▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇▇▇▇-▇▇▇-▇▇/ 1ł80993348.
(11) La Commissione europea ha pubblicato il 21 aprile 2021 la proposta di regola- mento sull’approccio europeo all’Intelligenza Artificiale [COM(2021) 206 final], intitolato
«il regolamento del Parlamento europeo e del Consiglio che stabilisce norme armonizzate in materia di intelligenza artificiale e che modifica alcuni atti legislativi dell’Unione».
la prerogativa piu` gelosa della natura umana: l’intelligenza (12). Non ap- propriatezza lessicale da vigilare, siccome potenzialmente produttiva di errori di prospettiva e di un approccio analitico non corretto alla natura e dimensioni delle questioni (13).
3. – La diversita` linguistica e` ricchezza di sfumature e contenuti che l’omologazione nega e distrugge. Oggi non basta piu` un approccio multi- linguistico che si accontenta solo di una convivenza formale di lessici paralleli ispirati a corporativismi e specialismi. La complessita` dei problemi e la natura sistemica delle soluzioni richiede, anzi impone, di non accon- tentarsi e omologarsi ad un grigio e rassicurante monolinguismo (14). Oggi piu` che mai si deve chiedere agli operatori di giustizia di essere poliglotti
— ovvero, quanto meno, di sapere e volere ascoltare e ordinare con mitezza (15) la babele delle lingue che gravitano sulla giustizia italiana
— di aprirsi cosı` al dialogo con le altre discipline specialistiche e incam- minarsi insieme con esse lungo un percorso che valorizzi tutte le cono- scenze—economiche, giuridiche, organizzative e informatiche — rilevanti per garantire la funzionalita`, la qualita` e l’efficienza del servizio giudiziario e l’efficacia della giurisdizione. La speranza e` che gli anni a venire, in un tempo di crisi strutturale quale questo e`, consentano a ciascuno, portatore di una propria cultura e idioma, di avventurarsi verso un translinguismo che abbandoni i vicoli muti delle difese corporative e autoreferenziali, che accetti l’ibridazione delle competenze, che accompagni per mano la tecni- ca al cospetto dell’Etica e della Giustizia per fondersi, infine, in un comu- ne lessico familiare (16).
(12) In termini v. DI ROSA, Quali regole per i sistemi automatizzati intelligenti?, in Riv. dir. civ., 2021, 5, che ▇▇▇▇▇▇▇▇ ▇▇▇▇▇, Intelligenza artificiale, in Dizionario interdisciplinare di scienza e fede, 1, a cura di ▇. ▇▇▇▇▇▇▇▇, ▇▇▇▇▇ e Strumia, Roma, 2002.
(13) ▇▇▇▇▇, Tecnologie digitali, persona e istituzioni, in Riv. dir. civ., 2020, 6, per il quale
«intelligenza artificiale, ad esempio virgola non impiega affatto gli stessi processi logici utilizzati dalla mente umana», sicche´ va sempre rimarcato «lo scarto tra persone e tecnologie digitali (…) per una questione di irriproducibili ita il laboratorio di alcune peculiarita` fisiche e fisiologiche proprie del ragionare e dell’agire umano».
(14) ▇▇▇▇▇▇▇▇, Litiganti, avvocati, magistrati: diritto e economia nel processo civile, Bologna 2003, p. 7, parla della necessita` di essere bilingue, ovvero di adoperare gli strumenti e le metodologie delle discipline giuridiche ed economiche.
(15) ▇▇▇ consentito richiamare l’elogio della mitezza, come atteggiamento dello spirito aperto al discorso comune che aspira a convincere, piu` che a vincere ZAGREBELSKI, Il cruci- fige e la democrazia, Torino, 1995, p. 120; ID., Il diritto mite, Torino 1992.
(16) ▇▇▇, Fascicoli e Tribunali: il processo civile in una prospettiva organizzativa, Bolo- gna 2003, nel richiamare l’esperienza del laboratorio bolognese per la sperimentazione del Processo Civile Telematico, rileva come il merito del gruppo vada individuato nella «con-
All’Assemblea degli Osservatori sulla Giustizia Civile, organizzata a Catania nel maggio 2012, si e` discusso lungamente della cd. efficienza insignificante, di una pericolosa deriva che sleghi la rincorsa all’efficienza della macchina giudiziaria dai fini, da contenuti di senso e di valore e finisca per rendere l’efficienza stessa un valore, diventando tecnica e stru- mento di potere della tecnica fine a se´ stessa (17). Nel momento di massi- mo richiamo della giustizia ai valori di efficacia ed efficienza si avverte l’incombente pericolo di un efficientismo dei numeri, di un piegarsi alla ragione tecnica in tempi di politica liquida (18), se non evaporata. Dob- biamo prestare massima attenzione.
In un editoriale apparso sul quotidiano Repubblica il 20 marzo 2012 il costituzionalista ▇▇▇▇▇▇▇ ▇▇▇▇▇▇▇▇, richiamando il mito di ▇▇▇▇▇▇▇▇ rac- contato nel Protagora di ▇▇▇▇▇▇▇, ha ricordato che politica e tecnica de- vono convivere e devono stare insieme senza contrapposizioni, che la polis si nutre e deriva dalla Techne che la fonda e la sostiene in un perpetuo rapporto dialettico con Dike, con la Giustizia. Interrogarsi sulla avanzata irresistibile dell’innovazione chiama, quindi, tutti a riempire di contenuti questa relazione tra tecnica, diritto e giustizia, guardando con equilibrio all’efficienza del sistema giudiziario che dalla techne non puo` prescindere e di essa si deve alimentare.
Va molto di moda richiamare le illuminanti analisi e le severe repri- mende della Banca d’Italia, dell’Isae e di Confindustria, le statistiche im- pietose di Doing Business, le griglie della CEPEJ, ma allora si deve essere consequenziali ed accettare anzi sostenere un approccio valoriale e multi- disciplinare ai problemi della giustizia italiana, chiedendo a gran voce di applicare le scienze tecniche, umane e sociali al mondo della giustizia (19), la cui complessita` e` talmente grande e si alimenta di cosı` tanti particolari-
sapevolezza che solo l’interazione tra i saperi e le culture diverse di tipo giuridico, proces- suale, informatico e organizzativo puo` pensare di affrontare il tema del cambiamento della giustizia civile con qualche speranza di successo, laddove e` storicamente evidente che interventi parziali e monodisciplinari hanno sistematicamente fallito», pp. 10 ss.
(17) PUNZI, Difettivita` e giustizia aumentata, in Algoritmi ed esperienza giuridica, Ars interpretandi, 2021, X, n. 1: «la lezione di ▇▇▇▇▇▇▇▇▇▇ e` cristallina: di fronte all’incerto destino di una societa` sempre piu` dominata dalla tecnica, il vero pericolo e` il regresso cognitivo, e` il disprezzo della ragione e della scienza; soprattutto, il venir meno della consapevolezza che la “storia” e` “il preciso riflesso di noi stessi” e che dunque spetta al consorzio umano assumersi la responsabilita` della decisione».
(18) ▇▇▇▇▇▇, Liquid Modernity, 2000; trad. it., Modernita` liquida, Roma-Bari 2002.
(19) Il riferimento e` in primo luogo alle discipline specialistiche degli studi organizza- tivi, della scienza politica e sociologia, della statistica, della linguistica e della psicologia, dell’informatica giudiziaria.
smi che richiede, giammai omologazione, ma una tendenziale uniformita` di fondo che consenta di analizzare, pianificare e decidere.
I problemi che la scienza dell’organizzazione, della statistica giudiziaria e dell’informatica giudiziaria ci pongono richiedono approcci e metodiche prima di tutto scientifici e tecnici, senza i quali qualsiasi valutazione di natura valoriale, sociale ed etica sara` fondata sulla sabbia per poi crollera` su se´ stessa.
La costruzione di un approccio sistemico moderno presuppone la consapevolezza che la tecnica, strumento di trasformazione della realta` finalizzato a determinati obiettivi, richiede consapevolezza dei fini che si intendono perseguire e vigilanza su come poi tecnicamente questi obiettivi vengono realizzati, ovvero che – di fronte al “fatto” della tecnica – non ci si arresti con una mera presa d’atto (20). La tecnica non e` un mero elemento neutro (21) e servente (22). Per il settore giudiziario, in particolar
(20) CASTORINA, Scienza, tecnica e diritto costituzionale, in Rivista A.I.C., 2015, 4: «Il punto rimane questo: se di fronte al “fatto” della tecnica, il diritto – e quello costituzionale in particolar modo – debba soltanto fermarsi a una presa d’atto. Si potra` ammettere che su molte decisioni non vi e` consenso e che persino sulla nozione e il contenuto della dignita` umana esistono concezioni diverse; si potra` dibattere se occorre di necessita` avere riguardo anche alla dimensione sovranazionale e alle esperienze di altri ordinamenti, se si vuole salvaguardare la razionalita` della disciplina positiva; ma non appare certo soddisfacente la conclusione che la tecnica sia un dato – una specie di “nuovo sovrano” – sul quale il giurista non abbia nulla da dire. Le acquisizioni della scienza e della tecnica, per il diritto costitu- zionale, dunque, rimangono un “fatto” che solo l’ordinamento giuridico – realta` sempre meno ristretta nei confini nazionali – puo` qualificare in base a “giudizi” che gettano un “ponte” tra “essere” e “dover essere”, tra la natura, come viene decifrata dalle scienze, e la prescrittivita` della regola di diritto, i cui pilastri sono i principi e i valori sui quali progredi- sce lo scenario costituzionale globale».
(21) La prima delle sei leggi di ▇▇▇▇▇▇▇▇▇ sulla tecnologia afferma che «la tecnologia non e` ne´ buona ne´ cattiva; non e` neanche neutrale»: (KRANZBERG, Technology and History: ‘ffranzberg Laws’, in Technology and Culture, vol. 27 n˚3, giugno 1986, pp. 544-560). (22) ONIDA, Scienza, Tecnica e democrazia, intervento a «Science C Democracy, Forum 2012» ricorda che «la tecnica e` creazione e utilizzazione di strumenti e di processi per “fare”, per conseguire determinati effetti di trasformazione della realta` attraverso il consa- pevole intervento umano attivo su di essa. Si basa su conoscenze, ma non e` mai solo conoscenza. La tecnica ci offre strumenti sempre piu` perfezionati per intervenire nel mondo degli uomini e delle cose, per attuare trasformazioni: (…) Poiche´ riguarda trasformazioni e non solo conoscenza della realta`, la tecnica ha sempre un suo finalismo, che riguarda la scelta dei contenuti, dei modi e delle direzioni in cui si determinano o si possono determi- nare tali trasformazioni. Essendo strumento per determinare una trasformazione dell’esi- stente, la tecnica puo` e deve essere valutata – cioe` puo` essere “buona” o meno buona – sia in rapporto al giudizio che si da` sulle trasformazioni della realta` che essa di fatto realizza in quanto usata e applicata – quelle che sono direttamente oggetto dell’intervento “tecnico” –; sia in rapporto alle trasformazioni che si determinano o potrebbero determinarsi nella realta`, per effetto delle prime, anche a distanza di tempo o in luoghi diversi da quelli in cui l’intervento ha luogo. Inoltre, per lo piu` , le “trasformazioni” della realta` che la tecnica
modo, la prassi quotidiana degli uffici e l’esperienza dei progetti di infor- matizzazione ci ha restituito l’esistenza di un nesso inscindibile che lega i processi di informatizzazione giudiziaria e di riorganizzazione dei servizi con il modo, le forme, i contenuti e i tempi dell’esercizio della funzione giurisdizionale, con l’attivita` di gestione del processo, con l’attivita` inter- pretativa del giudice: la tecnica – e l’informatica soprattutto – non e` neutra, ma presuppone una conoscenza dei dati di base, una attribuzione di significato agli stessi in relazione ai valori e agli obiettivi perseguiti, nonche´ un’opzione finale che riorganizza la realta`, scarta alcune ipotesi e alcune prospettive, dettando, recte, prescrivendo per il futuro, in modo fattualmente vincolante, le modalita` di esercizio o non esercizio di un dato potere o di una funzione e, in ultima analisi, come rendere giustizia o meno a certi diritti (23). Pensiamo all’esperienza del processo civile tele- matico: il p.c.t. e`, al contempo, diritto, organizzazione e informatica (24),
consente di realizzare sono suscettibili di essere indirizzate e utilizzate per i piu` diversi fini. Cioe` la tecnica puo` essere e di fatto spesso e` “neutrale” ma non lo e` mai lo scopo – individuale o sociale – per il quale essa viene impiegata. La realizzazione e soprattutto l’impiego delle tecniche puo` dunque essere ed e` di fatto oggetto di “politiche”, che riguar- dano non solo la promozione di strumenti sempre piu` efficaci (…). Impadronirsi di nuove tecniche, renderle piu` efficaci, impiegarle e promuoverne l’impiego su piu` o meno larga scala, e soprattutto indirizzarne l’impiego a questo o quel fine individuale o sociale sono altrettanti oggetti di scelte “politiche”, che toccano dunque la democrazia nel senso ampio che s’e` detto. In un mondo cosiffatto, la tentazione di asservire o condizionare le scelte dei fini al ruolo pervasivo delle tecniche, continuamente incrementate da un progresso scienti- fico travolgente, diviene sempre piu` presente». Prosegue, infine, richiamando la Politica alle sue responsabilita` nel senso che «Non c’e` scissione o contraddizione fra politica e tecnica. La politica, se vuole impiegare (e necessariamente lo fa) le risorse che la tecnologia mette a disposizione, non puo` ignorarne la natura e i caratteri, non puo` ignorare o negare gli effetti diretti e indiretti, e le conseguenze immediate e remote – quali gli scienziati e i tecnici sono in grado di mettere in luce – dell’impiego di esse. ▇▇▇▇, la politica deve chiedere alla scienza e alla tecnica tutto cio` che esse possono fornire in termini di conoscenza, di efficacia e di prevedibilita` degli effetti. Ma non puo` delegare ai tecnici la scelta dei fini».
(23) Cosı` chiaramente DALFINO, Decisione amministrativa robotica ed effetto performa- tivo. Un beffardo algoritmo per una “buona scuola”, Questione Giustizia, ▇▇▇▇▇://▇▇▇.▇▇▇- ▇▇▇▇▇▇▇▇▇▇▇▇▇▇▇.▇▇/▇▇▇▇▇▇▇▇/▇▇▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇-▇▇-▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇▇▇▇▇-▇▇-▇▇▇▇▇▇- do-algoritmo-per-una-buona-scuola_13-01-2020.php: “Qualsiasi decisione implica una scelta e qualsiasi scelta presuppone una selezione di valori e finalita`. Non vi e` neutralita`. La dimen- sione assiologica pervade l’azione (in senso non meramente meccanicistico). Se cio` e` vero per l’essere umano, un dubbio sorge per il robot, che, appunto, sembra decidere senza scegliere, bens`ı applicando algoritmi per la soluzione di problemi. Il dubbio, tuttavia, si fonda su una premessa tutt’altro che corretta. Neanche l’“azione” o la “decisione robotica” sono davvero neutrali. Ad operare prima e per il funzionamento della macchina vi e` sempre l’uomo, che agisce in base ad opzioni di valore e/o di interesse”.
(24) BASOLI, Sistemi, persone e tecnologie di organizzazione della conoscenza, relazione al convegno su “Il processo civile telematico e i rapporti con il mondo industriale e bancario”, Venezia, Isola di ▇. ▇▇▇▇▇▇▇▇, 25.6.2005; ZAN, Fascicoli e Tribunali: il processo civile in una
espressione di un processo culturale che investe direttamente il modo di essere, ancor prima che organizzativo, dello ius dicere (25). E` stato luci- damente rilevato come «non conoscere il sistema – informatico (n.d.a.) – che agisce il nostro prodotto e lo fa circolare vuol dire essere estromessi da quel procedimento e consentire l’erosione della regola processuale in fun- zione della gestione informatica del dato in un campo, come il nostro, dove il formalismo della regola e`, negli snodi cruciali, il solo momento di
governo possibile del processo. In altre parole che cosa dobbiamo temere massimamente? A mio giudizio questo: l’informatizzazione del dato pro- cessuale che scambi il mezzo con il fine, e che marginalizzi il nostro sapere al solo sentenziare, senza alcuna verifica d’efficienza della dialettica pro- cessuale» (26).
4. – ▇▇▇` negli anni Novanta, il match tra (l’allora imbattuto) ▇▇▇▇▇ ▇▇▇▇▇▇▇▇ e il computer IBM Deep Blue disvelo` al mondo l’arena della guerra a venire tra uomo e macchina: il confronto – dal vago, sinistro sapore darwiniano – tra intelligenza artificiale e intelligenza umana. Nel 1996, a Philadelphia, ▇▇▇▇▇▇▇▇ perde s`ı il primo incontro, ma poi vince la partita al meglio dei sei giochi: la prima sconfitta di un campione del mondo contro un calcolatore puo` essere archiviata come incidente di percorso. ▇▇ ▇▇▇▇▇▇▇▇ offre a Deep Blue la rivincita e a New York, nel 1997, il piu` grande giocatore di sempre perde la sfida, grazie alla sua infinita, fredda e lucida potenza computazionale (27). Nel 2016 il pro-
prospettiva organizzativa, Bologna, 2003, p. 126, rileva come “l’eliminazione della carta, il collegamento in rete tra avvocati e tribunali, l’accesso alle banche dati che consentono rapida- mente di conoscere gli orientamenti di quel giudice…. La possibilita` di navigare in qualsiasi momento sul fascicolo virtuale con evidenziazioni, taglia e cuci... in realta` nel tempo modifi- cheranno radicalmente il modo di gestire e governare il processo nelle sue varie fasi a opera dei diversi attori organizzativi che si tradurra` in un diverso modo di pensarlo e concepirlo… non c’e` dubbio che essi avranno un impatto cognitivo, di linguaggio, culturale che modifichera` anche il modo di ragionare e di esprimersi di una delle piu` antiche professioni”. V. anche ▇▇▇▇▇▇▇▇, Introduzione al p.c.t., in Il processo telematico: nuovi ruoli e nuove tecnologie per il moderno processo civile, Bologna, 2000, p. 74, il quale, con riferimento alla “volonta` di Potenza” della tecnologia, conclude “mai come per il processo, la tecnologia deve essere limitata nei suoi aneliti di liberazione prometeica, per essere ricondotta a strumento di attua- zione dei valori di democrazia insiti nel processo”.
(25) Si rinvia per queste riflessioni a SCIACCA, L’impatto della tecnologia informatica sull’organizzazione del lavoro: esperienze e prospettive per il settore giudiziario, relazione all’incontro di studio organizzato dalla Formazione del CSM al corso L’organizzazione del lavoro del giudice civile, Roma, 5\7 dicembre 2005.
(26) SALARI, fffficienza e sinergia nella gestione del protocollo d’udienza. Prassi applicative e gestione informatica delle scansioni processuali, reperibile in ▇▇▇.▇▇▇▇▇▇▇▇▇▇▇.▇▇.
(27) ▇▇▇▇▇://▇▇.▇▇▇▇▇▇▇▇▇.▇▇▇/▇▇▇▇/▇▇▇_▇▇▇▇_▇▇▇▇.
gramma di Google AlphaGo sconfigge ▇▇▇ ▇▇▇▇▇, pluricampione mondia- le di Go: un gioco molto piu` complesso degli scacchi. ▇▇▇▇▇▇▇ non usa trucchi per destabilizzare psicologicamente l’avversario, ma un sistema di reti neurali e apprendimento automatico per rinforzo (28).
Oggi l’avvento dei big data, l’enorme potenza computazionale e l’af- fermarsi dei sistemi di ML immutano, ancora una volta quello scenario quasi fantascientifico. Il patrimonio informativo veicolato dalla rete genera una mole crescente di dati che ha superato da tempo la soglia dello Zeta byte sia i 1000 miliardi di gigabyte. Si prevede che gli utenti attivi nel 2023 su Internet raggiungeranno i 2/3 della popolazione mondiale, mentre ogni minuto vengono inviati oltre 40 milioni di messaggi tramite Whatsapp o Messenger e 190 milioni di email. Questa enorme mole di dati, peraltro, e` una minima parte dei dati che veicola l’infosfera (29), tant’e` vero che le prospettive indicano che nell’arco del 2022 transitera` una quantita` di dati corrispondente all’intero traffico registrato tra il 1984 e il 2016. Si parla dell’internet of everythings ossia una rete caratterizzata dalla iperconnes- sione tra persone, processi e cose nella quale il doppio binario dell’incre- mento esponenziale della quantita` dei dati a disposizione, da un lato, e dalla natura sempre piu` sofisticata degli strumenti che gli elaborano, dal- l’altro, insieme all’abbassamento radicale dei costi di archiviazione dei dati, hanno determinato la comparsa di modelli computazionali e di sistemi di nuova generazione che sono in grado di organizzare e interpretare attiva- mente i dataset al fine di emettere valutazioni o previsioni.
Sotto il profilo sociologico, l’affermazione dell’AI segna il passaggio da una societa` digitale alla societa` algoritmica nella quale le informazioni estratte dai dati attraverso il filtro degli algoritmi si propongono di gover- nare decisioni che coinvolgono la dimensione sociale, politica ed econo- mica (30). Siamo, quindi, in presenza di uno shock tecnologico ormai permanente, di fronte al quale, cosı` come ci ricordava il compianto Ste-
(28) ▇▇▇▇▇://▇▇.▇▇▇▇▇▇▇▇▇.▇▇▇/▇▇▇▇/▇▇▇▇▇▇▇_▇▇▇▇▇▇_▇▇▇_▇▇▇▇▇.
(29) Si rinvia alla voce enciclopedica Treccani, in ▇▇▇▇▇://▇▇▇.▇▇▇▇▇▇▇▇.▇▇/▇▇▇▇▇▇▇▇▇▇▇/ infosfera_%28Neologismi%29/#:~:text=infosfera%20s.%20f.%20L’insieme%20dei,- da%20tali%20mezzi%20vengono%20prodotte.Ctext=%C3%88%20una%20societ%- C3%A0%20dominata%20da,grazie%20alla%20demassificazione%20dei%20media.
(30) ABRIANI, Diritto delle imprese e intelligenza artificiale Dalla Fintech alla Corptech, cit., osserva come da un punto di vista funzionale la convergenza di Internet, big data e intelligenza artificiale via via si e` ormai sempre piu` imposta, trasformandosi da strumento di comunicazione personale di massa in un vero e proprio strumento di governo e controllo da parte di sistemi automatizzati degli individui che sempre piu` abdicano al ruolo di soggetti attivi di governo e di controllo delle tecnologie. In tal senso «il potere di imporre una regola tecnica si e` ben presto tradotto in un vero e proprio potere regolatorio sia nel potere di
fano Rodota`, si impone ai giuristi la necessita` di non distogliere lo sguardo dalla ▇▇▇▇▇▇ ▇▇▇▇▇ (31), in uno al dovere di sfatare il mito – pretesamente salvifico – della delega alle macchine (32) (33).
Le domande – quelle almeno individuate allo stato dalla riflessione scientifica (filosofica, sociologica, psicologica, informatica e, infine, giuri- dica) – sono veramente tante e, di fronte all’incessante cavalcata tecnolo- gica dell’AI, possiamo solo affermare di non sapere ovvero di non sapere a sufficienza; abbiamo ancora poche risposte, con il rischio immanente che siano risposte gia` obsolete (34), liquidificate dal continuum digitale. Un new brave world (35) e` alle porte. Pensiamo, ancora, al nuovo sistema di crediti sociali sperimentato in Cina. Non ci si puo` esimere dal riportare ampi stralci di un articolo che ne illustra la pervasivita` progressiva (36):
«(...) Da qualche anno a questa parte in Cina il governo sta sperimentando un sistema di controllo sociale, il Social credit system, da piu` voci definito “orwelliano”. Serve a monitorare cittadini, enti e imprese attraverso un complesso sistema di controllo e valutazione, connesso a misure premiali e sanzionatorie conseguenti al controllo. Per comprendere di cosa stiamo parlando, immaginate di provare a prenotare un viaggio in treno e sentirvi
imporre una regola con efficacia giuridica tanto sul piano dell’autonomia privata quanto su quello dell’azione pubblica».
(31) RODOTA` , Dall’uomo fotocopia alla pulizia genetica, ▇▇▇▇://▇▇▇.▇▇▇▇▇▇▇.▇▇/▇▇▇▇▇▇▇▇/ rodo20021230.html, nonche´ ID., Sul buon uso del diritto e i dilemmi della clonazione, in Riv. crit. dir. priv., 1999, p. 561.
(32) GARAPON, La giustizia digitale. Determinismo tecnologico e liberta`, Bologna, 2021. (33) ▇▇▇▇▇▇▇▇▇ e ▇▇▇▇▇▇▇, Introduzione, in Algoritmi ed esperienza giuridica, Ars in- terpretandi, 2021, X, n. 1, chiariscono come si sia in presenza di un’innovazione diversa dalle altre, ovvero «una vera e propria rivoluzione simbolica, dove i numeri diventano garanzia di verita`, l’informazione prende il posto della conoscenza e le connessioni quello
delle relazioni».
(34) D’▇▇▇▇▇, Il diritto verso “il mondo nuovo”. Le sfide dell’Intelligenza Artificiale, cit., si chiede «Ma chi educa le macchine? Con quali norme etiche? Quali sono o possono essere i principi comuni in un tempo caratterizzato da un esasperato pluralismo etico? Come si puo` evitare o controllare il rischio di hackeraggio dei sistemi agenti autonomi? Quale efficacia regolativa concreta conserva ancora il “codice” (cioe` la legge autonoma della rete, la sua architettura normativa spontanea nella visione di ▇▇▇▇▇▇) nel contesto dei “self-learning systems” e del “comportamento emergente” delle macchine e dei sistemi artificiali agenti». (35) ▇▇▇▇▇▇ nel suo piu` celebre romanzo Brave new world) nel dialogo di ▇▇▇▇▇▇▇ (▇▇▇▇ V, v.181 e segg.): «O, wonder! / How many goodly creatures are there here! / How beauteous mankind is! O brave new world / That has such people in’t!» (Che meraviglia! / Quante creature buone ci sono qui! / Com’e`bella questa umanita`! O coraggioso nuovo mondo
/ che ha tali persone in se´!); ma ancor prima ▇▇▇▇▇▇▇▇▇▇▇, La Tempesta.
(36) ▇▇▇▇▇, Il Social Credit System cinese: un esempio di big data al servizio del potere, in Agenda Digitale, ▇▇▇▇▇://▇▇▇.▇▇▇▇▇▇▇▇▇▇▇▇▇▇.▇▇/▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇/▇▇-▇▇▇▇▇▇-▇▇▇▇▇▇-▇▇▇▇▇▇-▇▇▇▇▇▇- un-esempio-di-big-data-al-servizio-del-potere/.
rispondere che non avendo pagato due bollette non avete i privilegi ne- cessari per acquistare quel biglietto. Immaginate di essere sottoposti a un controllo di sicurezza approfondito in aeroporto perche´ poco tempo prima avete fumato in un locale riservato ai non fumatori. Ecco, queste situazioni in alcune parti della Cina sono gia` realta` e, presto, tutta la nazione adottera` meccanismi del genere per “migliorare” la societa` cinese. E i cinesi, a quanto pare, ne sono entusiasti! Cos’e` il sistema di valutazione sociale – social credit system cinese. Il progetto nasce nel lontano 2007, quando il Consiglio di Stato cinese ha emanato delle Guiding Opinions Concerning the Construction of a Social Credit System. Consente l’invio di comunica- zioni promozionali inerenti i prodotti e servizi di soggetti terzi rispetto alle Contitolari che appartengono al ramo manifatturiero, di servizi (in parti- colare ICT) e di commercio, con modalita` di contatto automatizzate e tradizionali da parte dei terzi medesimi, a cui vengono comunicati i dati. In quel momento nasceva l’idea del Sistema di Valutazione Sociale (社会信用体系), un meccanismo per valutare persone, aziende e ammini- strazioni locali che dovrebbe consentire, nelle idee del legislatore cinese, di organizzare in maniera affidabile una complessa mole di informazioni relative a pagamenti, comportamenti, sanzioni e molto altro, e di utilizzarle per valutare i soggetti e per implementare gli effetti di questa valutazione. L’aspettativa del governo era quella di creare un sistema che si auto-ali- mentasse, con cittadini, aziende ed enti che collaborano per segnalare i soggetti che non rispettano i meccanismi e che si impegnano per miglio- rare il proprio rating score. L’ottimismo del governo su questo progetto, che e` cresciuto negli anni, poggia quasi interamente sull’elemento tecno- logico, che qui svolge una triplice funzione: in primo luogo consente un monitoraggio diretto, diffuso ed effettivo, non fondato sul semplice inse- rimento dati da parte di un funzionario (corruttibile) ma piuttosto su molteplici canali di approvvigionamento dei dati; in secondo luogo con- sente di creare e gestire questa rete di big data e di condividere agevol- mente le informazioni con tutte le autorita` coinvolte; in terzo luogo con- sente di regolare automaticamente ed immediatamente le conseguenze derivanti da questo sistema da un lato “accreditando” il punteggio in tempo reale e dall’altro consentendo a tutti gli uffici coinvolti di “leggere” il punteggio e di determinare a quali servizi abbia diritto il cittadino o l’azienda. Come funziona il sistema di valutazione. Nel 2014 la Repubblica Popolare ha di nuovo messo nero su bianco il progetto, con il Planning Outline for the Construction of a Social Credit System (2014-2020) che individua le quattro aree fondamentali del sistema: “onesta` negli affari di governo” (政务诚信), “integrita` commerciale” (商务诚信), “integrita`
sociale” (社会诚信) e “credibilita` giudiziaria” (司法公信). A quel punto numerose municipalita` e province hanno iniziato ad implementare progetti pilota. A luglio del 2018 i progetti attivi erano oltre 40. Come funzionano questi progetti? Il credit score dei cittadini. Di fatto, per quanto riguarda le persone, il credit score e` determinato da vari elementi negativi (debiti non pagati, multe, segnalazioni) e positivi (servizi sociali, volontariato). Ad un rating positivo corrispondono servizi gratuiti o garantiti (dalle fast lane ne- gli uffici comunali ai servizi di bike sharing), mentre ad un rating negativo corrispondono preclusioni all’acquisto di aerei interni, treni veloci o certe categorie di hotel, sottoposizione a piu` frequenti controlli, preclusione all’accesso a certe offerte di lavoro o prestiti. A questo proposito, nel dicembre 2018, l’aeroporto di Shenzhen ha introdotto una procedura di accesso ai controlli di sicurezza semplificata per i cittadini con un elevato social credit, sottoponendo a controlli piu` approfonditi gli altri utenti dello scalo. Il credit score di aziende e enti locali. Per quanto riguarda le aziende possono essere presi in considerazione diversi elementi, tra cui ad esempio l’attenzione all’ambiente, la regolarita` nei pagamenti, l’attenzione al sociale e numerosi altri fattori. Anche qui ad un rating positivo corrispondono agevolazioni finanziamenti, mentre ad un rating negativo corrispondono preclusioni all’accesso a bandi governativi, maggiori controlli o difficolta` ad accedere al credito. Esistono poi varie ulteriori dipanazioni del proget- to, tra cui un sistema di Social Credit per gli enti locali ed un sistema orientato esclusivamente ai giovani e sviluppato dalla Lega dei Giovani Comunisti Cinesi. Nel frattempo l’idea ha sedotto anche aziende private, con il gigante dell’e-commerce cinese Alibaba che ha introdotto il celebre Zhima Credit (conosciuto anche come Sesame Credit) attraverso il quale si possono ottenere vantaggi presso le varie collegate del gruppo come eso- neri dalla prestazione di garanzie per servizi di noleggio, sconti e addirit- tura maggiori “contatti” nelle app di incontri collegate. Il sistema premia quindi il cliente “degno di fiducia” chiedendo minori garanzie e offrendo altri benefit. Fortunatamente, questo sistema non prevede sanzioni per i soggetti con un basso “credito” e cio` lo rende piu` simile ad un programma fedelta` che ad un vero e proprio sistema di controllo sociale. Big data e profilazione di massa. Ben diversa e` la situazione con riguardo al mecca- nismo governativo, che assume un pesante contenuto sanzionatorio, a volte piu` incisivo delle usuali sanzioni. La mole di dati connessi e` enorme e il governo e` ben consapevole che il successo dell’iniziativa dipende dall’implementazione di una complessa infrastruttura di reti di dati. Per questo le amministrazioni cinesi stanno orchestrando una imponente atti- vita` di cooperazione e condivisione delle informazioni, che coinvolge do-
gane, autorita` ferroviarie, compagnie aeree, istituti di credito, e molti altri enti, al fine di mettere a sistema questa rete di big data. Stiamo parlando di una profilazione di massa senza precedenti, che potrebbe presto riguarda- re un quinto della popolazione mondiale, se il governo manterra` la pro- messa di implementare il sistema entro la fine del 2020».
L’Osservatorio Artificial Intelligence del Politecnico di Milano ha map- pato e classificato i diversi ambiti di applicazione dell’AI in Italia (37): 1) Veicoli Autonomi: ci si riferisce a qualunque mezzo di guida autonoma adibito a trasporto su strada, acqua, aria; 2) Robot Autonomi: cioe` robot in grado di muoversi, manipolare oggetti ed eseguire azioni senza necessita` dell’intervento umano. ▇▇▇▇▇▇▇▇ in grado di trarre informazioni dall’am- biente circostante e di adattarsi a eventi non previsti o codificati; 3) Oggetti intelligenti: tutti quegli oggetti in grado di eseguire azioni e prendere decisioni senza richiedere l’intervento umano ma che invece interagiscono autonomamente con l’ambiente attraverso i propri sensori (videocamere, termometri ecc.); 4) Assistenti Virtuali e Chatbot: determinati sistemi di IA riescono a comprendere tono e contesto del dialogo, memorizzando e riutilizzando le informazioni raccolte riuscendo anche a sostenere una conversazione. I chatbot, in particolare, sono utilizzati come primo livello di contatto con il cliente nell’assistenza tramite il Customer Care aziendale, eliminando sensibilmente i tempi di attesa; 5) Raccomandazioni: i suggeri- menti che il programma fornisce in vista delle preferenze, gli interessi e le decisioni dell’utente, basandosi su informazioni da esso fornite in maniera diretta o indiretta. Raccomandazioni molto usate nell’e-Commerce o nei servizi di video, musica e streaming come, ad esempio, i suggerimenti che ci fornisce Amazon, Netflix o YouTube; 6) fflaborazione di immagini: ci si riferisce a quei sistemi in grado di effettuare analisi di immagini o video in modo tale da riconoscere persone, animali e cose presenti nell’immagine o di estrarre informazioni dai video; 7) fflaborazione del linguaggio: i sistemi di elaborare il linguaggio per l’elaborazione del contenuto, la traduzione, fino ad arrivare alla produzione di testi in modo autonomo da parte del programma, partendo da dati o documenti inseriti; 8) L’elaborazione di intelligent Data: algoritmi di IA su dati strutturati e non per estrarre informazioni come per esempio i sistemi per la rilevazione di frodi finan- ziarie e l’analisi predittiva (Predictive Analysis). Parimenti l’Agenzia per l’Italia Digitale (AGID) ha riportato nel suo «Libro Bianco sull’Intelligen-
(37) ▇▇▇▇▇▇▇, Intelligenza Artificiale: che cos’e`, come funziona, applicazione e sviluppi, ▇▇▇▇▇://▇▇▇.▇▇▇▇▇▇▇▇▇▇▇▇▇▇▇.▇▇/▇▇▇-▇▇▇▇▇▇▇/▇▇▇▇▇▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇▇▇▇▇/.
za Artificiale al servizio del cittadino» una linea temporale (vedi figura a p. 33 del Libro bianco citato nella nota seguente) per indicare i possibili avanzamenti dell’IA, prevedendo che nel 2061 l’IA possa sostituire l’uomo in ogni attivita` e nel 2137 in ogni lavoro (38).
Secondo l’Ocse siamo in presenza della quarta rivoluzione industriale caratterizzata dalla invincibile sinergia tra dati e algoritmi e segnata da una vocazione all’onniscienza (39), resa possibile grazie all’enorme quan- tita` dei dati disponibili e alle capacita` performanti degli algoritmi (40). Dall’omniscienza all’onnipotenza il passo e` breve (41). Se cosı` e`, in ef- fetti, v’e` l’esigenza di una immediata riflessione di sistema sull’impatto che i sistemi di AI stanno gia` imponendo ai moderni sistemi democratici, se e` vero che autorevoli studiosi gia` parlano di algocrazia (42) ovvero,
(38) ▇▇▇▇▇://▇▇.▇▇▇▇▇▇.▇▇/▇▇▇▇▇▇/▇▇▇▇▇▇▇▇▇▇▇.▇▇▇.
(39) ABRIANI, Diritto delle imprese e intelligenza artificiale Dalla Fintech alla Corp- tech, cit.
(40) D’▇▇▇▇▇, Il diritto verso “il mondo nuovo”. Le sfide dell’Intelligenza Artificiale, cit., rileva, correttamente, che «l’impatto di questi sistemi e del loro funzionamento su molti diritti fondamentali in diversi settori –che vanno dalla giustizia penale, all’accesso al credito, ai servizi collegati alla salute, alle procedure di reclutamento e assunzione, all’accesso all’u- niversita`, alla partecipazione politica– appare gia` ora molto consistente (e ancora di piu` mostra di poter essere in un futuro piu` o meno prossimo), sia in senso positivo, vale a dire in termini di opportunita` e di chances, sia in termini di possibili rischi e preoccupazioni. Non avrebbe molto senso polarizzare il dibattito tra sostenitori o oppositori degli sviluppi in tema di AI. Bisogna invece cercare di avvalersi dei benefici, minimizzando i rischi e le criticita` che certamente ci sono. I sistemi di AI saranno uno dei grandi blocchi dello sviluppo economico mondiale in questo secolo. La sfida e` (e sara`) quella di orientare (o almeno di ridurre i contrasti di) questa nuova imponente evoluzione tecnologica ed economica rispetto ai prin- cipi di tutela della dignita` e della sicurezza umana, e dei diritti fondamentali. Una sorta di attualizzazione del messaggio contenuto nel secondo comma del nostro art. 41 Cost., e ▇▇▇` in generale in tutto il disegno costituzionale di societa`, fondato sulla centralita` del lavoro». (41) ABRIANI, Diritto delle imprese e intelligenza artificiale Dalla Fintech alla Corptech,
cit., osserva «l’elemento cruciale che connota l’era algoritmica non e` rappresentato dalla macchina, ma dalla quantita` e dalla qualita` dei dati che questa e` in condizione di elaborare: maggiore la quantita` di dati disponibili, maggiore e` la capacita` dell’algoritmo di generaliz-
zare e di approssimare la funzione; E` tanto migliore e` la qualita` dei dati immessi ed elaborati
dalla macchina tanto piu` accurati saranno gli output che ▇▇▇▇` in grado di fornire» che richiama la riflessione di ▇▇▇▇▇▇` per cui l’algocrazia insinua nella vita quotidiana il germe di nuove discriminazioni per il quale «il cittadino non e` piu` libero ma profilato prigioniero di meccanismi che non sa o non puo` controllare».
(42) CELOTTO, Come regolare gli algoritmi. Il difficile bilanciamento fra scienza, etica e diritto, in Analisi giuridica dell’economia, 2019, 1, nonche´ ABRIANI, Diritto delle imprese e intelligenza artificiale Dalla Fintech alla Corptech, cit., ove si rileva che la vocazione alla onniscienza sia caratterizzata dalla «coesistenza dell’uomo con macchine, se non piu` intel- ligenti per molti versi piu` performanti rispetto alle capacita` umane voi, sicche´ si determina una quarta potenziale ferita narcisistica – dopo l’umiliazione cosmologie dell’elio centrismo, l’umiliazione biologica del darwinismo e l’umiliazione psicologica della psicanalisi – intac- candosi nuovamente la convinzione dell’umanita` di essere la specie eletta tra tutte le altre».
forse piu` correttamente, una oligo-algocrazia nelle mani del moloch pla- netario GAFAM (43), ovvero un mondo regolato, anzi, dominato dagli algoritmi investiti di funzioni, analiticamente cognitive, subdolamente induttive e spiccatamente decisionali (44).
Il diritto e`, allora, chiamato alla sua funzione di governo della socialita` e delle sue evoluzioni. La riflessione che si impone e`, quanto meno, duplice. In un primo senso l’AI rileva quale oggetto di necessaria normazione e di possibile giudizio e, in tal senso, come si dira`, le categorie giuridiche tradi- zionali mostrano tutta la loro finitezza e storicita` dinanzi al nuovo linguaggio digitale e alla disruption antropologica che ne e` sottesa. In altro senso, poi, le prospettive di sviluppo nel campo del legal tech gia` oggi delineano un rivo- luzione gia` in corso con l’offerta di innovativi «metodi per automatizzare la ricerca in campo legale, per la redazione o il controllo di contratti o docu- menti, per valutazioni tecniche (ad esempio per il calcolo di indennita` in caso
(43) L’acronimo GAFAM, spesso usato in una connotazione negativa, indica nel loro assieme le cinque maggiori multinazionali dell’IT occidentali – Google, Apple, Facebook, Amazon, Microsoft –, alle quali dovrebbero aggiungersi anche ▇▇▇ ▇▇▇▇, Netflix e Baidu; corporation, le quali – come osserva ABRIANI, Diritto delle imprese e intelligenza artificiale. Dalla Fintech alla Corptech, cit. – accentrano in poche mani di grandi imprese enorme risorse tecnologiche grazie all’equazione tra dati necessari quali input di un dato servizio o prodotto digitale – si pensi ai dati personali necessari per accedere a un servizio di social network – e potere di mercato che deriva dal possedere enormi quantita` di dati personali e di profilazione consumeristica. Tale concentrazione di dati, intelligenze e risorse finanziare consente alle stesse poche imprese di espandersi via via i mercati diversi con pratiche sempre piu` raffinate aggressive che vedono proprio nell’utilizzo di strumenti di intelligenza artifi- ciale il migliore strumento per rafforzare ulteriormente il loro potere economico con mec- canismi di collusione algoritmica che investono gli studiosi societario e di diritto antitrust di nuovi interrogativi.
(44) ▇▇▇▇▇, Il diritto e i nuovi orizzonti dell’intelligenza umana analisi giuridica dell’e- conomia, 2019, 1, dove l’a. richiama la tesi della governamentalita` algoritmica, esaltata dall’era dei big data dove «si contorna dunque la soggettivita` attraverso l’automatizzazione. L’automatizzazione e l’accelerazione della produzione di conoscenze a partire dai dati di ogni sorta, molto numerosi, sono divenute una necessita`. Si evita la soggettivita` delle persone osservate. Vi si categorizza in funzione dei dati grezzi che per voi non hanno alcun signi- ficato, in base ad algoritmi di cui non conoscete il funzionamento, e cio` andra` ad avere un impatto sulla vostra vita, vi affettera` ad esempio sul modo del riflesso, piuttosto che della riflessivita`, ossia, di cio` che vi invia degli avvertimenti. Ad esempio, nel campo del marke-
▇▇▇▇, succedera` che la vostra attenzione ▇▇▇▇` attirata da qualcosa, da un preciso oggetto. Niente e` meno volontario che l’avere la propria attenzione attratta. E` anche in questo modo che si contorna la soggettivita`, perche´ non si fa appello alle vostre capacita` intellettive o di
▇▇▇▇▇▇▇` per governarvi, o per far s`ı che passiate all’atto di acquisto, o, al contrario, perche´
voi non immaginiate nemmeno di poter disobbedire a una regola. Non e` piu` minacciandovi o incitandovi, e` semplicemente inviandovi dei segnali che provocano un riflesso, dunque attraverso stimoli e riflessi. Non c’e` piu` soggetto, in effetti»: ▇▇▇▇ ▇▇▇▇▇▇▇ e ▇▇▇▇▇▇▇▇, Il regime di verita` digitale. Dalla governamentalita` algoritmica a un nuovo Stato di diritto, in La Deleuziana, 2016, 3, numero monografico «La vita e il numero».
di licenziamento, di assegni di mantenimento per il coniuge o i figli, per la quantificazione dei danni in caso di lesioni personali ecc.) ed anche determi- nare il possibile esito di una controversia, attuale o potenziale. Sistemi del genere, fino ad oggi prevalentemente utilizzati da studi legali o compagnie assicurative, potrebbero fornire nuovi strumenti di misura, di valutazione e di predizione dei comportamenti suscettibili di essere utilizzati anche nel campo giudiziario, ed in tal modo contribuire a rendere piu` efficiente, piu` equo e meno costoso il funzionamento del sistema giustizia» (45).
5. – Il matematico statunitense ▇▇▇▇▇▇▇ ▇▇▇▇▇▇, uno dei “padri” della cibernetica moderna, ammoniva «Quelli fra noi che hanno contribuito alla nuova scienza della cibernetica si trovano cosı` in una posizione morale a dir poco scomoda. ▇▇▇▇▇▇▇ contribuito alla nascita di una nuova scienza che, come ho detto, comporta sviluppi tecnici con grandi possibilita` per il bene e per il male. Non possiamo fare altro che consegnarla al mondo che ci circonda, e questo e` il mondo di Belsen e di Hiroshima. Non abbiamo neanche la scelta di arrestare questi nuovi sviluppi tecnici. Essi apparten- gono alla nostra epoca, e il massimo che riusciremmo ad ottenere cercando di sopprimerli sarebbe di metterli nelle mani dei piu` irresponsabili e venali dei nostri ingegneri. Il meglio che possiamo fare e` agire in modo che un vasto pubblico comprenda le tendenze e gli aspetti di questo lavoro» (46). Se la promozione delle liberta` e dei diritti, oltre che del benessere economico e` un connotato caratteristico dei sistemi di AI, devono essere,
pero`, esaminati i profili critici che la caratterizzano.
Vi sono pericoli, per cos`ı dire, estrinseci ai sistemi, ovvero le ricadute negative o critiche che i sistemi possono determinare ai diritti e alle liberta` costituzionali. Vi sono, invece e ancor prima, criticita` che sono caratteristi- che strutturali intrinseche di questi sistemi e che vanno, da subito, focaliz- zati. All’inizio di ogni cosa e nuova intrapresa c’e` sempre di mezzo l’essere umano. Con la sua vision, la sua cultura, i suoi limiti personali, sociali, comportamentali. L’essere umano carico dei suoi pregiudizi e delle sue sicurezze. E cos`ı accade che anche le macchine possono avere, recte, mu- tuare pregiudizi: i nostri. Si definisce Machine Bias (47) l’errore sistematico
(45) In termini DONATI, Intelligenza artificiale e giustizia, in Rivista A.I.C., 2020, 1. (46) WIENER, Cybernetics. Or Control and Communication in the Animal and the Ma-
chine, MIT Press, Cambridge, 1948, p. 54.
(47) ABRIANI, Diritto delle imprese e intelligenza artificiale. Dalla Fintech alla Corptech, cit., richiama due categorie ovvero i pre-existing bias e i bias di discriminazione tecnico- statistica. Alla prima categoria sarebbero da ascrivere tanto i bias di misurazione o di data training – con riferimento alla non sufficiente rappresentativita` dei dati inseriti rispetto al
per cui un algoritmo produce output iniqui. Volendo sintetizzare, i sistemi di AI, destinati a elaborare enormi masse di informazioni binarie, operano e sono esposti alla c.d. GIGO (48) ovvero all’effetto del Garbage In, Garbage Out: se i dati in ingresso sono sporchi, lo saranno anche quelli in uscita (49). L’esempio piu` famoso della pervasivita` e pericolosita` dei bias in fase di programmazione di sistemi di AI e` certamente e il caso COMPAS/▇▇▇▇▇▇ (50). Nel febbraio del 2013 ▇▇▇▇ ▇▇▇▇▇▇, cittadino statunitense, arrestato per ricettazione di un’auto e resistenza a pubblico ufficiale, viene condan- nato a sei anni di reclusione. Il giudice, per stabilire la pena, valuta, non solo la fedina penale dell’imputato, ma anche il punteggio assegnato al- l’imputato da un algoritmo predittivo di valutazione del rischio di recidiva chiamato COMPAS. Dopo aver accolto la ammissione di colpevolezza di ▇▇▇▇▇▇, la Corte ordinava un Presentence Investigation Report (PSI), ossia una relazione dei risultati delle investigazioni condotte sulla storia perso- nale dell’imputato, preliminare alla sentenza sulla determinazione della pena, finalizzate a verificare la presenza di circostanze utili a modulare la severita` della stessa. Il PSI includeva i risultati elaborati dal software COMPAS (Correctional Offender Management Profiling for Alternative
settore o al contesto in cui lo strumento deve andare ad operare (nel qual caso l’impiego di dati non sufficientemente rappresentativi potrebbe portare alla generazione di correlazioni non affidabili e a conclusioni scorrette) – che i bias storico-sociali (relativi alla selezione di dati che contengono preconcetti sociali e storici tali da minare la veridicita` dei dati stessi, in guisa che, tramite l’inserimento di questi dati, mutuerebbero tutte le sfumature e i pregiudizi della societa` che descrivono); alla seconda categoria dovrebbero essere ricondotti, invece, i bias derivanti da false associazioni statistiche attuate dal software alimentato da dati scorretti. A questi rischi strutturali dovrebbero, poi, essere aggiunti i vizi derivanti dall’utilizzo im- proprio gli strumenti di intelligenza artificiale derivanti da una acritica applicazione delle indicazioni fornite dalla macchina senza una valutazione specifica dell’adeguatezza delle medesime al contesto nella quale si colloca la specifica decisione (automation bias), nonche´ i bias da uso inappropriato di strumenti dell’intelligenza artificiale, ad esempio in uno scenario diverso da quello per il quale un sistema e` stato ideato e sviluppato (translational bias).
(48) Garbage in, garbage out (letteralmente “spazzatura dentro, spazzatura fuori”, GIGO
in forma abbreviata, ovvero anche rubbish in, rubbish out) e` una frase utilizzata nel campo dell’informatica e della tecnologia dell’informazione e della comunicazione. E` utilizzata soprattutto per richiamare l’attenzione sul fatto che i computer elaborano in modo acritico
anche un insieme di dati in entrata palesemente insensati (garbage in) producendo, a loro volta, un risultato insensato (garbage out): ▇▇▇▇▇://▇▇.▇▇▇▇▇▇▇▇▇.▇▇▇/▇▇▇▇/▇▇▇▇▇▇▇_▇▇,_▇▇▇▇▇- ge_out.
(49) Per una disamina approfondita dei vari tipi di bias si rinvia a LA ROSA, Automation bias la sostituzione del giudizio e altri istupidimenti, Universita` degli Studi di Milano-Bicocca, Centro Interuniversitario MaCSIS Working Paper Series, in ▇▇▇▇▇://▇▇▇.▇▇▇▇▇▇.▇▇▇▇▇▇.▇▇/ wp-content/uploads/sites/105/2021/05/Automation-Bias_WP_1_2020.pdf.
(50) V. ▇▇▇▇▇://▇▇▇.▇▇▇▇▇▇▇▇▇▇▇▇▇▇▇▇▇▇▇▇.▇▇▇/▇▇▇▇/▇▇/▇▇/▇▇▇▇▇▇▇-▇▇▇▇▇▇-▇▇-▇▇▇▇▇▇▇- mo-chiacchierato-caso-▇▇▇▇▇▇-alla-corte-suprema-del-wisconsin/.
Sanctions) ovvero un sistema di AI che esamina la propensione dell’impu- tato a ripetere il delitto sulla base di 137 domande cui deve rispondere o che vengono integrate da informazioni tratte dal casellario giudiziale. Le domande sono molto varie, si passa dal chiedere all’imputato se ha un telefono nella propria abitazione, se ha difficolta` a pagare le bollette se ha precedenti penali o quale sia la sua storia e quella dei suoi familiari. Una volta esaurite le domande, l’algoritmo valuta su una scala da 1 a 10 (51) quale sia il rischio di recidiva dell’imputato, e anche laddove sia sempre il giudice umano alla fine a dover determinare la pena e decidere se basarsi o meno su tale risultato, ormai nelle corti americane e` obbligatorio che venga utilizzato un sistema di questo tipo. Condannato sulla base del PSI, ▇▇▇▇▇▇ depositava un’istanza di revisione della pena lamentando che la decisione del tribunale circondariale, nel prendere in considerazione i risultati del COMPAS, aveva violato il proprio diritto ad un processo equo. Nella seconda udienza post-condanna, la difesa di ▇▇▇▇▇▇ chiamava a testimoniare un esperto, il quale dichiarava che lo strumento COMPAS non era stato concepito per l’utilizzo nelle decisioni di incarcerazione. Secondo il consulente, la Corte che prende in considerazione i risultati forniti dall’algoritmo incorre fortemente nella probabilita` di sovrastimare il rischio di recidiva individuale e di determinare la pena dell’imputato sulla scorta di fattori ininfluenti. Inoltre, affermava che i tribunali posseggono poche informazioni sul processo di analisi del rischio effettuato da COM- PAS, non sapendo ad esempio come il sistema compia la comparazione della storia individuale dell’imputato con quella del gruppo di popolazione preso a riferimento, ne´ se tale gruppo di individui appartenga al medesimo stato americano. Il Tribunale circondariale rigettava l’istanza di revisione, sostenendo che la pena inflitta sarebbe stata la medesima, a prescindere dalla considerazione dei risultati COMPAS. ▇▇▇▇▇▇ impugnava tale deci- sione e la Corte d’Appello rimetteva la questione alla Corte Suprema del Wisconsin. La Corte Suprema (52), dopo aver stabilito che l’uso di COM- PAS e il punteggio di rischio costituiva solo uno dei numerosi fattori considerati dal tribunale nel determinare la pena, ha ritenuto che puo` essere legittimo il suo ausilio non esclusivo nell’ambito dei giudizi di
(51) La valutazione del rischio di Compas restituiva un elaborato grafico di tre barre che rappresentano in una scala da 1 a 10 il rischio di recidiva preprocessuale, il rischio di recidiva generale ed il rischio di recidiva violenta. Nel caso di ▇▇▇▇▇▇ i calcoli di COMPAS attestavano un alto livello di rischio in tutti e tre gli ambiti di recidivita`.
(52) Supreme Court of Wisconsin, State of Wisconsin, ffric ▇. ▇▇▇▇▇▇, Case no. 2015AP157-CR, 5 April – 13 July 2016.
determinazione della pena (53), in tal modo compensando l’oscurita` algo- ritmica con il contrappeso del suo rilievo decisorio solo ausiliario. Il caso ▇▇▇▇▇▇, in tal senso, risulta paradigmatico, gravido di sinistri avvertimenti che la dottrina (e ancor prima, la difesa di ▇▇▇▇▇▇ e l’associazione Propub- blica) (54) ha focalizzato, ovvero le criticita` del ricorso a softwares di origine proprietaria privata, tutelati dalla privative industriali con inevita- bili conseguenti questioni di non conoscibilita` dell’analisi sottesa all’elabo- razione del codice sorgente e di vulnus finale alla trasparenza del percorso seguito dalla macchina per la restituzione dell’esito, nonche´, ancor prima, essere la programmazione del programma soggetto a bias cognitivi e sociali di non poco momento con potenzialita` discriminatorie notevoli (55).
La riflessione scientifica sul tema dei bias e` oggi ad una svolta, com- plice l’enorme diffusione dei sistemi di AI e la conseguente necessita` di un intervento, ancor prima che sulle modalita` di lavoro dei programmatori, sulla loro stessa formazione professionale e etica.
Gli studi di psicologia cognitiva e del lavoro, ancora a titolo di esem- ▇▇▇, hanno individuato il fenomeno della cd. pigrizia e\o avarizia cognitiva, ovvero la tendenza umana a compiere il minor sforzo possibile per pren- dere una decisione, cercare scorciatoie e risparmiare energie. L’adozione di sistemi automatizzati puo` diventare, oltre che un incredibile facilitatore
(53) La Corte ha indicato i limiti e le cautele che devono accompagnare tale impiego da parte degli organi giudicanti: si e` stabilito che tali software possono essere considerati fattori rilevanti in questioni quali 1) la comminazione di misure alternative alla detenzione per gli individui a basso rischio di recidiva; 2) la valutazione della possibilita` di controllare un criminale in modo sicuro all’interno della societa`, anche con l’affidamento in prova; 3) l’imposizione di termini e condizioni per la liberta` vigilata, la supervisione e per le eventuali sanzioni alle violazioni delle regole previste dai regimi alternativi alla detenzione.
(54) ProPublica e` un’organizzazione non a scopo di lucro statunitense, che mira a produrre giornalismo investigativo di interesse pubblico. Nel caso ▇▇▇▇▇▇ un report di ProPublica del 2016, analizzando il sistema, fece emergere che alla popolazione afro-ame- ricana veniva sulla base dei parametri individuati un elevato tasso di rischio di recidiva nei due anni successivi alla condanna due volte piu` alto rispetto alle altre popolazioni; conse- guenza questa dell’essere stato programmato da jeeks bianchi portatori di bias cognitivi e sociali. Infatti, l’algoritmo riteneva che altre popolazioni risultassero molto meno inclini alla recidiva, per cui mentre gli imputati afroamericani avevano maggiori probabilita` di vedersi assegnare punteggi alti di rischio di recidiva, la controparte bianca riceveva punteggi piu` bassi.
(55) D’▇▇▇▇▇, Il diritto verso “il mondo nuovo”. Le sfide dell’Intelligenza Artificiale, cit., osserva che «Il diritto ha gia` conosciuto, e in qualche modo contrastato, le situazioni di discriminazione “indiretta” messe in campo da istituzioni, poteri economici, soggetti privati. Appare molto piu` complicato educa-re un algoritmo a perseguire logiche sostanziali di eguaglianza, a capire che in alcuni casi le condizioni di partenza sono storicamente squili- brate, e che hanno bisogno di misure di favore per impedire che le classi svantaggiate finiscano per l’esserlo ancora di piu` ».
delle informazioni e anche della decisione, al contempo un rischioso com- plice cui ricorrere per evitare ovvero semplificare processi altrimenti piu` faticosi di analisi e valutazione delle informazioni. A questo primo rischio cognitivo, vanno aggiunti ulteriori profili di criticita`, destinati ad essere amplificate dal ricorso a sistemi di AI (56).
In conclusione sul punto, avuto riguardo all’impatto in atto e prospet- tico che i sistemi determineranno sui sistemi legali e, in particolar modo, sul sistema giudiziario, mette conto rilevare che gli studiosi sono sempre piu` consapevoli – per minimizzare il rischio di bias discriminatori e, quin- di, incrementare la fiducia delle persone in questi sistemi – dell’esigenza di anticipare la soglia di individuazione e di neutralizzazione dei bias all’in- terno del sistema, intervenendo sul momento della programmazione (57) e, ancor prima, sulla formazione dei programmatori (58). Come e` stato rile- vato, occorre stabilire processi e pratiche per poter testare e mitigare i pregiudizi nei sistemi di AI; esaminare accuratamente quali dati ne deter- minano l’influenza maggiore, capire dove persistono i pregiudizi umani; investire di piu` nella ricerca e analisi dei bias; promuovere una politica di
(56) Si rinvia LA ROSA, Automation bias la sostituzione del giudizio e altri istupidimenti, cit.: «c’e` poi la complacency, ovvero l’inclinazione a credere che i sistemi tecnologici abbiano capacita` di analisi superiori (▇▇▇ & See, 2004) e il cosiddetto Human substitution bias per cui «“qualunque sia il compito, una macchina puo` farlo meglio di un umano” (▇▇▇▇▇▇▇▇▇, 2013). Un altro pregiudizio storicamente noto e` il Pro-innovation bias (▇▇▇▇▇▇, 2010) per cui ogni novita` e` di per se´ migliore dell’esistente. Inoltre, quando compiti decisionali e di sorveglianza si svolgono in collaborazione con una macchina, bisogna considerare anche l’aspetto della dispersione della responsabilita`, in maniera simile a quanto avviene quando gli umani collaborano con altri umani: il Social loafing (▇▇▇▇▇ & ▇▇▇▇▇▇▇▇, 1993) e` quel tipo di noncuranza che interviene quando il gruppo di lavoro presenta delle ridondanze e non ci sono responsabilita` individuali. Nella misura in cui l’operatore umano percepisce il DSS come un membro della squadra, potrebbe sentirsi meno responsabile della riuscita del compito e quindi ridurre il proprio sforzo nell’analizzare e valutare tutte le informazioni disponibili (▇▇▇▇▇▇▇▇▇▇▇ & ▇▇▇▇▇▇, 2010). Ci sono poi caratteristiche sia del sistema che dell’operatore in grado di influenzare l’Automation Bias nella specifica interazione, come l’affidabilita` (reale o percepita) del DSS, l’esperienza individuale dell’operatore con altri sistemi automatici, e il suo atteggiamento personale nei confronti della tecnologia. Anche il fenomeno dell’under-reliance, ovvero della sfiducia aprioristica nei sistemi automatici, puo` diventare causa di errore».
(57) Si osserva la centralita`, a tal riguardo, di un criterio di minimizzazione del rischio attraverso l’adozione di misure che intervengano sotto il profilo della progettazione da parte della programmatori che della loro stessa preventiva formazione – c.d. privacy by design e by default – che internalizzi le scelte anche di natura etica, valoriale, oltre che sociale necessarie ad evitare bias e output scorretti: ▇. ▇▇▇▇▇▇▇, Privacy e design, Informatica e diritto, XXXV annata, vol. XVII, n. 1, pp. 123 ss..
(58) Si rinvia a CELOTTO, Come regolare gli algoritmi. Il difficile bilanciamento fra scienza, etica e diritto, cit., per cui alle spalle dell’algocrazia si pone un problema di algo- retica, ovvero di etica degli algoritmi.
integrazione di diversita` all’interno dell’ambiente stesso che sviluppa siste- mi di AI, favorendo comunita` di sviluppo di questi sistemi inclusive in termine di genere, etnia, regione geografica, classe sociale e disabilita`; soprattutto e infine promuovere iniziative in cui macchine ed esseri umani lavorino insieme, valutando accuratamente i casi in cui l’AI possa prendere la maggior parte delle decisioni e quelli in cui, sia l’uomo a mantenere il controllo della macchina (59).
6. – Il costituzionalismo – e` stato saggiamente osservato (60) – «deve “fare il suo lavoro”, in altre parole deve svolgere il compito che ne co- stituisce l’essenza, fin dal suo sorgere nella lotta contro il monarca asso- luto: limitare il potere, pubblico o privato che sia, ovvero “regolare rego- lare regolare”».
Se sistemi automatizzati sono in grado di intervenire sulle competizioni elettorali e sul circuito della responsabilita` politica, allora, la questione investe lo stesso concetto di sovranita` e il cuore del funzionamento del sistema democratico (caso Cambridge Analytica) (61). Ma non si tratta solo di stigmatizzare il pericolo estrinseco di questi sistemi, la sfida uo- mo-algoritmo e` ancor piu` profonda: se l’algoritmo di nuova generazione
(59) L’elencazione e` tratta dallo studio effettuato per ▇▇▇▇▇▇▇▇: SILBERG e ▇▇▇▇▇▇▇, Tackling bias in artificial intelligence (and in humans), Gennaio 2020 in ▇▇▇▇▇://▇▇▇.▇▇▇▇▇- ▇▇▇.▇▇▇/▇▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇/▇▇▇▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇▇▇▇▇/▇▇▇▇▇▇▇▇-▇▇▇▇-▇▇-▇▇▇▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇▇▇▇▇-▇▇▇-▇▇- humans?_lrsc=ła0e2łdf-3dfa-43ł8-9934-5840c21e8719.
(60) Cosı` GROPPI, Alle frontiere dello stato costituzionale: innovazione tecnologica e
intelligenza artificiale, ▇▇▇▇▇://▇▇▇.▇▇▇▇▇▇▇▇.▇▇▇/▇▇▇▇▇/▇▇▇▇▇▇▇.▇▇▇.
(61) Cos`ı GROPPI, Alle frontiere dello stato costituzionale: innovazione tecnologica e intelligenza artificiale, cit., che richiama ▇▇▇▇▇▇▇▇▇, Sovranita` e potere nell’era digitale, in Diritti e liberta` in internet, a cura di ▇▇▇▇▇▇▇, Pollicino, Apa E Bassini, Firenze, 2017, p. 19 ss., spec. p. 23: «Il rule of law, per parte sua, e` messo in crisi dalla emersione di nuovi poteri globali, come i cosiddetti ‘giganti del Big Tech’. Non e` ‘solo’ una questione da affrontare in termini di diritto antitrust (lo e` ‘anche’). Queste big corporations gestiscono infatti una risorsa molto particolare: il nuovo petrolio del XXI secolo, ovvero i big data, vere e proprie miniere di dati che si quantificano con nuove entita` di misura (come gli zettabytes). Essi costituiscono la base grazie alla quale progredisce l’intelligenza artificiale (attraverso un approccio statistico, che consente il machine learning e specialmente il deep learning, pro- cessi che rendono le macchine intelligenti sempre piu` autonome rispetto ai loro creatori), nonche´ di quell’attivita` di profilazione sulla quale si fonda il cd. “capitalismo della sorve- glianza”. Come e` stato detto efficacemente da ▇▇▇▇▇▇ ▇▇▇▇▇▇▇▇▇, “la sovranita` oggi non ha piu` caratteri necessariamente privati o pubblici, personali o collettivi, ma essenzialmente tecnici”. Siamo di fronte a “una nuova forma di potere sovrano – superiorem non recogno- scens – che pone al diritto costituzionale – se vuole mantenere il suo statuto ontologico di ‘misura’ del potere e ‘fondamento’ della sovranita` – una sfida del tutto inedita, richiedendo, innanzitutto, la comprensione del fenomeno e, quindi, l’elaborazione di nuove forme e strumenti d’azione adeguati ed efficaci”».
opera (e operera` sempre di piu` ) seguendo un percorso induttivo-statistico e il suo ragionare non e` tracciabile, ne´ ex post e` comprensibile (la c.d. black box) si pone una questione ontologicamente democratica se e` vero, com’e` vero, che la democrazia e` potere visibile (62); se e` vero che l’algoritmo e`, da un lato, un prodotto commerciale elaborato da aziende che puntano alla massimizzazione del profitto e, dall’altro, sconta possibili bias di dati sporchi, parziali e non funzionali o bias di analisi e di progettazione (con ricadute anche gravissime sul principio di non discriminazione), allora si pongono delicati profili di incisione sui diritti e le liberta` costituzionali (caso ▇▇▇▇▇▇); se e` vero che la potenzialita` di calcolo e di elaborazione dei big data determina un nuovo potere sovrano transnazionale di natura essenzialmente tecnica, allora il diritto costituzionale, che studia la sovra- nita`, ne e` investito sin dalle sue fondamenta in prima persona; se il cuore del costituzionalismo attuale risiede nella concretezza e nel pluralismo (63), allora l’adozione di sistemi che prescindono dal caso concreto e dalle persone umane deve interrogare il ceto dei giuristi, cosı` come ricordato dalla Ministra della Giustizia ▇▇▇▇▇ ▇▇▇▇▇▇▇▇: «sempre piu` frequentemente la Corte costituzionale dichiara l’illegittimita` costituzionale delle disposi- zioni legislative che contengono automatismi, in particolare quando e se sono formulate in modo tale da non permettere al giudice o alla pubblica amministrazione di tenere conto della peculiarita` del caso concreto e di modulare gli effetti della regola in relazione alla peculiarita` della specifica situazione» (64). In altri termini l’effetto congiunto della disintermediazio- ne dell’informazione, la polverizzazione sociale e l’inserimento, spesso surrettizio, nelle dinamiche e scelte individuali dei sistemi di AI portano con se´ un vulnus allo stesso principio di autodeterminazione umana con- sapevole (65) (66). «Detto in altre parole, siamo oggi di fronte a uno squi-
(62) ▇▇▇▇▇▇, Democrazia e segreto, a cura di ▇. ▇▇▇▇▇▇▇, Torino, 2011.
(63) Cos`ı GROPPI, Alle frontiere dello stato costituzionale: innovazione tecnologica e intelligenza artificiale, cit.
(64) CARTABIA, I principi di ragionevolezza e proporzionalita` nella giurisprudenza costi- tuzionale italiana, 2013, pubblicato nel sito della Corte costituzionale.
(65) AINIS, Il regno dell’Uroboro: benvenuti nell’epoca della solitudine di massa, Milano, 2018, pp. 11 ss., rileva che «qui ed oggi la questione dirimente non e` piu` garantire la circolazione delle idee, bens`ı la loro formazione, la loro genuina concezione. Perche´ non siamo piu` liberi di pensare i nostri stessi pensieri, ecco il problema. Crediamo di pensare, ma
in realta` ripetiamo come pappagalli i pensieri altrui. O al limite anche i nostri, pero` am- plificati e deformati, senza verifiche, senza alcun confronto con le opinioni avverse. E`
l’universo autistico in cui siamo rinchiusi anche se per lo piu` non ci facciamo caso. Un universo tolemaico in cui il sole gira attorno la terra – ed e` ognuno di noi, la terra». (66) ABRIANI, Diritto delle imprese e intelligenza artificiale. Dalla Fintech alla Corptech,
cit., rileva che «i primi diritti costituzionalmente rilevanti coinvolti sono sicuramente quello
librio tra potenza (tecnica) e razionalita` (civile e politica), tra forza dei dispositivi tecnico-economici globali e capacita` di governarla secondo il bene comune. Uno squilibrio che sta mandando fuori asse il mondo e che rischia di diventare una vera e propria frattura: di determinare cioe` una forma sociale e politica del mondo e dell’umano inadeguata a contenere ed elaborare la potenza della tecnica che essa stessa ha prodotto» (67).
L’aggressione tanto piu` e` significativa e pericolosa, in quanto incanalata su binari poco trasparenti e, si ripete, surrettizi (68). Avuto riguardo ai valori e agli interessi di rango costituzionali coinvolti, e` stata cosı` sottolineata la ne- cessita` di adottare un principio di precauzione costituzionale che, partendo dall’individuazione dei rischi cui i sistemi di AI espongono questi valori, sia bussola protettiva per gli stessi a difesa dei diritti individuali e collettivi (69).
relativo alla tutela della sfera personale e quello relativo alla connessa tutela dei dati perso- nali, assurdo ha diritto fondamentale autonomo rispetto al primo a seguito della sua consa- crazione nell’articolo 8 della carta dei diritti fondamentali dell’unione europea», stigmatiz- zando «uno scenario nel quale siamo minacciati nella nostra stessa concezione della liberta` elaborata dall’illuminismo e dal liberalismo, risultando evidente che la fonte reale della nostra stessa liberta` sarebbe in sterilita` da un contesto nel quale i desideri e le inclinazioni nel consumo nell’orientamento religioso politico venissero sistematicamente intercettati e sapientemente rielaborati».
(67) Cosi significativamente GROPPI, Alle frontiere dello stato costituzionale: innovazione tecnologica e intelligenza artificiale, cit.
(68) Significativamente D’▇▇▇▇▇, Il diritto verso “il mondo nuovo”. Le sfide dell’Intel- ligenza Artificiale, cit.: «Le potenzialita` del mondo algoritmico si riversano – e non sempre ne siamo perfettamente consapevoli – sulle nostre preferenze e opzioni comportamentali, le anticipano, o forse sarebbe meglio dire che le dettano o le costruiscono, combinando machine learning, big data, scienza comportamentale, tecniche di nudging; come scrive ▇. ▇▇▇▇▇▇, “gli algoritmi nascono da un desiderio di autonomia e liberta`. Tuttavia contribui- scono anche ad assoggettare l’internauta a quella strada calcolata, efficace, automatica, che si adatta ai nostri desideri regolandosi, in segreto, sul traffico altrui”. Quanto siamo liberi di scegliere cosa comprare, ma anche (e qui diventa un delicato problema di democrazia) cosa votare o come pensare? Qual e` il confine tra cio` che chiediamo al software e cio` che ci viene indicato di chiedere? Sul piano costituzionalistico in particolare, non puo` non attirare la nostra attenzione il rischio di microtargeting degli elettori. Puo` influenzare, e in che termini le nostre opinioni politiche? Puo` incidere in qualche modo sulla nostra decisione di andare a votare oppure no? Puo` collocarci piu` o meno inconsapevolmente in gruppi di condivisione di idee e di posizioni politiche (le “filter bubbles” e le “echo ▇▇▇▇▇▇▇▇” di cui parla, nel suo interessante contributo, ▇. ▇▇▇▇▇)? Quale impatto puo` avere tutto questo sulla democrazia elettorale dove a volte poche centinaia di voti possono determinare, tanto per fare un esempio reale non molto lontano nel tempo, l’elezione del Presidente americano? Il caso Cambridge Analytica e` l`ı a dirci che queste preoccupazioni sono qualcosa in piu` di una semplice fantasia».
(69) ▇▇▇▇▇▇▇▇▇▇, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle liberta`, in BioLaw Journal – Rivista di BioDiritto, 2019, 1: «Il vero problema e` che ci troviamo dinanzi ad una condizione di crescente incertezza conoscitiva. Molte delle appli- cazioni che oggi la tecno-scienza puo` produrre sono semplicemente al di la` della nostra comprensione attuale. Questo sta accadendo per una serie molteplice di ragioni: sia perche´
Si e` parlato, a tal riguardo, di un diritto costituzionale ibrido che operi attraverso l’anticipazione della tutela costituzionale (70): lo scenario attuale (e, ancor piu`, quello futuro) richiede che la protezione dei beni costituzionali,
cos`ı come la tutela della liberta` e rispetto della rule of law, vengano progres-
sivamente anticipati rispetto alla messa in produzione delle applicazioni tec- nologiche: in altri termini l’esigenza che la tutela dei valori costituzionali dovrebbe necessariamente realizzarsi con una retrazione delle tutele nel mo- mento in cui il software viene progettato, disegnato e poi realizzato (tutela by design e by default) in modo tale da interiorizzare i valori tutelati dal diritto costituzionale nella stessa progettazione delle macchine; interiorizzazione dei valori che si dovrebbe spingere fino alla formazione ed educazione dei pro- grammatori (tutela by education) attraverso apposite agenzie formative (71). Apri con un’avvertenza fondamentale costituita dalla necessita` che la pro- spettiva del costituzionalismo digitale proceda attraverso una sorta di rigene- razione semantica delle Carte esistenti, i cui parametri sono stati certamente elaborati e formulati in contesti diversi da quelli attuali, ma che sono sicura- mente suscettibili di un’interpretazione evolutiva, consapevoli dei problemi e delle urgenze dell’oggi (72).
la velocita` dell’evoluzione e` ormai troppo superiore ai tempi di applicazione, monitoraggio e valutazione necessari per una effettiva verifica; sia perche´ molte delle potenzialita` applicative sono ancora del tutto sconosciute; sia, infine, perche´ l’impego dell’intelligenza artificiale ci porra` sempre piu` spesso dinanzi a conclusioni o valutazioni estremamente accurate ed effettive, ma delle quali – come esseri umani razionali – non abbiamo la possibilita` di comprendere la logica in termini di nesso “causaeffetto”, amplificando i rischi di quella progressiva sostituzione della causalita` nell’ordine della natura rispetto a all’ordine della liberta`, sui quali ci mette in guardia ▇▇▇▇▇ ▇▇▇▇▇▇ riprendendo ▇▇▇▇▇▇▇▇▇, nel saggio gia` citato. Mi pare, quindi, che ci siano tutte le condizioni per farsi aiutare da un altro settore nel quale da tempo si e` sperimentata la necessita` di elaborare strategie difensive dei diritti individuali e collettivi in condizioni di incertezza conoscitiva: mi riferisco al principio di precauzione elaborato nell’area del diritto dell’ambiente. Potremmo sintetizzare cosı` il principio: la condizione di incertezza a riguardo dei possibili effetti negativi dell’impiego di una tecnologia (inclusa l’intelligenza artificiale) non puo` essere utilizzata come una ragione legittima per non regolare e limitare tale sviluppo».
(70) SIMONICINI e SUWEIS, Il cambio di paradigma nell’intelligenza artificiale e il suo impatto sul diritto costituzionale, in Rivista di filosofia del diritto, VIII, 2019, 1, pp. 87-106.
(71) Per questo motivo la Commissione ha istituito, in rappresentanza di una vasta gamma di portatori di interessi, un gruppo di esperti ad alto livello sull’IA – ▇▇▇▇▇://▇▇.▇▇- ▇▇▇▇.▇▇/▇▇▇▇▇▇▇-▇▇▇▇▇▇-▇▇▇▇▇▇/▇▇/▇▇▇▇-▇▇▇▇▇-▇▇▇▇▇▇-▇▇▇▇▇-▇▇▇▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇▇▇▇▇ –, incaricandolo della stesura di orientamenti etici sull’IA e della redazione di una serie di raccomandazioni per una piu` ampia politica in materia di IA. Allo stesso tempo e` stata istituita l’Alleanza europea per l’IA – ▇▇▇▇▇://▇▇.▇▇▇▇▇▇.▇▇/▇▇▇▇▇▇▇-▇▇▇▇▇▇-▇▇▇▇▇▇/▇▇/▇▇▇▇▇▇▇▇-▇▇-▇▇▇▇▇▇▇▇ –, piat- taforma multilaterale aperta con oltre 2700 membri, per fornire un contributo piu` vasto ai lavori del gruppo di esperti ad alto livello sull’IA.
(72) In termini ▇▇▇▇▇▇▇▇, Mutazioni del diritto: innovazione tecnologica e applicazioni predittive, in Algoritmi ed esperienza giuridica, Ars interpretandi, X, 2021, n. 1.
Volendo rendere l’irresistibile avanzata dell’AI costituzionalmente compatibile, ovvero declinare alcuni indicazioni di principio fondamentali per un’intelligenza artificiale costituzionalmente orientata (73), la dottrina ha identificato alcuni must, che trovano nella disciplina eurounitaria, come vedremo, i primi precipitati regolatori in termini di divieti e di diritti: tra questi vanno certamente segnalati (1) il divieto di ogni automatismo deci- sionale (ovvero il principio di non esclusivita`, in altri termini il diritto ad essere resi consapevoli della natura umana o artificiale del proprio inter- locutore e il diritto ad essere destinatari di decisione che siano il risultato di un processo in cui sia presente una significativa componente umana),
(2) il divieto di discriminazione, (3) il diritto ad ottenere una spiegazione dei passaggi attraverso i quali la macchina ha generato il proprio risultato (quindi il diritto alla motivazione della decisione). Come si vede da queste prime scarne indicazioni, siamo in presenza della necessita` di riconfigurare la rule of law nella societa` algoritmica nella forma di una rule of Technology che sia connotata da una inedita interdipendenza tra principi di diritto pubblico e le regole predisposte dal diritto d’impresa per attuare una serie di tutele rafforzate specifiche al fine di garantire gli stessi obiettivi fissati dal diritto costituzionale (74).
I tempi sono maturi, sperando di non essere gia` ai tempi supplemen- tari. Non e` forse un caso che il 15 gennaio 2022 e` stata depositata al Parlamento francese la proposta di legge costituzionale n. 2585 relativa alla «Charte de l’intelligence artificielle et des algorithmes» (75), che intende riconoscere, sul piano costituzionale, l’applicazione dei meccanismi di In- telligenza Artificiale, quale presupposto essenziale di una moderna societa` digitale, basata sul rispetto dell’uguaglianza, della solidarieta` e della non discriminazione. La Carta, infatti, si pone l’obiettivo di regolamentare qualsiasi «sistema che consiste in un’entita` fisica (ad esempio un robot) o virtuale (ad esempio un algoritmo) e che utilizza l’intelligenza artificiale. La nozione di intelligenza artificiale e` qui intesa come un algoritmo in evoluzione nella sua struttura», osservandosi che tale sistema «e` privo di personalita` giuridica e quindi incapace di essere titolare di diritti soggetti-
vi. Tuttavia, gli obblighi derivanti dalla personalita` giuridica ricadono sulla
(73) GROPPI, Alle frontiere dello stato costituzionale: innovazione tecnologica e intelli- genza artificiale, cit.
(74) Cos`ı ABRIANI, Diritto delle imprese e intelligenza artificiale. Dalla Fintech alla Corp- tech, cit.
(75) ▇▇▇▇▇://▇▇▇.▇▇▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇▇.▇▇/▇▇▇/▇▇/▇▇▇▇▇▇▇▇/▇▇▇▇▇▇_▇▇▇▇▇▇▇▇▇▇▇▇_▇▇▇▇▇▇▇▇▇▇- le_algorithmes.
persona giuridica o fisica che ospita o distribuisce detto sistema, divenen- done di fatto il legale rappresentante». «Qualsiasi sistema e` inizialmente concepito per soddisfare la piena effettiva applicazione degli articoli della Dichiarazione universale dei diritti dell’uomo del 10 dicembre 1948» (76).
7. – Come visto, i sistemi di AI denunciano una mancanza strutturale di democraticita` dell’algoritmo, sottratto ad ogni possibilita` di motivazione po- stuma dell’output e di sua razionale giustificazione; deficit strutturale di trasparenza che e` reso ancor piu` significativo ove si consideri, in primo luogo, che siamo in presenza di una classe di nuovi sacerdoti, novelli scribi digitali della formula algoritmica (77): la progettazione e la sua scrittura e` appannaggio delle scienze ingegneristiche, informatiche e logico-matemati- che, tradotte in “codici sorgente” che non prevede il ricorso al linguaggio naturale (con cui si esprimono le regole e l’argomentazione giuridica), ma in uno dei 2.500 linguaggi informatici disponibili. In secondo luogo va atten- tamente considerata, quale ulteriore elemento di oscurita` del sistema, negato alla trasparenza anche solo postuma, la natura proprietaria del sistemi e le conseguenti privative industriali che li caratterizzano: gli algoritmi sono, prima di tutto, prodotti commerciali, soggetti alle leggi della proprieta` intel- lettuale, protetti dalle aziende produttrici non solo agli occhi dei competitor e dei eventuali malintenzionati volti a “sabotarli”, ma anche alla possibilita` del successivo vaglio in sede giudiziaria. Infine, non puo` non segnalarsi la strut- turale instabilita` e fluidita` di questi sistemi: siamo in presenza di programmi in continua evoluzione (78) e per definizione “instabili”, soggetti a continui aggiornamenti, versioni, integrazioni, pena il loro malfunzionamento o su- peramento, sulla base di nuovi prodotti offerti sul mercato.
Il punto di partenza non puo` che essere questo: code is law (79) ovvero il codice e` legge, l’algoritmo e` regola e l’interfaccia e` interpretazione («Our
(76) BUCCA e PINCI, IA e giustizia: tutto sulle leggi italiane ed europee, in Agenda Digitale, ▇▇▇▇▇://▇▇▇.▇▇▇▇▇▇▇▇▇▇▇▇▇▇.▇▇/▇▇▇▇▇▇▇▇▇/▇▇▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇/▇▇-▇-▇▇▇▇▇▇▇▇▇-▇▇▇▇-▇▇▇▇- no-le-leggi-europee-e-nazionali/.
(77) ▇▇▇▇▇▇▇ e J. ▇▇▇▇▇▇ ▇▇▇, La giustizia digitale. Determinismo tecnologico e liberta`, Bologna, 2021.
(78) ABRIANI, Diritto delle imprese e intelligenza artificiale. Dalla Fintech alla Corptech, cit., nell’illustrare le diverse caratteristiche dei vari tipi di sistema di AI, che vanno dall’in- telligenza aumentata all’intelligenza amplificata sino all’intelligenza autonoma, osserva signi- ficativamente che «l’approdo di questo climax ascendente viene indicato nella “intelligenza autopoietica” che costituirebbe la forma piu` evoluta di intelligenza artificiale in quanto in grado di espandere le sue capacita` decisionali autonomi a settori diversi e non prestabiliti».
(79) LESSIG, Code and Other Laws of Cyberspace, 1999: «La nostra scelta non e` tra “regolamento” e “nessun regolamento”. Il codice regola. Implementa valori, oppure no.
choice is not between “regulation” and “no regulation”. The code regulates. It implements values, or not. It enables freedoms, or disables them. It protects privacy, or promotes monitoring. People choose how the code does these things. People write the code. Thus the choice is not whether people will decide how cyberspace regulates. People—coders—will. The only choice is whether we collectively will have a role in their choice—and thus in determining how these values regulate—or whether collectively we will allow the coders to select our values for us»). Il problema e`, pero`, come regolamentare una realta` multiforme, forte di una sua koine´ numerico- grafica che e`, al contempo, apolide e globale (sicche´ ogni ipotesi di rego- lazione statale e` destinata a rimanere inascoltata e disapplicata), in conti- nuo divenire, essendo per definizione instabile (sicche´ il rischio di obsole- scenza della norma e` altissimo e immanente all’evoluzione ininterrotta della tecnologia), protetta da privative industriali e presidiata da un enor- me potere fattuale di autoimposizione nella vita economica, sociale e per- sonale (sicche´ ogni ipotesi di isolata regolamentazione autoritativa rischia di essere consegnata alla irrilevanza sociale). Parimenti, bisogna prendere atto di come le forme di self-regulation – ovvero di autoregolazione privata attraverso l’individuazione da parte degli stessi destinatari delle regole di principi e indirizzi, di natura principalmente etica, da tenere presente in occasione della progettazione e programmazione di sistemi intelligenti – sono risultate, se non fallimentari, comunque poco efficaci per affrontare le criticita` in esame (80); senza omettere di rilevare l’efficacia solo indica- tiva e parziale che puo` rivestire un intervento regolatorio di natura pret- tamente etica, sprovvisto, com’e`, di un adeguato sistema sanzionatorio che ne garantisca l’effettivita` e il rispetto. L’esperienza nazionale e internazio- nale di questi ultimi decenni ha dimostrato come tanto gli interventi di etero-regolazione pubblica da parte i soggetti internazionali, europei, na- zionali, regionali e locali, quanto i tentativi di autoregolazione da parte delle grandi imprese di IT, ovvero il c.d. GAFAM, non riescono isolata-
mente a realizzare efficacemente gli obiettivi prescelti (81). E` , ormai, evi-
▇▇▇▇▇▇▇ le liberta`, o le disabilita. Protegge la privacy o promuove il monitoraggio. Le persone scelgono come il codice fa queste cose. Le persone scrivono il codice. Quindi la scelta non e` se le persone decideranno come regolamentare il cyberspazio. Le persone, i programmatori, lo faranno. L’unica scelta e` se collettivamente avremo un ruolo nella loro scelta – e quindi nel determinare come questi valori regolano – o se collettivamente consentiremo ai pro- grammatori di selezionare i nostri valori per noi».
(80) ▇▇▇▇▇▇▇▇▇, Verso la regolamentazione della Intelligenza Artificiale. Dimensioni e governo, in BioLaw Journal, Rivista di BioDiritto, 2021, 2.
(81) ▇▇▇▇▇▇▇▇▇, Verso la regolamentazione della Intelligenza Artificiale. Dimensioni e
dente che l’unica strada possibile e` quella di una governance algoritmi- ca (82) di co-regolazione, ovvero il ricorso a forme miste di auto/etero normazione che individui un mix di regole destinate tra di loro ad inte- grarsi, tenendo conto dei limiti di ciascun strumento regolatorio. Tali interventi dovranno caratterizzarsi per un contenuto regolatorio propor- zionato al valore e alla caratura degli interessi giuridicamente rilevanti, segnatamente all’importanza dei valori costituzionali attinti dai sistemi di intelligenza artificiale, dovendosi quindi garantire un’intensita` normativa – quanto al contenuto della regolazione stessa – che sappia dosare sia norme di divieto assoluto che di liceita`, insieme ad un corpus di prescrizioni, per
cos dire, intermedie che ammetta il ricorso a certe tecnologie purche´
rispettino determinate condizioni (83) (84). Secondo tale condivisibile im- postazione l’approccio regolatorio piu` corretto e suscettibile di positivi sviluppi e` quello basato sull’analisi del rischio, nel qual caso la regola potra` e dovra` essere strutturata in termini di liceita`, di divieto ovvero di
governo, cit., osserva significativamente come il GDPR in materia di tutela dei dati personali, entrata in vigore sin dal 2016, contenesse una norma – ovvero l’articolo 22 sul diritto dell’interessato di non essere sottoposto a decisione basata unicamente su trattamento auto- matizzato che produce effetti giuridici che lo riguardano o che incide in modo analogo significativamente sulla sua persona – che, nonostante la previsione chiara e netta (di imposizione di un divieto di utilizzo della decisione automatizzata), nella pratica abbia dimostrato di avere un impatto concreto significativamente relativo a causa delle eccezioni molto ampie previste nello stesso art. 22 GDPR, ma soprattutto in quanto non si e` consi- derato che, anche quando l’intervento delle tecnologie di intelligenza artificiale si proponga come mero agente ausiliare dell’essere umano e non sostitutivo, di fatto la decisione umana rischia comunque di esserne catturata in virtu` della forza pratica dei sistemi tecnologici, ovvero per mera convenienza pratica di essere sollevati dalla fatica della scelta e della motivazione.
(82) ▇▇▇▇▇, L’algoritmo giuridico e le sue algo-regole, in La nuova proc. civ., 2021, 1.
(83) Si richiamano, in tal senso, le condivisibili riflessioni di ▇▇▇▇▇▇▇▇▇, Verso la rego- lamentazione della Intelligenza Artificiale. Dimensioni e governo, cit.
(84) «La domanda principale non e` costituita dall’an ma dal quantum di regolamenta- zione ossia da quel principio di proporzionalita` che esige di ridimensionare la portata delle regole al fine di trovare un punto di equilibrio tra interessi confliggenti (…). In tal senso, si avverte la necessita` che il diritto “guidi” e “orienti” la tecnologia, onde permetterle di percorrere binari rispettosi di un sistema assiologico di valori riflesso nelle costituzioni degli stati moderni e nei trattati internazionali. Affinche´ tale missione sia portata a compimento, pero`, non e` sufficiente (ne´ forse, a rigore, e` necessaria) un’opera di rivisitazione delle garanzie costituzionali dei diritti fondamentali; occorre, invece, una puntuale verifica circa le norme dell’ordinamento positivo e la loro perdurante abilita` a riflettere alcuni principi ispiratori che ne giustificano la collocazione all’interno del sistema delle fonti. Il diritto deve pertanto regolare la tecnologia, cos`ı da condizionarne virtuosamente il funzionamento, declinandolo al perseguimento delle finalita` sottese all’azione di legislatori e regolatori»: cosı` in AI: profili giuridici Intelligenza artificiale: criticita` emergenti e sfide per il giurista, a cura di ▇▇▇▇▇, Bassini, ▇▇ ▇▇▇▇▇▇▇▇, ▇▇▇▇▇▇▇, ▇▇▇▇▇, ▇▇▇▇▇▇▇▇▇, Quattrocolo, ▇▇▇▇▇▇▇ e Sirena, in BioDiritto, 2019, 2.
possibilita` di utilizzazione a certe condizioni alla luce della probabilita` del verificarsi del danno, ovvero del rischio che il tenere un dato com- portamento realizzi una probabilita` di compromissione di un certo valore da proteggere. Questa prospettiva e` stata, come vedremo, spo- sata dal diritto unionale con la nuova Proposta di regolamento sui sistemi intelligenza artificiale: piuttosto che il ricorso ad un sistema di tutele successive – limitate a stabilire ex post quali conseguenze derivino dalla violazione di certe norme – si e` inteso, invece, porre regole di protezione preventiva, funzionali a ridurre ovvero azzerare la probabi- lita` stessa delle violazioni, richiedendo – al fine di consegnare una patente di liceita` di una certa condotta – l’adozione di comportamenti e adempimenti preventivi. Tale prospettiva – perfettamente coerente con quanto sopra osservato in punto di necessita` che si intervenga preventivamente sulla formazione dei programmatori e sulla individua- zione di doveri, cautele, valori e indirizzi etici da internalizzare nella fase della programmazione e progettazione del software – richiede una cooperazione tra piu` enti pubblici e privati a livello globale (85) ovvero
(85) Osserva VENANZONI, La valle del perturbante: il costituzionalismo alla prova delle intelligenze artificiali e della robotica, in Politica del diritto, 2019, 2, pp. 237-280: «Porre le basi di un costituzionalismo che inglobi nella sua narrazione anche IA e robot, come semi- soggetti cui riconoscere pretese, diritti, doveri e responsabilita`, non significa voler tracciare una linea oscura puntata verso un orizzonte distopico; significa, molto piu` semplicemente, prendere atto della complessita` stordente della socialita` ibrida, in cui silicio e carne, anima e processori, sono incistati in maniera ormai indistinguibile, e arrivare alla conclusione per cui qualunque regolazione costituzionale che inglobi anche la macchina intelligente e` presidio innanzitutto dell’umano. Cio` che va costituzionalizzato e` quindi il sistema complesso, a network, che assomma progettazione, realizzazione, output finale, elementi intersezionali e integrativi tra uomo e macchina, e ipostatizzi l’ambiente complesso risultante da questi incistamenti. Ma soprattutto, al fine di costituzionalizzare davvero le spinte propulsive della robotica, e` necessario che il potere costituente sia innervato nel momento alfa della pro- gettazione e della realizzazione; (...) i forum ibridi transnazionali chiamati a governare e a garantire i diritti fondamentali degli ecosistemi complessi composti da umani e non umani dovrebbero, come per altro sta avvenendo con le prime risoluzioni e dichiarazioni sulla robotica, porre l’accento sulla responsabilizzazione, in chiave etica, della progettazione dei robot, sul riconoscimento di diritti ai robot stessi e sulla rimodulazione dei diritti fonda- mentali declinati in chiave di integrazione socio-tecnica tra uomo e macchina L’idea orga- nizzativa dovrebbe muovere da una federazione transnazionale di network, anche sotto l’egida dell’ONU, chiamati a rappresentare mediante la formula del portavoce i diritti integrati del nuovo ambiente uomo/macchina: di questi network sarebbero parte integrante l’imprenditoria, gli Stati, l’associazionismo civile, i soggetti non-statali, i sindacati, ciascuno chiamato a nominare suoi rappresentanti e soggetti che avrebbero la funzione di portavoce nel senso attantico del termine. I network avrebbero come base di partenza i documenti, le risoluzioni, le carte elaborate o in corso di elaborazione nei vari Paesi, estraendone i punti concettuali comuni, soprattutto in termini garantistici per i diritti fondamentali. Vi sareb- bero due linee di azione; una interna al singolo Paese mediante la regolazione settoriale e
un approccio multistakeholders (86), dovendosi concludere, sul punto, che «la regolamentazione dell’intelligenza artificiale dovra` necessaria- mente utilizzare un registro normativo a geometria variabile capace di adeguarsi alle diverse dimensioni del problema, di cui l’esigenza di un vero e proprio sistema di governo delle opzioni regolatorie che possa allocare razionalmente le fonti di regolazione al fine di massimizzare la tutela dei diritti e delle liberta` nei confronti di queste utilissime ma rischiose nuove tecnologie» (87).
Risulta evidente, come, sullo sfondo del dibattito giuridico in corso, vi sia l’interrogativo relativo al se le attuali norme giuridiche siano sufficienti per regolamentare la robotica o, il contrario, se sia necessario creare regole specifiche (88), essendosi, voi condivisibilmente, compreso che «occorre virgola in primo luogo, individuare gli ordini di conflitti a cui dal luogo l’utilizzo dei robot, anche in considerazione della relativa differenziazione in termini di catalogazione identificativa; rapportare, poi, le questioni cosı` evidenziate con le “ravvisate” regole date; saggiare, infine, la “eventuale” riferibilita` (o, comunque adattabilita`) e, dunque, e la possibile applicazione di regolamentazioni (gia`) sussistenti alle specifiche problematiche del set- tore indagato punto in alternativa, relativamente all’ultimo dei passaggi segnalati, si tratta di provvedere alla predisposizione di nuove discipline, appropriate in ragione della specificita` e della particolarita` delle questioni sollevate» (89).
8. – L’esigenza di una risposta regolatoria ad un fenomeno cosı` inva- sivo ha trovato distinte reazioni negli ordinamenti giuridici: dagli estremi dell’approccio tecno-libertario statunitense (incentrato sulla primazia del libero mercato tecnologico e dunque del libero esercizio del potere tecno- logico ed economico) e dell’opzione cinese (di un pervasivo controllo statale sulle tecnologie) (90), il percorso europeo si differenzia e caratte- rizza per l’obiettivo dichiarato di individuare soluzione finalizzata all’in-
quella costituzionale singolonazionale, con un adeguamento ermeneutico all’ambiente ibrido delle proprie carte costituzionali, e l’altra federativa transnazionale».
(86) Si rinvia a AI: profili giuridici Intelligenza artificiale: criticita` emergenti e sfide per il giurista, a cura di ▇▇▇▇▇, Bassini, ▇▇ ▇▇▇▇▇▇▇▇, ▇▇▇▇▇▇▇, ▇▇▇▇▇, ▇▇▇▇▇▇▇▇▇, ▇▇▇▇▇▇▇▇▇▇▇, ▇▇▇▇▇▇▇ e Sirena, in BioDiritto, 2019, 2.
(87) Cosı` conclude ▇▇▇▇▇▇▇▇▇, Verso la regolamentazione della Intelligenza Artificiale. Dimensioni e governo, cit.
(88) In termini v. G. DI ROSA, Quali regole per i sistemi automatizzati intelligenti?, in
Riv. dir. civ., 2021, 5.
(89) In termini v. G. DI ROSA, Quali regole per i sistemi automatizzati intelligenti?, cit. (90) CASONATO e ▇▇▇▇▇▇▇▇▇, Prime osservazioni sulla proposta di regolamento dell’u-
troduzione di regole conformi a parametri di equita`, antropocentrismo e solidarieta`, quale linea di mediazione tra le esigenze di promozione del- l’integrazione del mercato digitale europeo a livello globale e i valori fondanti le tradizioni costituzionali dell’Unione e degli Stati membri (91): soluzione che si propone di rappresentare una sorta di gold standard mondiale (92).
La normativa europea gia` da anni prova a fornire le prime risposte regolatorie secondo una normazione, principalmente per principi, nella consapevolezza che, cosı` come tanti e ancora poco approfonditi sono i rischi, infiniti sono, al contempo, i benefici che possono derivare dall’a- dozione di sistemi di AI. L’approccio regolatorio europeo, in tal senso, e` espressamente proteso a creare fiducia nell’AI in un’ottica antroprocen- trica e mostra di volere raccogliere la nuova sfida di civilta` e tra civilta` in corso, sfida dagli esiti imprevedibili (93). Il quadro di riferimento eurou- nitario, non a caso, si e` mosso negli anni lungo un crinale che investe tanto l’ambito strettamente etico, quanto quello strettamente normativo. Pensia- mo alla Dichiarazione di cooperazione sull’intelligenza artificiale (firmata da 25 paesi europei il 10 aprile 2018, che si basa sui risultati e sugli investimenti della comunita` europea della ricerca e delle imprese nell’IA e stabilisce le basi per il Piano coordinato sull’IA), alla Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi (adottata dalla CEPEJ nel corso della sua 31a Riunione plenaria di Strasburgo, 3-4 dicembre 2018), alle Linee guida etiche “Creare fiducia nell’intelligenza artificiale antropocentrica” pubblicate l’8 aprile 2019, al
nione europea in materia di intelligenza artificiale, in Biolaw Journal – Rivista di Biodiritto, 2021, 3.
(91) Per una puntuale ricostruzione del panorama europeo in materia voi e delle soluzioni adottate con particolare riferimento alla materia della responsabilita` civile da utilizzo di sistemi l’intelligenza artificiale si v. ALPA, Quale modello normativo europeo per l’intelligenza artificiale?, in questa rivista, 2021, 4.
(92) ABRIANI, Diritto delle imprese e intelligenza artificiale. Dalla Fintech alla Corptech, cit., richiama il c.d. effetto Bruxelles.
(93) ▇▇▇▇▇▇▇ – attualmente Presidente dell’U.S. National Security Commission on Arti- ficial Intelligence (NSCAI) e, in passato Ceo di Google ed ffxecutive Chair di Alphabet – in una recente intervista – ▇▇▇▇▇://▇▇▇.▇▇▇▇▇▇▇▇.▇▇/▇▇▇▇▇▇▇/▇▇-▇▇▇▇▇▇-▇▇▇▇▇-▇▇▇▇-▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇- tech-not-big-enough-to-compete-with-china-alone/ – ha, senza mezzi termini, predetto il fal- limento della via europea di normare lo sviluppo dell’AI, stigmatizzando l’approccio utopi- stico dell’human-centric and privacy-friendly way: la tecnologia europea “not big enough” non avra` successo nel cercare la sua terza via e per competere da sola con la Cina. Si rinvia per un’analisi critica della nuova proposta di regolamento a ▇▇▇▇▇://▇▇▇.▇▇▇▇▇▇▇▇▇▇▇▇▇▇.▇▇/ cultura-digitale/lintelligenza-artificiale-ue-puo-essere-davvero-antropocentrica-tutti-i-motivi- per-dubitarne/.
“Rapporto sulla responsabilita` per l’Intelligenza Artificiale e altre tecnolo- gie emergenti” del Gruppo di esperti sulla responsabilita` e le nuove tec- nologie, pubblicato il 21 novembre 2019, alla consultazione pubblica sul Libro Bianco sull’Intelligenza Artificiale (COM 2020) 65 final del 19 febbraio 2020 e, infine, alle recente Proposta di Regolamento UE com206/21 aprile 2021.
Forte delle Linee Guida Etiche adottate del 2019, la Commissione Europea con “Creare fiducia nell’intelligenza artificiale antropocentrica” dell’8 aprile 2019 – (COM (2019) 168 final (94) – ha fornito un quadro di riferimento di sicuro significato politico-istituzionale, sottolineando i benefici che l’AI puo` apportare (95) con l’impegno di promuovere la cooperazione transfrontaliera e mobilitare tutti gli attori per aumentare gli investimenti pubblici e privati ad almeno 20 miliardi di EUR l’anno nei prossimi dieci anni. Ha individuato l’obiettivo politico-istituzionale nel
«creare fiducia nell’AI» ovvero «condizione indispensabile per assicurare un approccio antropocentrico all’IA: l’intelligenza artificiale non e` fine a se´ stessa, ma e` uno strumento a servizio delle persone che ha come fine ultimo quello di migliorare il benessere degli esseri umani. Per questo occorre garantire l’affidabilita` dell’IA. I valori su cui si basano le nostre societa` devono essere pienamente integrati nelle modalita` di sviluppo del- l’IA. La tecnologia dell’IA dovrebbe invece essere sviluppata in modo da porre al centro l’essere umano e permetterle di conquistare la fiducia del pubblico. Di conseguenza, le applicazioni di IA dovrebbero non solo rispettare la legge, ma anche osservare i principi etici e garantire che le loro attuazioni pratiche non comportino danni indesiderati. La diversita` in termini di sesso, razza o origine etnica, religione o convinzioni personali, disabilita` ed eta` dovrebbe essere garantita in ogni fase dello sviluppo dell’IA. Le applicazioni di IA dovrebbero dare potere alle persone e rispettarne diritti fondamentali; dovrebbero puntare a rafforzare le capa- cita` dei cittadini, non a sostituirsi a loro, e consentire l’accesso anche alle persone con disabilita`. Vi e` quindi la necessita` di elaborare orientamenti
(94) ▇▇▇▇▇://▇▇▇-▇▇▇.▇▇▇▇▇▇.▇▇/▇▇▇▇▇-▇▇▇▇▇▇▇/▇▇/▇▇▇/?▇▇▇▇▇▇▇▇▇▇▇%▇▇▇▇▇▇▇▇▇▇▇▇▇.
(95) «L’intelligenza artificiale (IA) puo` trasformare il nostro mondo in positivo: puo` migliorare l’assistenza sanitaria, ridurre il consumo di energia, rendere le automobili piu` sicure e consentire agli agricoltori di utilizzare le risorse idriche e naturali in modo piu` efficiente. L’IA puo` essere utilizzata per prevedere i cambiamenti ambientali e climatici, migliorare la gestione dei rischi finanziari e fornire gli strumenti per fabbricare con minor spreco prodotti su misura per le nostre esigenze; puo` anche contribuire a intercettare le frodi e le minacce di cibersicurezza e consente alle forze dell’ordine di lottare piu` efficace- mente contro la criminalita`».
etici basati sul quadro normativo esistente e che dovrebbero essere appli- cati da sviluppatori, fornitori e utenti dell’IA nel mercato interno, stabi- lendo condizioni di parita` sul piano etico in tutti gli Stati membri». Di particolare interesse sono le direttrici individuate, partendo dal presuppo- sto che per ottenere un’“intelligenza artificiale affidabile” sono necessari tre elementi: 1) l’IA dovrebbe rispettare la legge; 2) dovrebbe osservare i principi etici e 3) dovrebbe dimostrare robustezza: sulla base di questi tre elementi e dei valori europei, gli orientamenti individuano sette requisiti fondamentali che le applicazioni di IA dovrebbero soddisfare per essere considerate affidabili. Gli orientamenti contengono anche una lista di controllo che aiuta a verificare nella pratica se tali requisiti sono soddi- sfatti. I sette requisiti fondamentali sono: intervento e sorveglianza umani, robustezza tecnica e sicurezza, riservatezza e governance dei dati, traspa- renza, diversita`, non discriminazione ed equita`, benessere sociale e am- bientale, accountability.
9. – La Carta etica europea sull’utilizzo dell’intelligenza, adottata il 4 dicembre 2018 dalla Commissione europea per l’efficacia della giustizia (CEPEJ) del Consiglio d’Europa, si e` mossa nell’ottica di sviluppare una nozione di intelligenza artificiale affidabile anche in tal caso puntando alla internalizzazione nelle tecnologie di intelligenza artificiale di valori etici e di diritti fondamentali.
La Carta individua cinque principi necessari al fine di poter permet- tere l’applicazione di tali tecnologie nei sistemi giudiziari.
In primo luogo il principio del rispetto dei diritti fondamentali: il trattamento delle decisioni e dei dati giudiziari dovra` avere finalita` chiare, che rispettino i diritti fondamentali garantiti dalla CEDU e dalla Conven- zione sulla protezione delle persone rispetto al trattamento automatizzato di dati di carattere personale. Quando gli strumenti di intelligenza artifi- ciale sono utilizzati per dirimere una controversia, per fornire supporto nel processo decisionale giudiziario, o per orientare il pubblico, e` essenziale assicurare che essi non minino le garanzie del diritto di accesso a un giudice e del diritto a un equo processo (parita` delle armi e rispetto del contraddittorio). Essi dovrebbero essere utilizzati anche con il dovuto rispetto per i principi dello stato di diritto e dell’indipendenza dei giudici nel loro processo decisionale. Si dovrebbero quindi privilegiare gli approc- ci etico-fin dall’elaborazione.
In secondo luogo, il principio di non-discriminazione al fine di preve- nire in maniera specifica qualsiasi intensificazione o sviluppo di forme di discriminazione tra persone o gruppi di persone. Deve essere esercitata
una particolare vigilanza sia nella fase dell’elaborazione che in quella del- l’utilizzo, specialmente quando il trattamento si basa direttamente o indi- rettamente su dati “sensibili”. Essi possono comprendere l’origine razziale o etnica, le condizioni socio-economiche, le opinioni politiche, la fede religiosa o filosofica, l’appartenenza a un sindacato, i dati genetici, i dati biometrici, i dati sanitari o i dati relativi alla vita sessuale o all’orientamen- to sessuale. Quando e` individuata una di queste discriminazioni, devono essere previste le misure correttive al fine di limitare o, se possibile, neu- tralizzare tali rischi e sensibilizzare gli attori. Dovrebbe tuttavia essere incoraggiato l’utilizzo dell’apprendimento automatico e delle analisi scien- tifiche multidisciplinari, al fine di contrastare tali discriminazioni.
In terzo luogo viene sottolineata l’importanza del principio di qualita` e sicurezza, richiedendosi l’utilizzo di tecnologie adeguate, la costituzione di squadre di progetto miste, per brevi cicli di elaborazione, al fine di pro- durre modelli funzionali e` uno dei metodi organizzativi che permettono di ottenere il meglio da tale approccio multidisciplinare, la necessita` che le fonti siano certificate e che sia possibile operare in un ambiente tecnolo- gico sicuro. I dati che vengono inseriti in un software che si basa su un sistema di machine learning dovrebbero provenire da fonti registrate e rimanere invariati fino al momento in cui verranno elaborate dal calcola- tore. Deve inoltre essere possibile tracciare l’intero processo di elabora- zione di questi dati in modo che si possa garantire che il significato della decisione trattata non sia stato modificato in nessun modo che ne abbia potuto alterare il contenuto.
In quarto luogo il principio di trasparenza, imparzialita` ed equita`: deve essere raggiunto un equilibrio tra la proprieta` intellettuale di alcune me- todologie di trattamento e l’esigenza di trasparenza (accesso al processo creativo), imparzialita` (assenza di pregiudizi), equita` e integrita` intellettua- le (privilegiare gli interessi della giustizia) quando si utilizzano strumenti che possono avere conseguenze giuridiche, o che possono incidere signi- ficativamente sulla vita delle persone. Dovrebbe essere chiaro che tali misure si applicano all’intero processo creativo, cosı` come alla catena operativa, in quanto la metodologia di selezione e la qualita` e l’organizza- zione dei dati influenzano direttamente la fase dell’apprendimento.
Infine, il principio del “controllo da parte dell’utilizzatore”: l’utilizzo di strumenti e servizi di intelligenza artificiale deve rafforzare e non limi- tare l’autonomia dell’utilizzatore. I professionisti della giustizia dovrebbero essere in grado, in qualsiasi momento, di rivedere le decisioni giudiziarie e i dati utilizzati per produrre un risultato e continuare ad avere la possibilita` di non essere necessariamente vincolati a esso alla luce delle caratteristiche
specifiche di tale caso concreto. L’utilizzatore deve essere informato con un linguaggio chiaro e comprensibile del carattere vincolante o meno delle soluzioni proposte dagli strumenti di intelligenza artificiale, delle diverse possibilita` disponibili, e del suo diritto di ricevere assistenza legale e di accedere a un tribunale. Deve inoltre essere informato in modo chiaro di qualsiasi precedente trattamento di un caso mediante l’intelligenza artifi- ciale, prima o nel corso di un procedimento giudiziario, e deve avere il diritto di opporvisi, al fine di far giudicare il suo caso direttamente da un tribunale ai sensi dell’art. 6 della CEDU.
In conclusione sul punto, pur non dovendosi sottovalutare l’impatto, quanto meno a livello di moral suasion dell’individuazione di regole etiche, espressione di soft law, non di meno non puo` non rilevarsi come si sia in presenza di mere raccomandazioni ai produttori, prive di vincolativita` che sollevano notevoli problemi, sia in quanto «non contengono indicazioni pratiche su come applicare i requisiti enunciati e quindi su come tutelare effettivamente i diritti fondamentali dalle stesse enunciate», sia in quanto
«un approccio incentrato solo su principi e finalita` generali non risulta in grado di affrontare i problemi concreti connessi a un design non etico e ha un utilizzo improprio di strumenti di intelligenza artificiale» (96); non e` un caso che il Parlamento europeo (nella Risoluzione per un quadro etico per l’intelligenza artificiale la robotica e le tecnologie connesse) (97) ha sotto- lineato come i principi etici condivisi siano efficienti solo se declinati in regole giuridiche con una preventiva e puntuale identificazione dei sog- getti tenuti a garantire valutare e supervisionare il rispetto dei relativi precetti normativi.
10. – La Commissione europea, consapevole dell’insufficienza delle normative europee esistenti (quali quelli in materia di tutela del diritto
(96) Significativamente ABRIANI, Diritto delle imprese e intelligenza artificiale. Dalla Fin- tech alla Corptech,cit., che richiama le esperienze – spesso fallimentari (si veda il caso del comitato di consulenza esterna per uno sviluppo responsabile dell’intelligenza artificiale costituito presso Google nel Marzo 2019 e che dopo solo una settimana venne rimosso per le proteste dei dipendenti rispetto all’orientamento anti LGBT di uno dei componenti del comitato) – di alcune imprese digitali che hanno emanato (principalmente per scopi reputazionali, come osserva l’a.) proprie linee guida etiche, adottando codici di condotta o carte etiche ovvero costituendo dei comitati etici per l’intelligenza artificiale destinati alla supervisione al monitoraggio dei profili etici degli strumenti adottati all’interno dell’impresa.
(97) Risoluzione del Parlamento europeo del 20 ottobre 2020, recante raccomandazioni alla Commissione concernenti il quadro relativo agli aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologie correlate (2020/2012(INL), ▇▇▇▇▇://▇▇▇.▇▇▇▇▇▇▇▇.▇▇▇▇- ▇▇.▇▇/▇▇▇▇▇/▇▇▇▇▇▇▇▇/▇▇-▇-▇▇▇▇-▇▇▇▇_▇▇.▇▇▇▇.
di non discriminazione, di sicurezza dei prodotti di protezione del consu- matore, di trattamento di dati personali da parte delle autorita` pubbliche) (98), ha pubblicato il 21 aprile 2021 la proposta di regolamento sull’ap- proccio europeo all’Intelligenza Artificiale [COM (2021) 206 final], inti- tolato «il regolamento del Parlamento europeo e del Consiglio che stabilisce norme armonizzate in materia di intelligenza artificiale e che modifica alcuni atti legislativi dell’Unione» che si propone come primo quadro giuridico europeo sull’IA e prevede, a tal fine, anche un nuovo piano coordinato sull’Intelligenza Artificiale 2021 [COM (2021) 205 final] che rafforzi nel contempo l’adozione dell’IA e gli investimenti e l’innovazione nel settore in tutta l’UE (99). Com’e` stato osservato da autorevole dottrina la Com- missione europea individua «due aree di intervento principali: la prima connessa alla riforma di regole gia` esistenti in particolare in materia di sicurezza dei prodotti e di protezione dei dati personali; la seconda volta l’introduzione di nuove norme specificamente relative alla fase di adde- stramento dei sistemi di intelligenza artificiale e di tenuta dei dati e dei registri, alla trasparenza e alla precisione degli stessi sistemi, alla sorve- glianza umana, integrate da prescrizioni specifiche per alcune tipologie di intelligenza artificiale considerate particolarmente rischiose» (100).
(98) PAGALLO, Intelligenza artificiale e diritto. Linee guida per un oculato intervento normativo, Sistemi intelligenti, anno XXXIX, n. 3, dicembre 2017, rilevava, qualche anno prima dell’approvazione della nuova proposta di regolamento europeo sui sistemi di intel- ligenza artificiale, come il quadro normativo nel diritto unionale presentasse una fitta schiera di norme primarie caratterizzate da un duplice inconveniente, ovvero, per un verso l’assenza di un coerente unico quadro legislativo di disciplina del campo della progettazione, costru- zione e uso di sistemi di intelligenza artificiale, e, per altro verso, l’inadeguatezza della disciplina normativa stessa ad affrontare le relative sfide giuridiche, tenendo conto sia della necessita` di non soffocare lo sviluppo tecnologico sia della impossibilita` di un intervento normativo esaustivo che non sappia tenere conto di come il sistema regolativo del diritto compete sempre con altri sistemi regolativi, quali le forze del mercato, le norme sociali e la tecnologia stessa.
(99) ▇▇▇▇▇▇▇▇, Intelligenza Artificiale, il nuovo quadro normativo europeo, https:// ▇▇▇.▇▇▇▇▇▇▇.▇▇▇/▇▇▇▇▇▇▇▇▇/▇▇▇▇/▇▇▇▇/▇▇/▇▇/▇▇▇▇▇▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇▇▇▇-▇▇▇▇▇-▇▇▇▇▇▇-▇▇▇▇▇▇▇- vo-europeo osserva che, nel medesimo giorno di uscita della proposta di Regolamento, la Commissione ha «anche proposto un “Piano coordinato di revisione dell’intelligenza arti- ficiale 2021”, che pone le basi affinche´ la Commissione e gli Stati membri collaborino nell’attuazione di azioni congiunte ed eliminino la frammentazione dei programmi di finan- ziamento, delle iniziative e delle azioni intraprese a livello dell’UE e dei singoli Stati membri, nonche´ il ““Regolamento del Parlamento europeo e del Consiglio relative alle macchine”, che dovrebbe sostituire la direttiva 2006/42/CE del 17 maggio 2006 relativa alle macchine, che garantisce la libera circolazione delle macchine all’interno del mercato UE ed assicura un alto livello di protezione per gli utenti e altre persone esposte».
(100) ABRIANI, Diritto delle imprese e intelligenza artificiale. Dalla Fintech alla Corp- tech, cit.
Cio` che mette conto, in primo luogo, osservare e` che si sia optato per l’adozione del regolamento in luogo della direttiva, analogamente a quanto gia` avvenuto col GDPR per la disciplina in materia di protezione dei dati, al fine di porre un quadro di regole vincolanti e uniformi per tutti i paesi dell’unione, salvo a mantenere alcuni margini di manovra per i singoli Stati membri, nonche´ prevedendo meccanismi di aggiornamento della discipli- na, necessari in considerazione della difficolta` di normare le tecnologie innovative caratterizzate da sviluppi incessanti che rendono rapidamente obsoleta qualsiasi disciplina volta a regolarla (101). Peraltro la piena con- sapevolezza della necessaria flessibilita` della normativa emerge anche dalla espressa previsione di commissioni e comitati ai quali vengono demandati compiti di verifica di conformita` e di valutazione dei problemi derivanti dall’applicazione pratica dei sistemi ad alto rischio nonche´ dall’avere pre- visto specificatamente un obbligo generale di revisione del regolamento a cinque anni dalla sua entrata in vigore e, successivamente, con cadenza quinquennale.
Quanto all’applicazione del principio della minimizzazione, ovvero meglio, di proporzionalita` del rischio connesso all’adozione di sistemi di intelligenza artificiale – da declinarsi secondo una logica di progressiva e proporzionale per la quale occorre prevedere meccanismi adattativi e commisurati dell’intervento regolatorio rispetto al pericolo di compromis- sione dei diritti e delle liberta` – vengono individuate regole valevoli per tutti gli Stati membri, caratterizzate da un approccio secondo la logica della valutazione adeguata sia al tipo di sistema di I.A. che al rischio di lesione dei diritti fondamentali derivante dal suo utilizzo, o per il settore in cui si applica, o per le modalita` e tecniche utilizzate (102). Quale soluzione risulta, in primo luogo, particolarmente apprezzabili in quanto i sistemi l’intelligenza artificiale comprendono una pluralita` di tecniche e applica- zioni tra di loro molto distanti, caratterizzate da gradi variabili di auto- nomia, imprevedibilita` e trasparenza e il cui utilizzo porta risultati poten- zialita` e rischi anch’essi assai vari, sicche´ l’intervento normativo non poteva che proporsi secondo direttrici di elasticita`, proporzionalita`, modificabilita` successiva.
(101) Cosı` CASONATO e ▇▇▇▇▇▇▇▇▇, Prime osservazioni sulla proposta di regolamento dell’unione europea in materia di intelligenza artificiale, cit.
(102) Per una valutazione critica dell’impostazione seguita dal legislatore europeo, definita inadeguata e anacronistica si rinvia alle considerazioni di ABRIANI, Diritto delle imprese e intelligenza artificiale. Dalla Fintech alla Corptech, cit.
Sono cosı` segnalati quattro livelli di rischio: (1) inaccettabile, con divieto generale di applicazione (sistemi che manipolano il comportamento umano, con tecniche subliminali; sistemi volti ad attribuire un punteggio sociale da parte dei governi sui comportamenti e le manifestazioni del pensiero dei cittadini; sistemi che sfruttano la vulnerabilita` di persone per l’eta` o la disabilita`; pratiche biometriche di identificazione in luoghi aperti al pubblico; per queste ultime, tra cui rientrano i sistemi di ricono- scimento facciale, l’applicazione e` pero` consentita per esigenze di pubblica sicurezza indicate nel regolamento, previa autorizzazione rilasciata dall’au- torita` giudiziaria o da una autorita` amministrativa indipendente); (2) ri- schio elevato, cui e` dedicato l’intero Titolo III, per i quali sono imposte regole vincolanti in termini di validazione, etichettatura, analisi dei rischi e la cui violazione puo` comportare ingenti sanzioni pecuniarie (i sistemi ad alto rischio, che costituiscono il fulcro centrale della disciplina, riguardano trasversalmente quasi tutti i settori di possibile impiego: trasporti, gestione di sistemi a rete, componentistica di sicurezza dei prodotti, selezione e valutazione del personale, erogazione dei servizi pubblici, ad esempio per l’accesso al credito, istruzione e formazione, attivita` di polizia di preven- zione o contrasto del crimine, sistemi di assistenza nell’amministrazione della giustizia); (3) rischio limitato, come i chatbot, gli assistenti virtuali;
(4) rischio minimo, come i videogiochi, per i quali il regolamento non si applica, ma viene incentivata l’adozione di “codici deontologici” a garanzia del rispetto di standard minimi di affidabilita`.
In altri termini piu` il prodotto e` suscettibile di mettere in pericolo questi diritti, piu` severe sono le misure adottate per eliminare o mitigare l’impatto negativo sui diritti fondamentali, fino a vietare quei prodotti che sono completamente incompatibili con questi diritti. Mette conto, a tal riguardo, sottolineare come i sistemi di assistenza nell’amministrazione della giustizia sono stati posti nella categoria del rischio elevato, ovvero nella prima categoria per gravita` di rischio che la proposta di regolamento individua subito dopo i sistemi a rischio inaccettabile per i quali vi e` un espresso divieto di utilizzo.
Per quel che concerne i profili di responsabilita` derivanti dalle elabo- razioni effettuate dai sistemi di intelligenza artificiale, la proposta, pur non affrontando direttamente questa tematica, delinea una distribuzione della responsabilita` sui soggetti (103) a vario titolo coinvolti (l’autore del pro-
(103) Significativamente ABRIANI, Diritto delle imprese e intelligenza artificiale. Dalla Fin- tech alla Corptech, cit., osserva che «la perdurante assenza nell’ordinamento interno ed euro-unitario di un riconoscimento della cosiddetta personalita` elettronica l’intelligenza
gramma, l’utente, il produttore o il venditore) con un evidente richiamo al GDPR, all’art. 10, nella parte in cui attribuisce ai fornitori di tali sistemi l’obbligo di predisporre «garanzie appropriate per i diritti e le liberta` fondamentali delle persone diritti e delle liberta` delle persone fisiche, comprese le limitazioni tecniche al riutilizzo e l’uso di misure all’avanguar- dia per la sicurezza e la tutela della vita privata, quali la pseudonimizza- zione o la crittografia quando l’anonimizzazione puo` incidere significati-
vamente sullo scopo perseguito» (104). E` stato efficacemente osservato che
«la prospettiva piu` promettente sia quella della responsabilizzazione ex ante degli attori coinvolti nella produzione prima e nell’utilizzo poi di strumenti di intelligenza artificiale: intervento del legislatore europeo si e` mosso infatti (...) lungo il versante della procedimentalizzazione delle con- dotte di chi sviluppa e utilizza strumenti di intelligenza artificiale, in un’ot- tica di minimizzazione del rischio e dunque dei possibili danni connessi. In questo quadro i rimedi posti in capo ai soggetti interessati non sono di natura riparatoria, bensı` di natura contestativa e oppositiva rispetto ai processi di sviluppo e di utilizzo dei sistemi automatizzati (...). Tale ap- proccio procedurale preventivo dovrebbe consentire di creare un mercato dell’intelligenza artificiale che coniughi al contempo stimolo all’innovazio- ne tutela dei diritti dei singoli, mirando a immettere sul mercato strumenti gia` aderenti ai parametri normativi rilevanti, comprimendo ex ante la sfera delle possibili responsabilita` connesse allo sviluppo e all’utilizzo di stru- menti di intelligenza artificiale» (105).
artificiale, da un lato, e, dall’altro, le citate previsioni che richiedono l’intervento di un soggetto umano nell’utilizzo di strumenti automatizzati, sembrano cosı` convergere verso la necessaria imputazione della stessa responsabilita` in capo al soggetto umano che tale intervento e` chiamato a realizzare».
(104) BUCCA e PINCI, IA e giustizia: tutto sulle leggi italiane ed europee, reperibile in ▇▇▇▇▇://▇▇▇.▇▇▇▇▇▇▇▇▇▇▇▇▇▇.▇▇/▇▇▇▇▇▇▇▇▇/▇▇▇▇▇▇▇▇▇-▇▇▇▇▇▇▇▇/▇▇-▇-▇▇▇▇▇▇▇▇▇-▇▇▇▇-▇▇▇▇▇▇-▇▇-▇▇▇▇▇- europee-e-nazionali/.
(105) ABRIANI, Diritto delle imprese e intelligenza artificiale. Dalla Fintech alla Corp- tech, cit.
