L’intelligenza artificiale: regole e diritti fondamentali
I rischi e le sfide che non si possono perdere
di Guido Scorza, aprile 2024
L’intelligenza artificiale è la protagonista indiscussa della stagione che stiamo vivendo e rappresenta il fenomeno più rivoluzionario, disruptive, pervasivo, veloce in termini di diffusione, complesso e trasversale in termini di impatto sulla società. Nessuna sorpresa, dunque, se la sua entrata in scena espone diritti e libertà fondamentali a rischi senza precedenti e ci propone sfide difficili sul versante della regolamentazione.
L'autore: Guido Scorza è componente del Garante per la protezione dei dati personali. Si occupa di diritto delle nuove tecnologie, privacy e proprietà intellettuale da quasi trent’anni. Avvocato, giornalista pubblicista, docente in diverse università italiane e autore di numerose pubblicazioni, tra cui L’intelligenza artificiale, l’impatto sulle nostre vite, diritti e libertà, con Alessandro Longo, edito da Mondadori. È stato Consigliere giuridico del Ministro per l’innovazione e responsabile degli affari regolamentari nazionali ed europei del team per la trasformazione digitale della Presidenza del Consiglio dei Ministri.
1. L’intelligenza artificiale, definizione e contesto
È invece pressoché universalmente riconosciuto che si tratti di un fenomeno tecnologico destinato ad avere un impatto straordinario sulla vita di miliardi di persone, sui mercati e sulla società nel suo complesso. Anzi, ci si può, probabilmente, spingere ad affermare che l’intelligenza artificiale sia destinata ad essere uno dei fenomeni più rivoluzionari, disruptive, pervasivi, veloci in termini di diffusione, complessi, trasversali in termini di impatto sulla società nella storia dell’umanità.
Il fenomeno in sé, contrariamente a quanto spesso si ritiene, ha alle spalle, almeno nella dimensione dello studio e della ricerca, una storia di ormai oltre mezzo secolo. Solo di recente, tuttavia, ha conquistato la ribalta mediatica ed è divenuto riconoscibile alle persone come tale.
Google Trends, il servizio del popolare motore di ricerca che tiene traccia e analizza le domande che gli utenti pongono al servizio, ci dice che l’Italia ha sostanzialmente scoperto l’espressione “intelligenza artificiale” da meno di due anni. Prima di allora pochi facevano ricerche utilizzandola. Questa tendenza delle ricerche resta sostanzialmente invariata se si amplia la base a livello mondiale: prima di due anni fa, l’intelligenza artificiale, almeno in quanto tale e utilizzando questa espressione, non suscitava interesse né curiosità.
Viene, dunque, spontaneo chiedersi che cosa abbia determinato l’esplosione globale della curiosità attorno all’intelligenza artificiale e che cosa l’abbia trasformata da soggetto di trattazioni e discussioni scientifiche e accademiche in oggetto di dibattiti televisivi, talk show e media generalisti.
È utile fugare un equivoco: la ragione non risiede nel suo sbarco sul mercato né nel suo ingresso nelle nostre vite, perché l’intelligenza artificiale –si consenta la licenza linguistica – “vive” con noi, nei nostri smartphone, nelle nostre case, nelle nostre automobili e nei nostri uffici pubblici e privati ormai da diversi decenni.
Ormai da diversi decenni condiziona un numero importante di nostre scelte e decisioni in ambiti diversissimi. Ad esempio, i contenuti dei quali fruiamo sui social network – e, naturalmente, anche quelli dei quali non fruiamo – sono selezionati per noi da algoritmi di intelligenza artificiale e sono sempre gli stessi algoritmi o, meglio, algoritmi della stessa famiglia, a suggerci le serie TV e i film o documentari da guardare sulle piattaforme di streaming e la musica da ascoltare attraverso i diversi servizi digitali che utilizziamo.
Ormai da diversi anni, la dieta mediatica globale è orientata (se non determinata) dalle intelligenze artificiali dei gestori di un numero modestissimo di servizi di indicizzazione e social network e da un numero altrettanto modesto di grandi “fabbriche di algoritmi”.
Ciò è probabilmente già sufficiente per rendersi conto di quanto rilevante sia l’impatto dell’intelligenza artificiale su diritti fondamentali come, ad esempio, la libertà di informazione.
Con l’intelligenza artificiale interagiamo da diversi anni quando diciamo “Siri” o “hey Google” nella direzione dei nostri smartphone, o chiamiamo “Alexa” nelle nostre case per porre ogni genere di domande, dalle previsioni metereologiche al traffico, fino alla nostra salute o alla politica.
E, naturalmente, è sempre l’intelligenza artificiale che corre in nostro soccorso quando chiediamo aiuto ai navigatori satellitari per trovare la strada più veloce per raggiungere una certa destinazione, o alle piattaforme di prenotazione online di viaggi, aerei, hotel, ristoranti o traghetti.
Se da qualche anno il mondo intero sembra aver scoperto l’intelligenza artificiale –ovviamente con diversi livelli di consapevolezza – è merito di alcune applicazioni di intelligenza artificiale capaci di produrre risultati superiori rispetto a quelli osservati sin qui e tali da rendere non procrastinabili le domande relative all’impatto del fenomeno sulla società. Si tratta delle cosiddette intelligenze artificiali generative, capaci di scrivere, disegnare, dipingere, produrre musica e film, riproducendo qualsiasi genere di stile e, probabilmente, sostituire progressivamente l’uomo in numerose attività creative.
Queste tecnologie sono anche all’origine delle capacità diagnostiche di cui dispongono taluni servizi di intelligenza artificiale utilizzati in ambito medico o di quelle predittive caratteristiche di servizi impiegati o impiegabili – salvo quanto si dirà più avanti – nel contrasto al crimine, nell’amministrazione della giustizia, nell’analisi e gestione dei mercati finanziari.
Impossibile riassumere in poche battute le infinite possibili applicazioni dell’intelligenza artificiale sostanzialmente in ogni ambito della vita umana, dalla guida autonoma delle autovetture e di ogni altro mezzo di trasporto all’automazione di pressoché qualsiasi processo industriale.
2. I diritti alla prova dell’intelligenza artificiale
Talune di queste “prove” sono ricorrenti nella storia della tecnologia e del diritto – anche se assumono connotati caratteristici o, semplicemente, di maggior urgenza e complessità nel caso dell’intelligenza artificiale – mentre altre sono caratteristiche dell’impatto dell’intelligenza artificiale sulla società.
Un’analisi puntuale ed esaustiva di queste sfide è incompatibile con le esigenze di sintesi proprie di questa trattazione e, quindi, se ne propone solo una selezione soffermandosi su quelle di carattere più generale e, come tali, capaci di abbracciare ciascuna una pluralità di questioni specifiche.
2.1 I tempi dell’innovazione e quelli della regolamentazione
È circostanza nota che l’innovazione tecnologica corre più veloce della regolamentazione. Per convincersene sembra sufficiente riflettere sulla circostanza che l’AI Act, il Regolamento europeo con il quale l’Unione Europea intende governare il fenomeno, ormai prossimo alla pubblicazione sulla Gazzetta Ufficiale dell’Unione, è entrato nel rettilineo procedimentale che avrebbe condotto alla sua approvazione senza neppure una disposizione relativa alle intelligenze artificiali generative ancorché queste ultime, negli stessi mesi, fossero divenute, probabilmente, l’applicazione più popolare al mondo dell’intelligenza artificiale.
Nessuna responsabilità può essere imputata al legislatore europeo, nessuna dimenticanza o distrazione, nessuna mancanza di competenze: semplicemente quel fenomeno era esploso e si era affermato sui mercati globali a una velocità incompatibile con i tempi della regolamentazione europea.
Questa asimmetria tra i tempi della regolamentazione e quelli dell’innovazione minaccia di produrre conseguenze assai rilevanti sul piano dei diritti e delle libertà fondamentali.
La tecnologia si comporta come l’acqua: tende a riempire ogni spazio vuoto incontrato sul suo camino, inclusi quelli lasciati vuoti dalla regolamentazione e, in questo senso, tende a divenire essa stessa una forma di regolamentazione, plasmando la vita delle persone e la società nel suo complesso, al posto delle leggi. Gli algoritmi di intelligenza artificiale tendono a divenire – e se non governati efficacemente diverranno – la nuova legge.
Proviamo a spiegarlo con un esempio: poniamo che l’algoritmo di intelligenza artificiale che governa un navigatore satellitare sia progettato in maniera tale da fissare il limite di velocità in autostrada a 170 km/h, anziché ai 130km/h indicati dal Codice della strada. Di conseguenza avviserebbe l’utente anziché al superamento del limite di velocità di legge, al superamento di quello algoritmicamente imposto. In molti, inevitabilmente, usando tale navigatore, si persuaderebbero che il vero limite di velocità in autostrada in Italia sia di 170km/h.
Ciò accade in ogni ambito della nostra vita, che si tratti – come nel caso dei limiti di velocità – di ambiti già regolamentati o, a maggior ragione, di ambiti non ancora regolamentati.
Le leggi, ad esempio, non hanno ancora stabilito se e in che misura le intelligenze artificiali generative, possano essere utilizzate come strumento di supporto per lo svolgimento dei compiti a casa da parte di milioni di studenti, ma l’accessibilità e l’estrema usabilità di questi servizi online ha fatto sì che molti studenti li utilizzino già.
Nella sostanza, dunque, gli algoritmi di intelligenza artificiale diventano legge e conformano le nostre vite alle scelte progettuali di chi li sviluppa.
Il problema è che gli algoritmi sono progettati e sviluppati in laboratori privati, legittimamente – sino a prova contraria – nel nome di interessi privati guidati, essenzialmente, dalle regole del mercato e del profitto, mentre le leggi sono scritte e approvate dai Parlamenti e dai Governi in nome di un interesse pubblico.
Vi è, dunque, il rischio di una sorta di privatizzazione della regolamentazione o, se si preferisce, il rischio che la tecnocrazia – ovvero il governo a mezzo tecnologia – sostituisca la democrazia.
2.2 La tecnologia è globale, la regolamentazione è locale
Vi è un’asimmetria spaziale tra tecnologia e regolamentazione. Il fenomeno dell’intelligenza artificiale, infatti, è globale. I servizi, i prodotti e gli strumenti basati sull’intelligenza artificiale sono utilizzati – o possono essere utilizzati – ovunque nel mondo.
Al contrario, la regolamentazione è sempre nazionale o, comunque, ancorata a uno specifico territorio più o meno ampio, quello in relazione al quale chi scrive le regole può esercitare la propria autorità.
Vi è quindi una difficoltà di identificare soluzioni di governance di fenomeni globali come l’intelligenza artificiale, che non determinino asimmetrie e conseguenze incompatibili con la natura globale della società nella quale viviamo, dei mercati e delle democrazie.
Il rischio di asimmetria più elevato è quello tra Parlamenti e Governi che scelgano forme di regolamentazione più stringenti a tutela e garanzie delle persone, dei loro diritti e delle loro libertà, e Parlamenti e Governi che, invece, si preoccupino di più dei mercati e ispirino maggiormente i propri interventi regolamentari a un sostanziale laissez faire tecnologico.
Chi scegliesse di preoccuparsi maggiormente della difesa dei diritti e delle libertà dal punto di vista regolamentare, rischierebbe di “zavorrare” l’industria domestica a vantaggio dei concorrenti internazionali. Un rischio tanto più elevato quanto più le persone, gli utenti e i consumatori, mancano di un adeguato livello di educazione alla tecnologia, ai diritti e alle libertà.
Anche in questo caso, si consenta di provare a dare corpo alla questione con un esempio elementare, a rischio di semplificare troppo una questione complessa.
Immaginiamo che ci siano due navigatori satellitari sul mercato e che il primo, prodotto all'estero e rispettando diverse regole, garantisca di andare dal punto A al punto B in 3 minuti, tenendo conto delle nostre soste, del nostro stile di guida e di chi viaggia con noi, mentre il secondo navigatore, prodotto in Europa, rispettando le regole sulla privacy e la normativa sull'intelligenza artificiale prossima ventura, garantisca di andare dal punto A al punto B in 7 minuti, senza tenere conto delle nostre soste, del nostro stile di guida e del fatto che stiamo viaggiando da soli o in compagnia. Quale dei due navigatori sarà preferito dalle persone?
Se, come appare probabile, i più dovessero scegliere il primo e preferire, dunque, la miglior soluzione del problema pratico, con buona pace dell’attenzione ai diritti e alle libertà, il risultato sarebbe di premiare una soluzione diversa da quella orientata al rispetto delle regole di cui si è detto. Un’ulteriore conseguenza sarebbe la progressiva marginalizzazione delle industrie più rispettose delle regole più severe o una crescente disapplicazione di tali regole, con conseguente compressione dei diritti e delle libertà.
Si tratta, come si è anticipato, di una semplificazione: in effetti, la maggior parte delle regole europee di ultima generazione sono pensate per applicarsi indistintamente a chiunque venda prodotti o fornisca servizi in Europa, a prescindere dal Paese di stabilimento. Quindi, le asimmetrie tra imprese europee ed extra-europee dovrebbero essere attenuate, rendendo accessibili in Europa solo servizi rispettosi delle regole europee.
Tuttavia, è innegabile che un’asimmetria regolamentare significativa come, ad esempio, quella attualmente esistente in fatto di protezione dei dati personali, tra Europa e Stati Uniti o tra Europa e Cina, è suscettibile di produrre conseguenze rilevanti in termini di mercati, diritti e libertà.
La situazione appare aggravata da una circostanza incontrovertibile: sin qui si sta investendo molto di più nell’addestrare gli algoritmi a conoscere le persone, rispetto a quanto si stia investendo nell’educare le persone a conoscere gli algoritmi, i diritti e le libertà. Difficile attendersi che la popolazione globale, in queste condizioni, premi le soluzioni, i prodotti e i servizi più rispettosi della dignità delle persone e della loro necessaria centralità in ogni rivoluzione tecnologica.
2.3 Quando nulla è più tecnologicamente impossibile
Viviamo in un’epoca nella quale il tecnologicamente impossibile, semplicemente, non esiste più. Neuroscienze, neurotecnologie, intelligenza artificiale e big data, internet delle cose e quantum computing hanno completamente abbattuto la frontiera tra il vero e l’immaginifico. E siamo solo all’inizio.
Ciò impone un’altra importante riflessione sulla relazione tra intelligenza artificiale, diritti e libertà.
Proviamo a pensare, per un istante, a Minority report: un film di fantascienza ambientato nel 2054.
«Signor Marks, in nome della sezione precrimine di Washington DC la dichiaro in arresto per il futuro omicidio di Sarah Marks e Donald Dubin che avrebbe dovuto avere luogo oggi 22 aprile alle ore 8 e 04 minuti». Una scena indimenticabile.
Al 2054 mancano ancora trent’anni, eppure nel Regolamento sull’intelligenza artificiale appena approvato a Bruxelles e in attesa di pubblicazione sulla Gazzetta Ufficiale, è stato necessario scrivere che l’intelligenza artificiale non può essere usata per dar vita a servizi di polizia o giustizia predittiva e precrimine, perché in giro per il mondo ci si sta già lavorando.
Preso atto che il tecnologicamente impossibile non esiste più, la tentazione di cedere al principio machiavellico secondo cui il fine giustifica i mezzi, diventa fortissima. Se non impariamo a resisterle, umanità, dignità, diritti e libertà sono in pericolo.
Indicava il problema e suggeriva una soluzione Louis Brandeis, padre del diritto alla privacy, autore con Samuel Warren dell’articolo The right to be let alone (sulla Harward Law Review, nel 1890) e giudice alla Corte Suprema degli Stati Uniti d’America nei primi anni del Novecento. Fu autore di una meravigliosa dissenting opinion nel primo processo basato sulle intercettazioni telefoniche della storia americana: il caso Olmstead, il più famoso contrabbandiere di whisky di tutti i tempi.
La maggioranza dei nove giudici che, in quel momento, siedono alla Corte Suprema, a cominciare dal presidente Wiliam Taft, già Presidente degli Stati Uniti d’America, sono concordi nel ritenere che Olmstead debba scontare la sua pena in un penitenziario federale di massima sicurezza, indipendentemente dal fatto che le intercettazioni siano state raccolta o meno lecitamente. Ma Brandeis non la vede così: «Il progresso della scienza nel dotare il Governo di mezzi di spionaggio non si fermerà alle intercettazioni telefoniche. Si potrebbero sviluppare dei modi attraverso i quali il Governo, senza rimuovere documenti da cassetti segreti, potrà produrli in tribunale e con i quali sarà consentito esporre a una giuria gli eventi più intimi che si consumano in una casa. I progressi nelle scienze psichiche e correlate possono portare mezzi per esplorare convinzioni, pensieri ed emozioni inespressi… La protezione garantita dagli emendamenti [quarto e quinto, NdA] è molto più ampia rispetto a quanto suggerito dal tenore letterale delle norme. I nostri Costituenti si sono impegnati a garantire condizioni favorevoli alla ricerca della felicità.
Hanno riconosciuto il significato della natura spirituale dell’uomo, dei suoi sentimenti e del suo intelletto. Sapevano che solo una parte del dolore, del piacere e delle soddisfazioni della vita si trovano nelle cose materiali. Hanno cercato di proteggere gli americani nelle loro convinzioni, i loro pensieri, le loro emozioni e le loro sensazioni. Hanno conferito, contro il Governo, il diritto di essere lasciati soli – il più completo dei diritti, e il diritto più apprezzato dagli uomini civili. Per proteggere tale diritto, ogni ingiustificata intrusione da parte del Governo nella privacy dell’individuo, qualunque sia il mezzo impiegato, deve essere considerata una violazione del quarto emendamento. E l’uso come prove in un processo di elementi raccolti violando la privacy degli individui dovrebbe considerarsi vietato dal quinto emendamento».
La tecnologia un giorno lo consentirà, insomma, ci metteva in guardia Brandeis, ma bisognerà resistere alla tentazione. Quel giorno sembra essere arrivato, e il principio che noi dovremmo riuscire ad affermare giorno dopo giorno è che non necessariamente tutto ciò che è tecnologicamente possibile deve considerarsi anche giuridicamente legittimo e democraticamente sostenibile.
Difficile farlo mentre l’intelligenza artificiale continua a proporci ogni giorno soluzioni più semplici per risolvere problemi più complessi, anche a costo di sacrificare diritti e libertà fondamentali. E ogni volta, nel tentativo di convincerci che non si possa rinunciare ad assicurare alla giustizia l’Olmstead di turno o a raggiungere un risultato auspicabile, ci si propone l’idea dei diritti fondamentali nella società dei dati – il diritto alla privacy – come rivali di un’esistenza migliore possibile.
3. Conclusioni
A una persona non si dovrebbe mai chiedere di scegliere tra diritti fondamentali. E l’algoritmo di bilanciamento è nella stessa carta dei diritti fondamentali dell’Unione europea: comprimere un diritto nella misura minima necessaria a garantire l’esercizio dell’altro diritto. È un algoritmo semplicissimo da enunciare ma difficile da applicare, oggi, ai tempi dell’intelligenza artificiale, più che in passato.