Intelligenza artificiale

Intelligenza artificiale: la normativa europea in tema di responsabilità civile e l'impatto sulla professione forense

Lo sviluppo dell'Intelligenza Artificiale (IA) nel corso degli ultimi anni è divenuto un tema centrale per tutti i paesi industrializzati e per le economie emergenti, offrendo all'interprete e alle istituzioni numerosi spunti di riflessione, costringendoli ad interrogarsi su problematiche quali la responsabilità civile e la stessa funzione di avvocato.

Ebbene, con il termine Intelligenza Artificiale si intende la disciplina che si occupa dello sviluppo di sistemi software (come assistenti vocali e sistemi per l'analisi delle immagini) – e, sovente, anche di hardware (come robot avanzati, auto a guida autonoma e droni) – che, dato un certo obiettivo di tipo complesso, sono in grado di agire nella dimensione umana, sia essa fisica o virtuale, in modo da percepire l'ambiente circostante, di acquisire e interpretare dati strutturati e non, di ragionare sulle conoscenze acquisite, e di formulare, così, decisioni basate sulle evidenze raccolte, sulle azioni e sulle scelte da compiere per il raggiungimento degli obiettivi prefissati. Si pensi, a titolo puramente esemplificativo, al riconoscimento facciale dei nostri smartphones o le ricerche che facciamo sui motori di ricerca: esse sono possibili proprio grazie all'Artificial Intelligence, che ci consente di vivere meglio adoperando la quantità enorme di dati che produciamo quotidianamente.

Sebbene non si possa ancora parlare di una definizione giuridica universalmente condivisa, è in tali termini che l'IA è definita dalla Commissione Europea nella Comunicazione della Commissione su "l'Intelligenza artificiale per l'Europa" del 25 aprile 2018. In altre parole, l'Intelligenza Artificiale costituisce uno strumento di trasformazione della realtà circostante e, più in generale, della nostra società. Il massiccio impiego dell'IA nei Paesi più tecnologicamente avanzati ha richiesto la creazione di una strategia europea per i dati e opzioni volte ad assicurare uno sviluppo sempre più antropocentrico dell'Intelligenza Artificiale.

Il quadro giuridico-normativo più recente mostra una crescente attenzione in tema di Intelligenza Artificiale, sia a livello europeo, avendo riguardo, da ultimo, alle Risoluzioni "precettive" del Parlamento europeo del 20 ottobre 2020 recanti raccomandazioni alla Commissione concernenti, rispettivamente "il quadro relativo agli aspetti etici dell'intelligenza artificiale, della robotica e delle tecnologie correlate", "un regime di responsabilità civile per l'intelligenza artificiale" e, infine, "i diritti di proprietà intellettuale per lo sviluppo di tecnologie di intelligenza artificiale". A livello nazionale il riferimento va al “Libro bianco sull'Intelligenza artificiale al servizio del cittadino" dell'Agenzia per l'Italia Digitale del marzo 2018 e le più recenti "Proposte per una Strategia italiana per l'intelligenza artificiale “ elaborate nel giugno 2020 dal Gruppo di Esperti del Ministero dello Sviluppo Economico sull'Intelligenza Artificiale.

In particolare, il Parlamento Europeo nella sopracitata Risoluzione sugli aspetti etici ha sottolineato l'importanza di principi su cui fondare la tecnologia IA: la sicurezza, la privacy, la sostenibilità ambientale, la buona governance, la responsabilità sociale e la parità di genere, la tutela contro distorsioni e discriminazioni, il diritto al risarcimento, la responsabilità sociale e ambientale e il rispetto di parità di genere e dei diritti dei lavoratori.

Si annovera, tra gli altri, l'introduzione del c.d. Certificato Europeo di Conformità Etica che verrà rilasciato dall'autorità nazionale di controllo competente degli Stati membri in caso di esito positivo nella valutazione di conformità dell'Intelligenza Artificiale, della robotica e delle tecnologie correlate ad alto rischio - compresi i software, gli algoritmi e i dati adoperati o generati per mezzo di tali tecnologie -.

Preliminarmente, un'IA che possa dirsi affidabile deve possedere tre requisiti: la legalità, ossia la compliance a leggi e regolamenti; l'eticità, ossia l'aderenza a principi etici e la robustezza, di tipo tecnico e sociale. In particolare, le istituzioni europee richiedono che l'Intelligenza Artificiale sia incentrata sui diritti e sul rispetto dell'autonomia umana: infatti, come riportano le Linee guida etiche predisposte dall'Ethics Guidelines for Trustworthy AI (AI HLEG) e pubblicate l'8 aprile 2019, «i sistemi di IA non devono subordinare, costringere, ingannare, manipolare, condizionare o aggregare in modo ingiustificato gli esseri umani»; devono puntare ad una equa distribuzione dei costi e dei benefici e imperniarsi sulla trasparenza; non devono cagionare danni fisici e/o psichici. A questo proposito, vediamo adesso, sotto il profilo della responsabilità civilisticamente intesa, come può dirsi un sistema di IA responsabile.

Il concetto di "responsabilità" svolge un duplice ruolo negli ordinamenti giuridici: da un lato, assicura alla vittima del danno o pregiudizio il diritto di chiedere un risarcimento alla parte ritenuta responsabile e di ricevere la riparazione per il danno subìto da parte del danneggiante e, dall'altro lato, funge da deterrente affinché si eviti ab origine di arrecare danni o pregiudizi. Basti pensare ad un incidente, con relativi danni a persone o cose, cagionato da auto a guida autonoma, ovvero il caso in cui un dispositivo medico dotato di intelligenza artificiale smetta di funzionare, oppure un sistema di IA in grado di operare scelte strategiche in ambito finanziario che commette errori.

Il Parlamento Europeo nella Risoluzione del 20 ottobre per un IA responsabile ritiene che, a tale scopo, non sia necessaria una revisione completa dei regimi di responsabilità correntemente in piedi negli Stati Membri, ma che i sistemi di Intelligenza Artificiale richiedano uno sforzo di armonizzazione stante «la complessità, la connettività, l'opacità, la vulnerabilità, la capacità di modifica mediante aggiornamenti, l'autoapprendimento» e la loro potenziale autonomia, come pure la pluralità degli attori coinvolti. La Risoluzione propone, dunque, la predisposizione di un regolamento in grado di armonizzare la disciplina interna degli Stati membri sul tema, e una revisione della disciplina comunitaria sulla sicurezza dei prodotti e la responsabilità da prodotto difettoso. Ciò anche alla luce dell'applicazione analogica della definizione di prodotto («bene mobile, anche se forma parte di un altro bene mobile o immobile») anche a componenti hardware e software - ove muniti di supporto fisico-. L'illecito compiuto dai sistemi intelligenti viene, pertanto, attratto nell'area della Responsabilità per danni da prodotto difettoso sia a livello nazionale (in Italia, artt. 114 e ss. Codice del Consumo) che a livello comunitario (Direttiva 85/374/CEE sulla responsabilità per danno da prodotti difettoso, Direttiva 2001/95/CE relativa alla sicurezza generale dei prodotti e la Direttiva 2006/42/CE relativa alle macchine). I danni cagionati da una macchina o da un software possono essere risarciti in forza delle norme che tutelano gli utilizzatori e mirano a garantire la sicurezza dei prodotti, ipotesi di responsabilità in capo a fabbricanti, operatori, proprietari o utilizzatori per azioni od omissioni dei prodotti da loro commercializzati.

Quanto al regime di responsabilità civile dell'operatore di un sistema di intelligenza artificiale, esso si fonda sulla circostanza secondo cui esso si configuri come il soggetto in grado di controllare un rischio associato al sistema di IA, analogamente a quanto accade al proprietario di un'automobile e che, vista la fitta rete connettiva del sistema, l'operatore è il primo punto di contatto per il soggetto danneggiato. Alla luce di ciò, l'operatore di un sistema di IA c.d. ad alto rischio è oggettivamente responsabile di qualsiasi danno o pregiudizio causato da una attività, dispositivo o processo - fisico o virtuale - guidato da tale sistema di intelligenza artificiale.

I limiti dell'applicazione delle regole ordinarie in materia di responsabilità civile sono ben noti, tra cui il mancato riconoscimento dello status giuridico di personalità̀ elettronica, ipotizzabile almeno per i robot più sofisticati, rendendoli responsabili di risarcire qualsiasi danno da essi cagionato; il fatto che la normativa in materia di responsabilità copre unicamente le ipotesi in cui la causa di un'azione o di un'omissione posta in essere dal robot sia ascrivibile ad un agente umano; e la circostanza per cui, ai fini dell'accertamento della responsabilità, è d'uopo che il soggetto agente sia stato in grado di prevedere e/o evitare il comportamento nocivo del sistema intelligente.

Affinché il robot sia responsabile sarà necessario provare il danno, il difetto del prodotto e il nesso eziologico tra danno e difetto. Non è richiesta la prova della colpa del produttore.

Quanto ai termini di prescrizione e agli importi ed entità del risarcimento, le azioni per responsabilità civile saranno soggette, alle «leggi dello Stato membro in cui si è verificato il danno o il pregiudizio». In presenza di più operatori di un sistema di IA, tali soggetti saranno responsabili in solido. In caso di particolare eccezionalità, come un evento che conduca ad un danno collettivo, per cui il risarcimento valichi in modo significativo i massimali previsti dal regolamento, gli Stati membri potranno istituire uno speciale fondo di risarcimento per far fronte a tali ipotesi.

Innegabile appare anche l'impatto sulla professione dell'avvocato di siffatta rivoluzione tecnologica.

Agli esperti di diritto si richiede di confrontarsi, oltre che con la crescente produzione normativa multilivello in materia, anche con lo studio dei rischi insiti nell'Intelligenza Artificiale e l'analisi delle opportunità e dei vantaggi per la sicurezza, le imprese, l'occupazione, la democrazia, l'ambiente e il mondo legal in generale.

È recente l'impiego di automed decision systems, ossia algoritmi decisionali, sia nel civil litigation, in relazione a richieste di risarcimento danni e questioni in materia assicurativa, ma ancor più recentemente, in materia penale. Si pensi alla assai dibattuta questione delle decisioni giudiziarie algoritmiche e dei giudici-robot per risolvere controversie minori. Il sistema basato sull'Intelligenza Artificiale è così articolato: i professionisti si incaricano, preliminarmente, di depositare in piattaforma il fascicolo elettronico relativo alla pratica; la risoluzione della questione spetta, poi, all'algoritmo, con la possibilità eventuale di appellarsi ad un giudice dalle fattezze umane, operando, in tal senso, un vero e proprio affiancamento tra giudice umano e giudice "artificiale". A rischio, secondo il Consiglio D'Europa, è, tuttavia, il principio di individualizzazione della pena.

Da un lato, ebbene, il vantaggio innegabile dei sistemi di Machine Learning è l'abnorme capacità di rielaborare una elevata quantità di dati – ben oltre l'attività cognitiva dell'uomo – in grado di individuare celermente correlazioni, di profilare soggetti e anticiparne i relativi comportamenti; dall'altro lato, è proprio l'automazione del lavoro a promettere di rivoluzionare e persino di sostituire la professione di avvocato, o quantomeno le mansioni affidate tradizionalmente a praticanti e junior lawyers, quali, ad esempio, la ricerca legale e la revisione contrattuale.

La prosperità e la crescita economica oggi sono strettamente legate all'utilizzo dei dati e delle tecnologie della connessione. La tecnologia digitale e lo sviluppo di macchine "senzienti" capaci di apprendere, percepire e agire nella dimensione esterna, si accingono a risolvere una serie di problemi complessi e a divenire una risorsa insostituibile nella sfida globale verso un mercato unico digitale pienamente armonizzato. La tecnologia sta dunque innovando profondamente anche il futuro della professione forense, il business model di aziende e studi legali, la loro offerta, i servizi e le metodologie, rendendo, più efficienti le prestazioni degli stessi in favore dei clienti, con l'ausilio imprescindibile dell'innovazione.

Anche l'Unione Europea scommette sull'Intelligenza Artificiale, quale driver IT del futuro, prefiggendosi di risolvere gli interrogativi etici e giuridici che le tecnologie trasformative pongono agli Stati membri e di regolamentare in maniera armonizzata detti sistemi. A tal proposito, un quadro normativo efficiente in materia, sia a livello sovranazionale che a livello nazionale, dovrà essere in grado di infondere fiducia nella sicurezza, nell'affidabilità e nella coerenza di detti prodotti e servizi, e, al contempo, di offrire una sufficiente libertà d'azione per gli sviluppatori delle nuove tecnologie.

L‘unica raccomandazione alle Istituzioni e agli operatori è che l'Intelligenza artificiale sia sempre incentrata sull'etica e sull'uomo: solo una Intelligenza Artificiale "antropocentrica e antropogenica" può accelerare il passaggio a un sistema rigenerativo adatto alle sfide che si presentano all'uomo e al professionista del futuro.