Una regolamentazione sempre più necessaria
Per questo motivo, la Commissione Europea – l’istituzione che detiene il monopolio dell’iniziativa legislativa – ha avanzato, negli ultimi anni, diverse proposte di direttive e regolamenti. D’altronde, l’attuale commissario per il mercato interno Thierry Breton aveva dichiarato che l’era del “Far West” digitale era ormai finita e che tutto ciò che è proibito nello spazio pubblico sarebbe stato proibito anche nello spazio digitale.
Nascono così testi come il DMA (Digital Market Act) sui mercati digitali (con l’obiettivo di regolamentare il mercato delle piattaforme e controllare meglio i cosiddetti GAFAM, la cui posizione nel mercato è sempre più dominante) o il DSA (Digital Service Act) relativo ai servizi digitali (avente lo scopo di imporre maggiori responsabilità alle aziende digitali nella rimozione di contenuti illeciti). Questi sforzi si inseriscono, tra le altre cose, nelle sei priorità della Commissione von der Leyen, in cui compare un’Europa adatta all’era del digitale il cui obiettivo è promuovere la nuova generazione di tecnologie, fornendo al contempo ai cittadini i mezzi per agire al fine di proteggersi dai rischi che ne derivano.
Una dualità che potrebbe sembrare paradossale e che tuttavia deve essere presa in considerazione nell’era attuale. Il rischio è un concetto chiave nell’ambito degli sforzi di regolamentazione digitale dell’Unione europea, la quale adotta un vero e proprio “approccio basato sul rischio” di fronte alle potenziali violazioni di cui l’intelligenza artificiale (IA) in particolare può essere responsabile nei confronti dei diritti fondamentali dei cittadini, come il diritto al rispetto della privacy.
Ecco dunque la genesi dell’AI Act, una proposta di regolamento sull’intelligenza artificiale presentata ad aprile 2021 dalla Commissione. Quest’ultima, sempre più impegnata a fornire risposte efficaci alle sfide poste dal mondo dell’IA, lavora adesso ad una proposta di direttiva (quella del 28 settembre 2022), relativa all’adeguamento delle norme di responsabilità civile extracontrattuale in materia di IA.
La responsabilità civile extracontrattuale: che cos’è?
Per responsabilità civile extracontrattuale s’intende l’obbligo (per la persona che ha visto chiamata in causa la propria responsabilità civile) di riparare il danno causato da una determinata azione chiamata colpa (un inadempimento a un obbligo legale o morale).
Esistono tre presupposti per l’assunzione della responsabilità civile extracontrattuale: una colpa, cioè una violazione di un obbligo legale o morale; un pregiudizio, ovvero il riconoscimento giuridico del danno; un nesso di causalità, cioè il rapporto di causa-effetto tra la colpa e il pregiudizio.
Essendo queste tre condizioni cumulative, esse devono coesistere affinché si possa assumere la responsabilità extracontrattuale di una persona. Inoltre, queste condizioni sono piuttosto esigenti per le vittime, poiché queste ultime si trovano spesso nella difficile situazione di non poter dimostrare questi elementi. Talvolta, sono la prassi giuridica (tramite il giudice) o la legge (i testi giuridici) a stabilire una presunzione del nesso di causalità, il che può essere un utile strumento per le vittime dal momento che ciò “snellisce” la procedura per provarlo.
Tra le tipologie di presunzioni di un nesso di causalità, la dottrina giuridica distingue tra la cosiddetta presunzione relativa (o praesumptio iuris tantum), che prevede la possibilità per il soggetto nei confronti del quale è diretta la presunzione del nesso di causalità di poter dimostrare il contrario, e la cosiddetta presunzione assoluta (o praesumptio iuris et de iure), che non ammette la possibilità di poter provare il contrario per il soggetto nei confronti del quale è diretta la presunzione del nesso di causalità.
Quali progressi per l’Unione europea?
In materia di responsabilità nella fattispecie dei software di IA, sono molti gli interrogativi che emergono e ai quali l’UE cerca di dare una risposta: quando si dà un prompt a un software di IA – ChatGPT per esempio – se questo prompt ha un output spiacevole per l’utente, chi ne sarà responsabile? L’autore del prompt? O il progettista del software di IA (OpenAI nel caso di ChatGPT)? O entrambi? E come riparare i danni causati da un sistema di IA? Proprio queste domande sono oggetto della proposta di direttiva del settembre 2022 sulla responsabilità dei fornitori di servizi di IA.
Tale proposta di direttiva si pone come obiettivo di promuovere lo sviluppo di un’IA più sicura possibile, in modo che i suoi benefici per il mercato interno (conformemente all’articolo 114 del TFUE, donde le basi giuridiche affinché l’UE possa intervenire nella normazione di questo campo) possano essere pienamente apprezzati e che le potenziali vittime che hanno subito un pregiudizio causato dall’IA abbiano una protezione quasi equivalente a quella di cui si potrebbe godere in altri campi più tradizionali e non necessariamente legati al digitale (vedi la “fine del Far West digitale” di cui parla Thierry Breton).
Perché l’UE vuole regolamentare il settore dell’IA?
In primo luogo, poiché la vittima può avere difficoltà a dimostrare il proprio danno e vederlo così riconosciuto come pregiudizio, questa direttiva mira a facilitare il lavoro preparatorio della vittima. Agire sul nesso di causalità dovrebbe quindi essere un mezzo efficace per ridurre al minimo questo lavoro. Le caratteristiche dell’IA, difatti, in particolare la sua complessità, possono rendere molto difficile o eccessivamente oneroso per le vittime identificare il responsabile e dimostrare un nesso di causalità tra la colpa e il danno (pregiudizio). In particolare, quando chiedono un risarcimento del danno, le parti lese possono trovarsi a dover affrontare costi iniziali molto elevati e procedimenti legali molto più lunghi rispetto ai casi non legati all’IA, il che potrebbe scoraggiarle o addirittura dissuaderle dal cercare un risarcimento. Inoltre, dal momento che le strategie nazionali possono differire notevolmente l’una dall’altra di fronte alle sfide poste dall’IA, l’assenza di azione a livello comunitario potrebbe portare a un livello molto elevato di frammentazione tra le legislazioni nazionali.
Ciò richiede un’azione da parte dell’UE affinché vi sia il massimo livello di omogeneizzazione (dopo la trasposizione in diritto nazionale della direttiva) tra le legislazioni degli Stati membri in materia di IA. In tale prospettiva, la proposta mira a prevenire la frammentazione risultante dagli adattamenti specifici dell’IA alle norme nazionali in materia di responsabilità civile extracontrattuale.
Vera presunzione o semplice alleggerimento dell’onere della prova?
L’art. 4 della proposta di direttiva del settembre 2022 mira a stabilire una “presunzione del nesso di causalità”, ossia stabilisce che il danno subito dalla vittima si presume sia stato causato dall’utilizzo del sistema di IA, a meno che la controparte non dimostri altrimenti.
Ma come valutare la presunzione del nesso di causalità prevista da questa proposta di direttiva? È bene notare che trattandosi di una presunzione relativa e non assoluta, questa potrebbe essere ribaltata in qualsiasi momento se la controparte fosse in grado di dimostrare che il danno non è stato causato dall’uso del sistema di intelligenza artificiale.
Così, a ben vedere, la presunzione non esonera del tutto la vittima dalla necessità di provare il nesso di causalità tra il danno subito e l’utilizzo del sistema di IA, ma consente comunque di agevolare tale prova invertendo l’onere della prova, cioè attribuendolo alla controparte.
Se infatti, da un lato, tale nozione consente ai giudici nazionali di presumere «ai fini dell’applicazione delle norme in materia di responsabilità alle domande di risarcimento del danno [...] l’esistenza del nesso di causalità tra la colpa del convenuto e l’output prodotto da un sistema di IA» (ex art. 4-1), d’altra parte, è anche vero che il nesso di causalità e la sua presunzione sono sempre suscettibili di essere indeboliti dalla controparte qualora dimostri il contrario.
Inoltre, i costi (in termini di perdita di tempo) relativi al lasso di tempo necessario alla controparte perché questa dimostri il contrario comportano che la vittima debba affrontare notevoli ritardi prima che siano effettuate tutte le verifiche necessarie affinché il danno possa essere riparato. Qualcuno potrebbe quindi essere portato a dire che questo testo mira ad uno sgravio dell’onere della prova per la vittima, piuttosto che ad una vera e propria presunzione assoluta, la praesumptio iuris et de iure, la quale, ricordiamolo, non ammettendo prove contrarie, ridurrebbe drasticamente tutti gli sforzi e i costi temporali perché la riparazione di un danno sia effettuata.
Due facce della stessa medaglia
La proposta di direttiva della Commissione sulla responsabilità civile extracontrattuale in materia di IA è sicuramente uno strumento che arricchisce l’arsenale legislativo dell’Unione europea e ne accresce la potenza normativa in materia digitale. In più, costituisce senza dubbio un punto di partenza per la tutela delle vittime dell’IA, che saranno sempre più comuni in un mondo sempre più digitalizzato.
Il suo margine di apprezzamento, tuttavia, è variabile. L’art. 4 del testo del settembre 2022, il cuore pulsante di questa proposta di direttiva, istituisce la nozione di «presunzione relativa di nesso di causalità», il cui termine «relativa» potrebbe costituire un vero e proprio “vizio di forma”, responsabile di notevoli rallentamenti nel caso in cui una vittima chiedesse il risarcimento per la riparazione di un danno. È inevitabile constatare, infatti, che nel testo per come si presenta allo stato attuale, rimane la necessità di dimostrare tale nesso di causalità, che sia da una o dall’altra parte, e con tutto ciò che ne consegue.
Tuttavia, questo alleggerimento potrebbe essere significativo nella misura in cui, nel settore dell’IA, dimostrare il nesso di causalità tra la colpa e il pregiudizio può rivelarsi piuttosto complesso per la vittima, per via della complessità dei sistemi di intelligenza artificiale e dell’opacità che pregiudica la comprensione del loro funzionamento. Trasferire dunque il “fardello” dell’onere della prova alle imprese, che sono le ideatrici dei software di IA e che ne conoscono molto meglio il funzionamento, può almeno sgravare significativamente il lavoro preparatorio delle vittime.
Segui i commenti: |