
Intelligenza Artificiale e Responsabilità Civile
Il Consiglio europeo ha approvato in via definitiva il Regolamento Europeo sull’intelligenza artificiale (AI ACT), che entrerà pienamente in vigore in Italia dopo la pubblicazione sulla Gazzetta Ufficiale. A dispetto delle intenzioni della UE di predisporre la miglior disciplina nel minor tempo possibile su un’innovazione tanto significativa, il Regolamento non contiene alcuna previsione specifica sulle conseguenze di eventuali danni provocati dall’AI. A regolare la materia dovrebbero intervenire due proposte di direttiva: (i) la Product Liability Directive (PLD), che interviene sui danni da prodotti difettosi, includendo i sistemi di AI; (ii) la AI Liability Directive (AILD) che disciplina la risarcibilità degli altri danni provocati dall’intelligenza artificiale.
La continua diffusione dei progressi tecnologici ha reso le norme nazionali inadatte a disciplinare le azioni di responsabilità per danni causati da prodotti e servizi basati sull’AI. Secondo la Commissione Europea, le peculiarità, la complessità e più in generale le caratteristiche dell’AI rendono eccessivamente difficile, se non impossibile, garantire un’effettiva tutela a coloro che ritengono di essere danneggiati dal suo utilizzo.
L’inadeguatezza dell’attuale normativa codicistica nazionale è evidente. Il nostro ordinamento, in tema di responsabilità civile extracontrattuale, prevede che il soggetto danneggiato deve identificare il responsabile del danno subito, dimostrarne la colpa (o il dolo) e provare il nesso di causa intercorrente tra la colpa e il danno che gli è stato arrecato. Questo procedimento – che già di per sé rende in alcuni casi difficile il soddisfacimento dell’onere della prova da parte del danneggiato – diventa ancora più complesso quando il danno arrecato proviene da sofisticati algoritmi.
Per ovviare a queste problematiche, il 28 settembre 2022 la Commissione Europea ha presentato le due proposte di direttiva a cui abbiamo accennato sopra, volte sia a ridurre l’incertezza giuridica per le imprese che sviluppano o utilizzano AI, sia a garantire una protezione più ampia e univoca dei diritti: i) una proposta di Direttiva sulla responsabilità per danno da prodotti difettosi e ii) una proposta di Direttiva sulla responsabilità extracontrattuale da intelligenza artificiale.
Le due proposte hanno un comune denominatore: l’alleggerimento dell’onere della prova del danneggiato, che molto spesso non è in grado di comprendere e dimostrare il funzionamento di tecnologie complesse come l’AI o di avvalersi di consulenze specifiche e particolarmente onerose (che di fatti, renderebbe iniqua la tutela dei consumatori).
In conclusione, dopo l’AI Act, le due proposte di Direttiva appena analizzate si inseriscono pienamente all’interno di quel percorso in divenire che l’Unione europea sta compiendo nell’ambito della regolamentazione dell’Intelligenza Artificiale. E’ evidente come l’esistenza di un’ampia regolamentazione della responsabilità per i danni causati dai sistemi di AI appare necessaria come principale strumento di tutela dei soggetti che vengono in contatto con quei sistemi, che saranno sempre più diffusi e pervasivi, attraverso la previsione di una cornice normativa adeguata ed efficace. Tale strumento di tutela dovrebbe essere in grado non di ridurre, ma di rafforzare la fiducia nell’AI e di promuovere un ambiente digitale affidabile e coerente con i valori dell’UE e in linea con i principi fondamentali tutelati dal nostro ordinamento, primo fra tutti quello della protezione da un danno ingiusto dei soggetti in buona fede.
Avv. Alessandro Facchino, Avv. Enzo Cardone e Dott. Pietro Facciolo