|
Recent times have seen a disruptive advance in the use of automated decision-making processes operating on the basis of algorithms, better known as artificial intelligence (AI). The positive effects of such technology, however, risk being neutralized where the opacity of the aforementioned processes does not allow for the easy identification of the party to whom the risk of harm or damage should be allocated. The problem arises in particular with regard to so-called strong Ais, operating by means of algorithms. Strong AI functioning by means of cognitive-predictive algorithms, especially in machine-tomachine relations, where human intervention is totally excluded. The work proposes to identify possible paths to arrive at an appropriate legal framework with regard to the prejudicial consequences of the application/use of artificial intelligence in the absence of an ad hoc regulation of liability for conduct arising from algorithms. The focus is on the analysis of the solutions that already exist and are most suitable to regulate the case. Then the institutes of product liability, liability for dangerous activities and liability for things in custody are addressed. Finally, the European proposal for a regulation that envisages liability based on risk management will be scrutinized, highlighting the merits and distortions.; I tempi recenti hanno visto un avanzare dirompente dell’utilizzo di processi decisionali automatizzati che operano sulla base di algoritmi, meglio conosciuti come intelligenza artificiale (IA). Gli effetti positivi di tale tecnologia tuttavia rischiano di essere neutralizzati laddove l’opacità dei processi summenzionati non permetta di individuare facilmente il soggetto in capo al quale allocare il rischio di danno o pregiudizio. Il problema si pone in particolare difronte alle cd. IA forti, funzionanti per mezzo di algoritmi cognitivo-predittivi, in specie nei rapporti machine to machine, ove l’intervento umano è totalmente escluso. Il lavoro si propone di individuare i percorsi possibili per addivenire ad una cornice legale appropriata con riguardo alle conseguenze pregiudizievoli da applicazione/utilizzo di un’intelligenza artificiale in assenza di una regolamentazione ad hoc della responsabilità per condotte scaturenti da algoritmi. L’attenzione viene focalizzata sull’analisi delle soluzioni già esistenti e più adeguate a regolamentare la fattispecie. Quindi, vengono affrontate gli istituti della responsabilità da prodotto difettoso, la responsabilità da attività pericolosa e la responsabilità da cosa in custodia. In ultimo, si scandaglierà la proposta europea per una normativa che immagina una responsabilità fondata sulla gestione del rischio, evidenziando i pregi e le distonie.
|