NAGIOS: RODERIC FUNCIONANDO

Il rischio dell’intelligenza artificiale applicata. Modelli di allocazione a confronto

Repositori DSpace/Manakin

IMPORTANT: Aquest repositori està en una versió antiga des del 3/12/2023. La nova instal.lació está en https://roderic.uv.es/

Il rischio dell’intelligenza artificiale applicata. Modelli di allocazione a confronto

Mostra el registre parcial de l'element

dc.contributor.author Mariolina Mollicone, Marta es
dc.date.accessioned 2023-09-25T11:11:27Z
dc.date.available 2023-09-25T11:11:27Z
dc.date.issued 2023 es
dc.identifier.citation Mariolina Mollicone, M. (2023). Il rischio dell’intelligenza artificiale applicata. modelli di allocazione a confronto. Actualidad Jurídica Iberoamericana, (18), 2108-2133 es
dc.identifier.uri https://hdl.handle.net/10550/89564
dc.description.abstract Recent times have seen a disruptive advance in the use of automated decision-making processes operating on the basis of algorithms, better known as artificial intelligence (AI). The positive effects of such technology, however, risk being neutralized where the opacity of the aforementioned processes does not allow for the easy identification of the party to whom the risk of harm or damage should be allocated. The problem arises in particular with regard to so-called strong Ais, operating by means of algorithms. Strong AI functioning by means of cognitive-predictive algorithms, especially in machine-tomachine relations, where human intervention is totally excluded. The work proposes to identify possible paths to arrive at an appropriate legal framework with regard to the prejudicial consequences of the application/use of artificial intelligence in the absence of an ad hoc regulation of liability for conduct arising from algorithms. The focus is on the analysis of the solutions that already exist and are most suitable to regulate the case. Then the institutes of product liability, liability for dangerous activities and liability for things in custody are addressed. Finally, the European proposal for a regulation that envisages liability based on risk management will be scrutinized, highlighting the merits and distortions.; I tempi recenti hanno visto un avanzare dirompente dell’utilizzo di processi decisionali automatizzati che operano sulla base di algoritmi, meglio conosciuti come intelligenza artificiale (IA). Gli effetti positivi di tale tecnologia tuttavia rischiano di essere neutralizzati laddove l’opacità dei processi summenzionati non permetta di individuare facilmente il soggetto in capo al quale allocare il rischio di danno o pregiudizio. Il problema si pone in particolare difronte alle cd. IA forti, funzionanti per mezzo di algoritmi cognitivo-predittivi, in specie nei rapporti machine to machine, ove l’intervento umano è totalmente escluso. Il lavoro si propone di individuare i percorsi possibili per addivenire ad una cornice legale appropriata con riguardo alle conseguenze pregiudizievoli da applicazione/utilizzo di un’intelligenza artificiale in assenza di una regolamentazione ad hoc della responsabilità per condotte scaturenti da algoritmi. L’attenzione viene focalizzata sull’analisi delle soluzioni già esistenti e più adeguate a regolamentare la fattispecie. Quindi, vengono affrontate gli istituti della responsabilità da prodotto difettoso, la responsabilità da attività pericolosa e la responsabilità da cosa in custodia. In ultimo, si scandaglierà la proposta europea per una normativa che immagina una responsabilità fondata sulla gestione del rischio, evidenziando i pregi e le distonie. es
dc.title Il rischio dell’intelligenza artificiale applicata. Modelli di allocazione a confronto es
dc.type journal article es_ES
dc.subject.unesco UNESCO:CIENCIAS JURÍDICAS es
dc.type.hasVersion VoR es_ES
dc.identifier.url https://revista-aji.com/articulos/2023/18/AJI18_75.pdf

Visualització       (452.4Kb)

Aquest element apareix en la col·lecció o col·leccions següent(s)

Mostra el registre parcial de l'element

Cerca a RODERIC

Cerca avançada

Visualitza

Estadístiques