NAGIOS: RODERIC FUNCIONANDO

Desigualdades algorítmicas: conductas de alto riesgo para los derechos humanos

Repositori DSpace/Manakin

IMPORTANT: Aquest repositori està en una versió antiga des del 3/12/2023. La nova instal.lació está en https://roderic.uv.es/

Desigualdades algorítmicas: conductas de alto riesgo para los derechos humanos

Mostra el registre parcial de l'element

dc.contributor.author Añón Roig, María José
dc.date.accessioned 2023-05-02T08:30:22Z
dc.date.available 2023-05-03T04:45:05Z
dc.date.issued 2022 es_ES
dc.identifier.citation Añón Roig, M. J. (2022). Desigualdades algorítmicas: conductas de alto riesgo para los derechos humanos. DERECHOS Y LIBERTADES: Revista De Filosofía Del Derecho Y Derechos Humanos, (47), 17-49. es_ES
dc.identifier.uri https://hdl.handle.net/10550/86253
dc.description.abstract Este artículo propone un análisis sobre las desigualdades originadas o reforzadas por el uso de los modelos y programas de aprendizaje automático que encuentran una de sus principales justificaciones en el principio de precisión predictiva, así como sobre algunas respuestas que cabe esperar del sistema jurídico para abordarlas. Este tema ha sido tratado fundamentalmente bien a través de la tutela del derecho a la privacidad y la protección de datos, bien mediante la elaboración de códigos éticos. Aquí se adoptarán dos perspectivas distintas a las anteriores. En primer lugar, el enfoque del riesgo, marco en el que se ha empla-zado recientemente la regulación europea de la inteligencia artificial y desde el que se examinarán las obligaciones vinculadas a las prácticas consideradas de alto riesgo. En segundo lugar, la perspectiva del Derecho antidiscriminatorio; en este sentido, se analizarán las virtualidades y los límites del este sector de los ordenamientos jurídicos. La finalidad de este artículo es mostrar que si el Derecho antidiscriminatorio ha de responder a las prácticas más controvertidas de los modelos algorítmicos, ha de superar la visión binaria de la teoría anti-discriminatoria y ser interpretada como una teoría jurídica con capacidad para transformar la realidad social. es_ES
dc.description.abstract This article proposes an analysis of the inequalities that arise from or are reinforced using artificial intelligence models that find one of their main justifications in the principle of predictive accuracy, and some of the replies that can be expected from the legal system to deal with them. The approach to this issue has mainly been through the right to privacy and data protection, on the one hand, or the development of ethical codes, on the other. Here I adopt two different perspectives. First, the risk approach offers a framework in which the European regulation of artificial intelligence has recently been situated from a regulatory point of view. It examines the obligations linked to practices considered high-risk. Second, the perspective of anti-discrimination law; the potential and limits of this area of Law. The aim of this article is to show that the capacity of anti-discrimination law to respond to the most controversial practices of algorithmic models, it must overcome the binary vision of anti-discrimination theory and be interpreted as a legal theory oriented to transform social reality. en_US
dc.language.iso es es_ES
dc.publisher Instituto de Derechos Humanos Gregorio Peces-Barba de la Universidad Carlos III de Madrid es_ES
dc.subject inteligencia artificial es_ES
dc.subject derechos humanos es_ES
dc.subject riesgo es_ES
dc.subject discriminación estructural es_ES
dc.subject justicia es_ES
dc.title Desigualdades algorítmicas: conductas de alto riesgo para los derechos humanos es_ES
dc.type journal article es_ES
dc.subject.unesco UNESCO::CIENCIAS JURÍDICAS Y DERECHO es_ES
dc.identifier.doi 10.20318/dyl.2022.6872 es_ES
dc.accrualmethod S es_ES
dc.embargo.terms 0 days es_ES
dc.type.hasVersion AO es_ES
dc.rights.accessRights open access es_ES

Visualització       (337.7Kb)

Aquest element apareix en la col·lecció o col·leccions següent(s)

Mostra el registre parcial de l'element

Cerca a RODERIC

Cerca avançada

Visualitza

Estadístiques