Mostra el registre parcial de l'element
dc.contributor.author | Añón Roig, María José | |
dc.date.accessioned | 2023-05-02T08:30:22Z | |
dc.date.available | 2023-05-03T04:45:05Z | |
dc.date.issued | 2022 | es_ES |
dc.identifier.citation | Añón Roig, M. J. (2022). Desigualdades algorítmicas: conductas de alto riesgo para los derechos humanos. DERECHOS Y LIBERTADES: Revista De Filosofía Del Derecho Y Derechos Humanos, (47), 17-49. | es_ES |
dc.identifier.uri | https://hdl.handle.net/10550/86253 | |
dc.description.abstract | Este artículo propone un análisis sobre las desigualdades originadas o reforzadas por el uso de los modelos y programas de aprendizaje automático que encuentran una de sus principales justificaciones en el principio de precisión predictiva, así como sobre algunas respuestas que cabe esperar del sistema jurídico para abordarlas. Este tema ha sido tratado fundamentalmente bien a través de la tutela del derecho a la privacidad y la protección de datos, bien mediante la elaboración de códigos éticos. Aquí se adoptarán dos perspectivas distintas a las anteriores. En primer lugar, el enfoque del riesgo, marco en el que se ha empla-zado recientemente la regulación europea de la inteligencia artificial y desde el que se examinarán las obligaciones vinculadas a las prácticas consideradas de alto riesgo. En segundo lugar, la perspectiva del Derecho antidiscriminatorio; en este sentido, se analizarán las virtualidades y los límites del este sector de los ordenamientos jurídicos. La finalidad de este artículo es mostrar que si el Derecho antidiscriminatorio ha de responder a las prácticas más controvertidas de los modelos algorítmicos, ha de superar la visión binaria de la teoría anti-discriminatoria y ser interpretada como una teoría jurídica con capacidad para transformar la realidad social. | es_ES |
dc.description.abstract | This article proposes an analysis of the inequalities that arise from or are reinforced using artificial intelligence models that find one of their main justifications in the principle of predictive accuracy, and some of the replies that can be expected from the legal system to deal with them. The approach to this issue has mainly been through the right to privacy and data protection, on the one hand, or the development of ethical codes, on the other. Here I adopt two different perspectives. First, the risk approach offers a framework in which the European regulation of artificial intelligence has recently been situated from a regulatory point of view. It examines the obligations linked to practices considered high-risk. Second, the perspective of anti-discrimination law; the potential and limits of this area of Law. The aim of this article is to show that the capacity of anti-discrimination law to respond to the most controversial practices of algorithmic models, it must overcome the binary vision of anti-discrimination theory and be interpreted as a legal theory oriented to transform social reality. | en_US |
dc.language.iso | es | es_ES |
dc.publisher | Instituto de Derechos Humanos Gregorio Peces-Barba de la Universidad Carlos III de Madrid | es_ES |
dc.subject | inteligencia artificial | es_ES |
dc.subject | derechos humanos | es_ES |
dc.subject | riesgo | es_ES |
dc.subject | discriminación estructural | es_ES |
dc.subject | justicia | es_ES |
dc.title | Desigualdades algorítmicas: conductas de alto riesgo para los derechos humanos | es_ES |
dc.type | journal article | es_ES |
dc.subject.unesco | UNESCO::CIENCIAS JURÍDICAS Y DERECHO | es_ES |
dc.identifier.doi | 10.20318/dyl.2022.6872 | es_ES |
dc.accrualmethod | S | es_ES |
dc.embargo.terms | 0 days | es_ES |
dc.type.hasVersion | AO | es_ES |
dc.rights.accessRights | open access | es_ES |