Mostra el registre complet de l'element
Soriano Arnanz, Alba
Boix Palop, Andrés (dir.) Departament de Dret Administratiu i Processal |
|
Aquest document és un/a tesi, creat/da en: 2020 | |
La creciente capacidad computacional de los sistemas automatizados de procesamiento de datos ha generado un aumento de su utilización en toda clase de actividades humanas. Estos sistemas pueden procesar cantidades masivas de datos y proporcionar resultados muy precisos, ayudando a los responsables de la toma de decisiones, tanto en el sector público como en el privado, a clasificar a los seres humanos y a predecir sus acciones. Sin embargo, en los últimos años se ha venido demostrando que estos sistemas pueden generar importantes riesgos para los derechos fundamentales y otros valores y principios democráticos. La presente tesis se centra, sobre todo, en los daños que el uso de algoritmos puede generar para los derechos a la igualdad y a la no discriminación. La construcción de las sociedades occidentales sobre unas estructuras que, históricamente, han discriminado contra ciertos grupos...
[Llegir més ...]
[-]
La creciente capacidad computacional de los sistemas automatizados de procesamiento de datos ha generado un aumento de su utilización en toda clase de actividades humanas. Estos sistemas pueden procesar cantidades masivas de datos y proporcionar resultados muy precisos, ayudando a los responsables de la toma de decisiones, tanto en el sector público como en el privado, a clasificar a los seres humanos y a predecir sus acciones. Sin embargo, en los últimos años se ha venido demostrando que estos sistemas pueden generar importantes riesgos para los derechos fundamentales y otros valores y principios democráticos. La presente tesis se centra, sobre todo, en los daños que el uso de algoritmos puede generar para los derechos a la igualdad y a la no discriminación. La construcción de las sociedades occidentales sobre unas estructuras que, históricamente, han discriminado contra ciertos grupos sociales implica que, todavía hoy, existen unas estructuras de discriminación que vertebran las instituciones e interacciones entre seres humanos. Puesto que los algoritmos son creados por seres humanos y analizan información del mundo real, es fácil que estos sistemas integren también dichas estructuras discriminatorias. El presente trabajo analiza la forma en que el marco jurídico en materia de igualdad y no discriminación puede lidiar con los daños a los derechos a la igualdad y a la no discriminación generados por los sistemas algorítmicos. Asimismo, se identifican también las deficiencias de este marco jurídico a la hora de abordar las especificidades propias de los casos de discriminación algorítmica.
Ahora bien, el uso de sistemas automatizados genera una serie de problemas que va más allá de los riesgos generados a la igualdad y no discriminación. Todos estos problemas se encuentran íntimamente relacionados entre sí. Así, por ejemplo, la opacidad y complejidad que caracteriza a los algoritmos dificulta la defensa de aquellos derechos que puedan verse menoscabados cuando las personas son sometidas a procedimientos automatizados de toma de decisiones, limitando así su derecho a un proceso justo. Hasta la fecha, las normas en materia de protección de datos han constituido el principal instrumento jurídico encargado de hacer frente a los riesgos y daños causados por el tratamiento automatizado de datos personales. A falta de otros instrumentos jurídicos específicamente diseñados para abordar los riesgos y problemas surgidos de los recientes desarrollos tecnológicos, el marco jurídico en materia de protección de datos ha tratado de dar una respuesta global a todos los problemas derivados del creciente uso de las nuevas tecnologías de procesamiento de datos. Sin embargo, el marco jurídico en materia de protección de datos adolece de importantes deficiencias a la hora de lidiar con los diferentes problemas y riesgos generados por el creciente uso de sistemas algorítmicos, sobre todo, resulta patente su falta de adecuación para proteger los derechos a la igualdad y a la no discriminación de las personas sometidas a procesos automatizados de toma de decisiones.
Finalmente, este trabajo pone de manifiesto la necesidad de una mayor intervención regulatoria en la utilización pública y privada de los sistemas automatizados de procesamiento de datos y toma de decisiones atendiendo no solo a los riesgos para los derechos fundamentales y valores democráticos básicos, sino también a los fallos de mercado generados en torno a la actividad del sector de los servicios de datos. También se formulan una serie de propuestas que, de aplicarse, deberían contribuir a superar algunos de las insuficiencias del actual marco normativo en la prevención, gestión y solución de los riesgos y daños causados por los algoritmos. En general, se trata de mostrar la necesidad de introducir significativos cambios normativos para hacer frente a los retos que el creciente uso de sistemas algorítmicos impone a los valores democráticos básicos.The growing computational capacity of automated data processing systems has led to an increase in their use in all kinds of human activities. These systems can process massive amounts of data and provide very accurate results, helping decision-makers in both the public and private sectors to classify human beings and predict their actions. However, over the past few years, several cases have come to light showing that these systems can generate significant risks to fundamental rights and other democratic values and principles. This thesis focuses, above all, on the damage that the use of algorithms can generate for the rights to equality and non-discrimination. Western societies have been built upon structures that have historically discriminated against the members of certain groups. These structures of discrimination still persist nowadays. Since algorithms are created by human beings and analyse real-world information, it is easy for these systems to integrate such discriminatory structures as well. This thesis looks at how the legal framework for equality and non-discrimination can deal with the harms that algorithms can cause the rights to equality and non-discrimination. It also identifies the shortcomings of this legal framework in addressing the specificities of algorithmic discrimination cases.
However, the use of automated systems generates a number of problems that go beyond the risks generated to equality and non-discrimination. All these problems are closely linked to each other and must therefore be analysed in a comprehensive manner. For example, the opacity and complexity that characterises algorithms hinders the chances that individuals may have in defending their rights when they are subjected to automated decision-making procedures, thus limiting individual’s due process rights. To date, data protection regulations have been the main legal instrument aimed towards dealing with the risks and damage caused by the automated processing of personal data. In the absence of other legal instruments specifically designed to address the risks and problems arising from recent technological developments, the data protection legal framework has sought to provide a comprehensive response to all problems arising from the increasing use of new data processing technologies. However, the data protection legal framework has major shortcomings in dealing with the different problems and risks generated by the use of algorithmic systems. This work points out said shortcomings, in particular, with regard to the protection of the rights to equality and non-discrimination.
Finally, this work highlights the need for greater regulatory intervention in the public and private use of automated data processing and decision-making systems and justifies the need for said intervention not only by pointing out the harms that these systems can cause to fundamental rights and democratic values and principles, but also by referring to the market failures that are generated surrounding the data services sector. The final part of the thesis makes a series of proposals which, if implemented, should help to overcome some of the shortcomings of the current regulatory framework in the prevention, management and solution of the risks and damage caused by algorithms. All in all, the thesis conveys the need for a complete paradigm shift in the regulatory instruments applicable to algorithms in order to tackle the many challenges that these new technological developments are placing on democratic values.
|
|
Veure al catàleg Trobes |