"Para comenzar a regular los algoritmos hay que reconocer que no son neutrales. Incluso el proceso de nombrar ciertas características y encontrar correlaciones con otras supone un prejuicio", aseguran las autoras. Artículo completo publicado originalmente en alemán en 'Verfassungsblog’. Puedes leerlo aquí.Texto traducido por Anna Oakes....
En Austria, desde 2019, un algoritmo clasifica a las personas desempleadas según sus posibilidades en el mercado laboral. El software divide a las personas que buscan empleo en tres grupos: las que tienen buenas, medianas o malas expectativas de encontrar un trabajo. Sobre esta base, el Servicio Público de Empleo de Austria (AMS por sus siglas en alemán) quiere concentrar sus recursos a partir de 2020 principalmente en las personas que se encuentran en el grupo medio, donde serán utilizados de forma más efectiva. Las “posibilidades de integración en el mercado laboral” de las mujeres, según lo que evalúa el algoritmo, son totalmente negativas. Además, tener hijos dependientes provoca a una mala clasificación, pero solo para las mujeres. En el caso de los hombres, los programadores de software argumentan que la obligación de cuidado no tiene un impacto negativo estadístico en sus expectativas en el mercado laboral.
La comisaria europea de Derechos Humanos alerta del uso de algoritmos en sistemas policiales y judiciales de la Unión que atentan contra los derechos ciudadanos.
Algoritmos para predecir en qué zonas es más probable que tengan lugar robos u otro tipo de crímenes, algoritmos para ayudar a decidir si imponer prisión preventiva o no a una persona pendiente de juicio. Los algoritmos han llegado y también lo han hecho a los sistemas policiales y judiciales europeos. Y de ello alerta la comisaria de Derechos Humanos en el Consejo de Europa, Dunja Mijatović. “Aunque aún se encuentran en sus etapas experimentales, el uso de algoritmos de aprendizaje automático en los sistemas de justicia penal es cada vez más común”, afirma Mijatović en un texto publicado en la web del Consejo de Europa en el que señalaba los resultados “potencialmente discriminatorios” de este tipo de programas de predicción de delitos.