News

El Parlamento Europeo aprueba una ley histórica sobre Inteligencia Artificial

La Ley de IA incluye prohibiciones de vigilancia policial predictiva y de reconocimiento facial, así como requisitos de transparencia y rendición de cuentas

Article by Fair Trials
  • El 16 de junio de 2023 el Parlamento Europeo aprobó la emblemática Ley de Inteligencia Artificial (IA), votando a favor de prohibir el uso de sistemas de predicción policial y criminal. La prohibición es la primera de este tipo en Europa así como la primera prohibición importante frente a estos sistemas en todo el mundo.
  • Fair Trials ha solicitado la prohibición de estos sistemas desde 2021, por considerarlos discriminatorios, perjudiciales y contrarios a los derechos fundamentales. Eurodiputados y diputadas también votaron a favor de prohibir los sistemas de identificación biométrica a distancia, como la vigilancia por reconocimiento facial, y de garantizar medidas de transparencia y rendición de cuentas para otros sistemas de IA.

El 16 de junio de 2023 el Parlamento Europeo votó a favor de aprobar el texto de la Ley de IA de la UE, una propuesta legislativa emblemática para regular la IA en función de su potencial para causar daños.

En una votación plenaria de todo el Parlamento Europeo, eurodiputados y diputadas votaron el texto de la Ley de Inteligencia Artificial tras meses de negociaciones.

El texto final incluye una prohibición de los sistemas de predicción policial y criminal utilizados por las autoridades policiales y judiciales de la Unión Europea; solicitud que Fair Trials presentó por primera vez en 2021.

Los eurodiputados y diputadas votaron a favor de la prohibicióndel uso de sistemas de IA para “hacer evaluaciones de riesgo de personas físicas o grupos” con el fin de “evaluar el riesgo de una persona física de delinquir o reincidir”, así como “para predecir la ocurrencia o reincidencia de un delito penal real o potencial”. Esta prohibición es la primera de este tipo en Europa, y la primera prohibición importante frente a estos sistemas en todo el mundo. Algunas ciudades y municipios de Estados Unidos también han aplicado prohibiciones.

Se ha demostrado que el uso de estos sistemas por parte de las fuerzas del orden y las autoridades de justicia penal reproduce y refuerza la discriminación existente, y ya da lugar a que se detenga, registre, arreste y encarcele de forma desproporcionada a personas de raza negra, romaníes y otras minorías étnicas en toda Europa.

Juicios Justos ha documentado numerosos sistemas de predicción y elaboración de perfiles utilizados por la policía y por la justicia penal que pueden dar lugar y han dado lugar a este tipo de discriminación, así como la forma en que los intentos de “predecir” el comportamiento delictivo socavan los derechos fundamentales, incluido el derecho a un juicio justo y la presunción de inocencia.

Los eurodiputados y diputadas también votaron a favor de prohibir la “identificación biométrica a distancia”, como los sistemas de reconocimiento facial, en espacios de acceso público, así como los sistemas de reconocimiento de emociones y el rastreo masivo de bases de datos biométricas. Se acordaron otras salvaguardias, como garantizar una mayor transparencia pública de los sistemas de IA, exigiendo que se registren en una base de datos pública, dando a las personas el derecho a recibir una explicación sobre las decisions generadas por sistemas de IA, así como el acceso a recursos efectivos para impugnar las decisiones.

El texto de la Ley será ahora objeto de negociaciones entre el Parlamento Europeo, la Comisión Europea y los representantes de los Estados miembros en el Consejo Europeo, lo que se conoce como “diálogo a tres bandas”.

Griff Ferris, responsable jurídico y de políticas públicas de Fair Trials, ha señalado:

“Se trata de un resultado histórico. Esta prohibición protegerá a las personas de unos sistemas de predicción policial y criminal increíblemente perjudiciales, injustos y discriminatorios.

Hemos visto cómo el uso de estos sistemas criminaliza repetidamente a las personas, incluso a comunidades enteras, etiquetándolas como delincuentes en función de sus antecedentes. Estos sistemas automatizan la injusticia, exacerban y refuerzan el racismo y la discriminación en la actuación policial y en el sistema de justicia penal, y alimentan la desigualdad sistémica en la sociedad.

El Parlamento Europeo ha dejado claro que estos sistemas no deben utilizarse en Europa, y sigue las iniciativas lideradas por la comunidad para prohibir estas tecnologías en Estados Unidos”.

Texto de la prohibición y otras enmiendas

El texto completo de la prohibición figura a continuación, dentro del artículo 5 de la ley, que comprende una lista de “prácticas prohibidas”:

“da) la comercialización, puesta en servicio o utilización de un sistema de IA para realizar evaluaciones de riesgo de personas físicas o grupos de ellas con el fin de evaluar el riesgo de una persona física de delinquir o reincidir o para predecir la ocurrencia o reincidencia de un delito real o potencial basado en la elaboración de perfiles de una persona física o en la evaluación de rasgos y características de la personalidad, incluida la ubicación de la persona, o el comportamiento delictivo pasado de personas físicas o grupos de personas físicas;”

Fair Trials también apoyó varias otras enmiendas incluidas en el texto final de la Ley, entre ellas:

  • Prohibir la identificación biométrica a distancia (como la vigilancia por reconocimiento facial)
  • exigir la transparencia pública de los sistemas de IA de “alto riesgo” en un registro público;
  • Otorgar a las personas el derecho a recibir una explicación de una decisión de un sistema de IA
  • Dar a las personas una capacidad significativa para impugnar los sistemas de IA y obtener soluciones efectivas;
  • Garantizar que los sistemas de IA predictiva en contextos de migración se consideren de alto riesgo;
  • Garantizar que los sistemas de “alto riesgo” tengan requisitos de accesibilidad para las personas con discapacidad; y
  • Ampliar la definición de IA para cubrir toda la gama de sistemas de IA que se ha demostrado que afectan a los derechos fundamentales.