En abril de este año la Comisión Europea ha presentado la primera normativa sobre Inteligencia Artificial que introduce un contexto legal para estas nuevas tecnologías.
Esta normativa busca garantizar la seguridad y dar un marco legal para la introducción de estas nuevas tecnologías creando niveles de riesgo y, entre otros supuestos, prohibiendo el reconocimiento facial bajo ciertas circunstancias.
La propuesta de la Comisión Europa para regular la Inteligencia Artificial establece cuatro niveles de riesgo: riesgo mínimo, riesgo limitado, alto riesgo e inaceptable. Informan, además, que las normas deberán ser implementadas por todos los estados miembro, quedando excluidos de la normativa los usos de la Inteligencia Artificial a nivel militar
El reconocimiento facial plantea muchas dudas en cuanto su aplicación y deberá estar sujeta a obligaciones estrictas, entre las que se incluye análisis de riesgos, trazabilidad de resultados, documentación detallada, supervisión humana y un alto nivel de robustez de los sistemas.
Una de los puntos que se quiere evitar, y que se lleva a cabo en algunos gobiernos de otros países, es la llamada “social score”, que está listada como inaceptable en la normativa, que consiste en determinar la credibilidad o reputación de una persona en función a varios factores, como pueden ser sus datos personales o su actividad en redes sociales, para asignarle una puntuación que pueden generar desigualdad y otras discriminaciones en muchos ámbitos de la vida (que un banco no te acepte un préstamo, denegación de una beca, valoraciones negativas para alcanzar un puesto de trabajo,...).
Bien, el reconocimiento facial, puede ayudar a luchar contra terrorismo y muchos tipos de criminalidad, lo cierto es que los sistemas actuales no generan la confiabilidad necesaria para poder aplicarla con certeza y sin lesionar los derechos personales de los involucrados.
Dejar en manos de una Inteligencia Artificial el propio reconocimiento de individuos y la atribución de cierta información no supervisada se puede llegar a considerar negligente e incluso, si se me permite la expresión, pavoroso ¿Quién no recuerda esas obras de ficción en la que la IA consigue conciencia propia y se rebelan contra los humanos?
Por mi parte opino que aún es pronto para su aplicación para ámbitos tan sensibles y habrá que esperar a que esta tecnología avance hasta el punto de que se considere infalible y tener plena confianza en ella o que simplemente la aceptemos con sus defectos, lo que ocurra antes.
Rubén Rodríguez Miguélez, Consultor en DLTCode