Ya hablamos hace tiempo del proyecto AI4Gov, una iniciativa de la comisión Europea orientada al desarrollo de herramientas para la administración pública basadas en Inteligencia Artificial. Este proyecto, en el que la Diputación de Badajoz colabora tanto en labores organizativas como en calidad de caso de uso, no busca solo desarrollar nuevas aplicaciones y herramientas, sino también examinar la filosofía y los métodos empleados en dicho proceso de desarrollo.
El ámbito de la administración pública trata de un sector íntimamente ligado a la vida y derechos de las personas, y con un alcance esencialmente global: toda persona ha de tratar, de una forma u otra, con la administración. Así, resulta vital que cualquier sistema relacionado con los servicios públicos se halle en un continuo proceso de escrutinio y mejora, con el objetivo de eliminar los sesgos y mecanismos discriminatorios que a menudo se encuentran en cualquier ámbito de la sociedad, y que puedan impedir un acceso igualitario a servicios, recursos y oportunidades.
Esto es particularmente notable en el caso de las IAs: la automatización que se busca conseguir a través de estas herramientas puede, si no es supervisada con cuidado, replicar sesgos preexistentes —eso, además de otras posibles complicaciones a la hora de implementar nuevas herramientas, sobre todo en el ámbito de la digitalización. Por ello, es importante tener en cuenta estos sesgos, tanto en el momento de la implementación como durante el proceso de diseño de estas aplicaciones.
Dentro del marco del programa AI4Gov, esto se refleja en el desarrollo y utilización de el Marco Regulatorio Holístico: un conjunto estructurado y completo de directrices, que busca servir como herramienta para prevenir los distintos sesgos y conductas discriminatorias en las que es posible caer al desarrollar sistemas automatizados. Más allá de ser utilizado como guía a la hora de desarrollar herramientas dentro del propio proyecto, o incluso de sistemas automatizados en general, se espera que el Marco Regulatorio Holístico (HRF, por sus siglas en inglés) sirva como guía para el uso público de IAs y análisis Big Data en el contexto de la democracia y valores democráticos europeos.
El HRF ha sido desarrollado mediante procedimientos de análisis y desarrollo, supervisados por un panel experto en el ámbito de la gobernanza y toma de decisiones basadas en Inteligencia Artificial. Mediante este proceso, se estableció una serie de guías y recomendaciones preliminares, que aún han de ir desarrollándose dentro del marco del proyecto. Actualmente, el trabajo en torno al HRF se enfoca en distintos puntos, como una definición holístca de sesgo y discriminación o un análisis cualitativo de problemáticas tradicionales dentro de los sistemas actuales. Sobre todo, se busca elaborar una arquitectura de referencia que sirva como brújula en la elaboración de sistemas, que sean no solamente sólidos desde el punto de vista tecnológico, sino también respetuosos con los derechos humanos y valores europeos.