Sin duda alguna, la Inteligencia Artificial es la tecnología del momento. Ya se trate de vistosas herramientas de Inteligencia Artifical Generativa como ChatGPT o Stable Diffussion o de los omnipresentes pero menos visibles algoritmos de recomendación, herramientas de análisis Big Data y analítica predictiva, es imposible negar que esta rama de la tecnología cada vez tiene más peso en todos los ámbitos de nuestra vida: desde nuestro día a día más mundano hasta los procesos de toma de decisiones de las administraciones públicas, pasando por los servicios públicos, las grandes empresas, etc.
Sin embargo, esta tecnología (o mejor dicho, conjunto de tecnologías) presenta un número de riesgos equivalente a las oportunidades que proporciona: malas prácticas en el desarrollo, utilización de conjuntos de datos sesgados y perpetuación de esos mismos sesgos, aplicaciones que chocan de frente con la legislación europea relativa a la transparencia… La rapidez con la que esta tecnología se ha desarrollado en los últimos años ha hecho casi imposible establecer un marco legal que asegure que estos riesgos son debidamente paliados; y al mismo tiempo, existe un cierto temor a que una regulación excesiva limite la innovación en un sector en el que la competencia es feroz.
En aras de encontrar un equilibrio entre la innovación y la protección de los derechos fundamentales, la Union Europea ha redactado —tras casi 3 años de deliberaciones— la conocida como Ley de Inteligencia Artificial, que busca regular la aplicación de esta tecnología en los países miembros.
Sin entrar en mucho detalle, es importante destacar que la regulación se basa en la clasificación de los distintos casos en función del riesgo. Cabe destacar que, aunque se tienen en cuenta las tecnologías concretas aplicadas, y su desarrollo y funcionamiento, el elemento clave que se usa para definir el nivel de riesgo es el ámbito en el que se aplican, y el uso que se les da. Así, tendríamos cuatro categorías generales:
- Riesgo mínimo: Serían por ejemplo sistemas de recomendación, filtros, spam, entretenimiento, etc.
- Riesgo limitado: Aquí se incluyen sistemas que puedan conducir a riesgos relacionados con la transparencia, o con delitos de manipulación o suplantación de la identidad. Sería el caso de chatbots, generación y manipulación de imagenes, etc
- Alto riesgo: Se trata de aquellos sistemas implementados en el ámbito público: administración pública, educación, servicios públicos… además de otros usos sensibles, como el uso de IAs para procesos de selección de personal
- Riesgo inaceptable: Aquellos sistemas que, por su implementación, se consideran que pueden contravenir los derechos fundamentales de la ciudadanía de la Unión Europea, como sistemas de reconocimiento. Cabe destacar que estas limitaciones no se aplican con el mismo criterio, por ejemplo, al caso de las fuerzas de seguridad.
La Ley de Inteligencia Artificial busca así implementar una serie de medidas (de registro de las soluciones en bases de datos públicas, adhesión a estándares de transparencia, etc), siempre en función del nivel de riesgo correspondiente.
La ley entró en vigor el pasado Agosto, y tendrá una implementación gradual: las prohibiciones sobre las prácticas inaceptables serán aplicadas a partir de los 6 meses; los códigos de buenas prácticas permitirán un periodo de adaptación de 9 meses a partir de Agosto; las reglas sobre las IAs generativas entrarán en vigor a partir de los 12 meses; y las medidas para sistemas de alto riesgo se irán implementando a lo largo de los próximos 3 años.
Para un resumen (en inglés) de la aplicación de esta nueva legislación, podéis echar un vistazo al resumen que hizo el equipo de Rythmisis durante el Open Day del proyecto AI4Gov, un proyecto del que ya hemos hablado, y en el que la Diputación de Badajoz colabora con otras entidades europeas para confrontar los riesgos y retos presentados por el uso de la tecnología IA en las administraciones públicas.