No hay duda de que, en lo que a tecnología se refiere, la IA generativa lleva dos años acaparando titulares, promesas, metros cuadrados en foros y congresos e incluso, por qué no, recursos medioambientales. Como en cualquier boom tecnológico, es probable que buena parte de este entusiasmo se quede en nada (¿Ubi sunt aquellos días en que cada proyecto llevaba adosada una sección de blockchain, sirviese o no para algo?); pero también es verdad que, conforme vaya bajando la marea especulativa, saldrán a relucir aquellas aplicaciones que sí utilicen de forma provechosa el potencial de las LLM y modelos de difusión.
En algunos casos, esta utilidad ya empieza a estar clara: herramientas de transcripción y toma de apuntes para reuniones o asistentes para desarrollo de software (que no dejan de tener algún pero importante) ya son parte habitual de bastantes sectores que utilizan LLMs como núcleo de su funcionalidad. Otras, como la integración de chats de cara al público, todavía padecen de problemas que, unos años después de su puesta de largo, siguen si tener solución clara. En general, parece claro que cuanto más constreñido el ámbito de actuación de una IA generativa, y cuanto más involucrada en la supervisión esté una persona, mejores resultados se obtienen. Y esto puede explicar la ambivalencia, en cuanto a potencial y peligros, de una de las aplicaciones más populares de las LLMs: los Agentes IA
Es complicado dar una definición exacta de Agente IA en el contexto de la IA generativa, pero una buena forma de entenderlo es que se trata de una LLM con la capacidad de realizar acciones de forma relativamente autónoma en un determinado entorno: es decir, una herramienta IA centrada en la ejecución de acciones y, sobre todo en la toma de decisiones, y no en la generación de contenido. Un ejemplo sería una herramienta de scrapping que analizase paginas web en busca de elementos visuales concretos, o una herramienta de gestión de horarios y actividades conectada a un calendario interactivo.
En ese sentido, muchas de las aplicaciones que mencionábamos antes podrían entenderse como Agentes IA – y que estos responden al mismo criterio de éxito: un agente puede ser más útil, cuanto más centrado esté en un ámbito concreto. Es decir, aunque una de las mayores ventajas de un Agente es su flexibilidad (comparado con otros tipos de automatismos), intentar abarcar demasiado puede terminar por extinguir su utilidad práctica. De la misma manera, no siempre es fácil encontrar un equilibrio entre las posibilidades que aporta una LLM, y la seguridad de los sistemas de análisis y decisión basados en tecnologías más tradicionales.
Es importante también comentar un par de riesgos inherentes al uso de agentes, precisamente por el rango de acción de que pueden disfrutar.
Por una parte, la responsabilidad legal sobre las acciones llevadas a cabo por un agente; En un panorama donde estas herramientas, de forma cada vez más habitual, se ofrecen como servicios Software As A Service (es decir, no se vende una herramienta, si no el acceso a ella), puede ser difícil dirimir donde cae la responsabilidad sobre las decisiones tomadas por el agente: ¿La entidad que lo utiliza o la empresa que la pone a disposición de ésta? Además, puesto que el comportamiento de un agente está sujeto a multitud de sesgos, provenientes tanto del material que use como referencia, como de los datos usados para su entrenamiento, puede ser complicado establecer una trazabilidad concreta de ciertas decisiones.
Por otra parte, más allá incluso de una cuestión meramente legal, hay una cuestión si cabe más preocupante: como ya comentábamos hace unos meses, los agentes IA han demostrado una capacidad real para ejecutar acciones contrarias a sus propias directrices de ética y seguridad. Seis meses más tardes, no hay ningún avance en este campo: sigue existiendo una vulnerabilidad intolerable a la desalineación agencial, que de momento pone un limite al grado de responsabilidad que se puede otorgar a una herramienta de este tipo.
En definitiva, parece claro que, pese a la inversión cada vez mayor en IA por parte de los grandes del sector, y del a veces excesivo entusiasmo de empresas y entidades pública buscando implementar una herramienta novedosa, todavía hace falta examinar muy detenidamente cada caso de uso antes de integrar este tipo de tecnología: aunque los agentes pueden ser una adición útil a un sistema robusto, los peligros y particularidades que traen con ellos nos obligan a tomar todas las precauciones posibles. Siempre considerando el ámbito (lo más limitado posible), y siempre procurando que haya un factor humano, capaz de validar el trabajo de la IA – y acarrear la correspondiente responsabilidad.
