Inteligencia Artificial: Útil, cercana y peligrosa

Hemos pasado las últimas semanas examinando los conceptos básicos de las redes neuronales, la base tecnológica para muchas de las herramientas que en los últimos años han ganado una inmensa popularidad bajo la etiqueta de Inteligencia Artificial. El potencial de esta tecnología es innegable, pero también es importante señalar que cada vez más estudios y experiencias van dejando al descubierto los peligros inherentes a estas herramientas, cada vez más omnipresentes.

Uno de esos efectos perjudiciales, de los que ya hemos hablado, es el daño que las herramientas basadas en Modelos Extensos de Lenguaje pueden provocar sobre el medio ambiente. Como ya mencionábamos en ese artículo, los centros de datos que alojan los procesos de entrenamiento y uso de estas herramientas llevan asociado un importante gasto energético y de agua. Éste último requisito es particularmente notable si tenemos en cuenta que, al mismo tiempo que España se seca, los nuevos centros de datos proyectados en distintos puntos de la península amenazan con consumir una parte importante de los recursos hídricos locales.

También son notables los riesgos presentados por el comportamiento negativo de los LLM cuando se les proporcionan las herramientas para realizar una toma de decisiones compleja (el “desalineamiento de agentes” del que hablábamos hace poco; por no hablar de la reproducción de sesgos que, inevitablemente presentes en los conjuntos de datos empleados para el entrenamiento de los modelos (así como en las entidades que ponen en uso los LLM), pueden llevar a la perpetuación de injusticias sociales, en vez de combatirlas.

Por otro lado, algo de lo que solo ahora empieza a haber evidencia firme, gracias a estudios realizados en los últimos años, es el efecto de los LLM sobre las propias personas que los utilizan. Recientemente, un estudio realizado por un grupo de investigación del MIT muestra una perdida importante de la capacidad de análisis y aprendizaje entre las personas al utilizar LLMs como asistentes a la hora de realizar tareas de redacción; un resultado que refleja las opiniones expresadas por el profesorado al comprobar los trabajos realizados por un alumnado cada vez más acostumbrado al uso de estas herramientas.

No solo los LLM pueden generar esta perdida de habilidades: un reciente artículo publicado en The Lancet avisa sobre la perdida de capacidad diagnóstica de profesionales de la salud en los centros médicos estudiados, después de utilizar asistentes basados en Inteligencia Artificial para ayudar en la detección de adenomas (tumores epiteliales benignos).

En definitiva, como con cualquier tecnología tan útil y aparentemente peligrosa como las herramientas “IA” están demostrando ser, es necesario actuar con precaución. No solo a través de legislación, lógicamente necesaria, si no también a través de un ejercicio de conciencia individual que nos haga entender el coste, material, social y cognitivo, de esta tecnología a veces demasiado tentadora.