¿Existen una IA buena y una IA mala?

“La Inteligencia Artificial ha llegado para quedarse” es una frase quizá ya un poco manida, pero apunta a una percepción cada vez más generalizada de IA como una herramienta con multitud de aplicaciones útiles. Desde el ámbito de la investigación a aplicaciones en medicina predictiva, hay multitud de posibles ejemplos del beneficio de la IA para la sociedad en general.

Al mismo tiempo, cada vez cobran más importancia las críticas vertidas sobre esta tecnología, en base a una serie de hechos igualmente incontestables: la falta de supervisión a muchas de las empresas desarrolladoras, el impacto medioambiental, las consecuencias en el mercado laboral, el efecto que el uso generalizado de chatbots y otros productos similares puede tener sobre las mismas personas que los utilizan, etc. Un verdadero toque de atención que apunta a la importancia de mantener una mirada abierta, pero crítica, sobre esta tecnología emergente.

Curiosamente, en el discurso que permea los distintos foros de opinión pública en torno al tema de
la Inteligencia Artificial y sus posibles ventajas e inconvenientes, se está viendo una tendencia a señalar a algunas tecnologías IA como “buenas” y a otras como “malas”. En concreto, las herramientas que ya llevan un cierto tiempo implementándose, como herramientas analíticas o redes neuronales, se perciben como más positivas –o menos controvertidas, al menos– que aquellas basadas en tecnologías más recientes, como la IA generativa. Esto además pone de relieve un problema habitual cuando hablamos de Inteligencia Artificial, y es que a menudo agrupamos en una misma categoría a un rango muy variado de técnicas y productos, que no siempre son comparables.

Aunque no fuera este el caso, la realidad es que ninguna de las dos clasificaciones es puramente benigna o maligna. En el caso de la IA más “tradicional”, aquella por lo general basada en redes neuronales y que permite la implementación de tecnologías como el reconocimiento de imágenes o técnicas de aprendizaje profundo para analítica de datos, es cierto que consume muchos menos recursos que sus equivalentes más modernos, y que es a día de hoy la más usada en ámbitos como la investigación, o aplicaciones más mundanas con un impacto más obviamente ventajoso sobre la sociedad civil (como es por ejemplo su uso en aplicaciones de control de tráfico o aforo mediante el reconocimiento de imágenes, o su uso en control de calidad). Pero al mismo tiempo, es importante recordar que se trata de herramientas basadas en la utilización de colecciones masivas de datos que no dejan de estar sujetas a sesgos, y a métodos de extracción y tratamiento de datos a veces un tanto cuestionables. De hecho, en alguno de los artículos en los que señalábamos los posibles problemas con tecnologías IA, estábamos hablando precisamente de este tipo de tecnologías.

Por otra parte, la ultima iteración de tecnologías IA, las llamadas IA generativas, son las que más han capturado la atención del público – específicamente, aplicaciones de uso general como ChatGPT – debido a su potencia, disponibilidad e, innegablemente, por el punto hasta el cual está siendo implementado casi a la fuerza en la mayoría de ámbitos digitales: navegadores, buscadores, plataformas de streaming, apps de enseñanza… Se trata de una larga lista de espacios en los que la integración de herramientas de IA generativa ha suscitado, unas veces, desconcierto, y otras, indignación. Y es que, en un panorama en el que cada vez hay más pruebas del impacto medioambiental y humano de esta tecnología, una entidad que adopte herramientas IA de forma descuidada puede verse con un problema de imagen inmediato –más aún a tenor de las ultimas polémicas respecto a las infracciones sobre derechos de copyright cometidas por las grandes desarrolladoras, por citar solo una de las muchas polémicas asociadas. Sin embargo, tampoco puede negarse la utilidad de muchas de las aplicaciones que dependen de esta nueva vuelta de tuerca a las capacidades de la IA: desde servicios de interpretación en situaciones en las que no es practico contar con profesionales humanos, hasta sistemas más amigables para el acceso a información técnica, o asistentes generalistas.


En ultima instancia, parece claro que el problema no es la tecnología en si, sino el cuidado que se
pone al implementarla, y la filosofía que hay detrás de su desarrollo y posterior uso –algo que, en realidad, podríamos decir de cualquier tecnología. Incluso algunas criticas más específicamente
ligadas a la IA, como su consumo energético o su dependencia en material con derechos de autor,
podría teóricamente resolverse con implementaciones locales (que limitaría el acceso a herramientas online como ChatGPT, pero permitiría un control exhausto sobre una tecnología que, de forma individual, no tiene un consumo tan elevado) y con modelos de lenguaje entrenados únicamente con material abierto, o que compensase adecuadamente a las personas que crearon el material original. De la misma forma, un mayor control sobre el uso de las herramientas IA, que pongan el énfasis no en el beneficio para las desarrolladoras y empresas asociadas, si no en quien en ultima instancia va a usar (y ser afectado por) la tecnología en sí.

Dicho de otra forma: si queremos poder aprovechar de forma ética el considerable potencial de la Inteligencia Artificial, es necesario abandonar el actual modelo basado en unas pocas empresas opacas que controlan el acceso a grandes plataformas y utilizan centros de datos poco sostenibles; a cambio, debemos migrar a un uso medido y local de esta tecnología, aprendiendo a ser más conscientes –a nivel social e individual– de su impacto, e implementando una filosofía de desarrollo basada en el bienestar y la sostenibilidad.