Navegas por tu página de comercio electrónico favorita, y ves como día tras día las recomendaciones y ofertas se ajustan más a lo que buscas. Las plataformas de streaming de series y películas tienen cada vez más claros tus gustos, y las aplicaciones de videos y música te ofrecen contenido con una mezcla «perfecta» de novedad y nostalgia. Como ya hemos comentado en posts anteriores, todos estos servicios se basan en el uso de la inteligencia artificial, entrenada mediante tecnología Machine Learning e ingentes cantidades de datos como base.
Por supuesto, a veces te encuentras con que el algoritmo llega a conclusiones que son perfectamente lógicas, y perfectamente incorrectas. Sirva si no como ejemplo el autor de estas líneas, que escribiendo desde España y habiendo cambiado el idioma de su navegador a inglés, se encontró con una retahíla de anuncios que asumían que, obviamente, debía tratarse de un «expatriado» británico planeando su jubilación en nuestro país: el perfil más probable de angloparlante en la península, al parecer.
Esto, que bien podría quedarse en una anécdota absurda, tiene consecuencias graves cuando la misma metodología de desarrollo de inteligencia artificial es aplicada a soluciones con un impacto real sobre la sociedad. Cada vez más administraciones y entidades tanto públicas como privadas utilizan estas herramientas, ya sea para obtener una imagen que les ayude a desarrollar políticas a largo plazo, como para la toma de decisiones en el día a día.
Así, por ejemplo, cada vez más entidades bancarias y aseguradoras usan herramientas digitales para poner en valor el historial de sus potenciales clientes y sus propios datos financieros y gestionar la toma de decisiones respecto a la concesión de créditos, hipotecas, pólizas etc. Aunque a priori esto parece una operación lógica, en la práctica se puede dar la situación de que estas soluciones perpetuen prácticas injustas: por ejemplo, aumentando el precio de pólizas de seguro a personas que viven en barrios con una renta media menor (el término acuñado para este tipo de fenómenos es «Redlining Digital», en alusión a las prácticas de criterios exclusivistas aplicados en el sector inmobiliario).
De la misma manera, todas las alarmas saltaron en EEUU cuando una la aplicación usada para calcular la probabilidad de reincidencia en delincuentes fue criticada por posible aplicación de un sesgo racial. Aunque en ese caso concreto la inteligencia artificial no había sido desarrollada mediante tecnología Machine Learning, se trató de un precedente lo suficientemente sonado para que sirviese de advertencia en posteriores consideraciones al respecto.
Aunque estas prácticas a menudo se dan ya en el mundo «analógico», el uso de algoritmos para automatizar y homogeneizar esta toma de decisiones puede dotar al proceso de una falsa pátina de objetividad; la realidad, sin embargo, es que como estos algoritmos son desarrollados en base a una colección de datos, a menudo sujetos a los mismos sesgos que se pretenden evitar, lo único que se consigue es reproducir la misma subjetividad que subyace a los datos ya recopilados. Así, se encuentran casos como el de la herramienta de filtrado de curriculums que mantenía los estándares excluyentes tan criticados en la industria.
Por supuesto, estas soluciones automatizadas tienen el potencial de aportar una mayor objetividad y equidad, pero esto es algo que debe buscarse activamente: un proceso a menudo obstaculizado por la naturaleza opaca de los algoritmos generados por Machine Learning. Esto no debe hacernos perder la esperanza, sin embargo: la automatización no ya de procesos físicos, si no de análisis de datos y toma de decisiones, están al orden del día, y sin duda representan uno de los caminos más prometedores para la mejora de la calidad de vida humana mediante la tecnología. Por eso mismo, debemos asegurarnos de tomar un rol proactivo a la hora de asegurar que estas tecnologías se plantean, desarrollan e implementan de una manera ética y responsable.