No cabe duda de que la inteligencia artificial (IA) está revolucionando nuestro mundo.
Sus aplicaciones son innumerables y su desarrollo potencial, inmenso. La IA puede incrementar la productividad y mejorar la toma de decisiones gracias al análisis de grandes volúmenes de datos, y sus algoritmos ya inciden de manera positiva en ámbitos tan cruciales como la educación y la medicina; y por si fuera poco, también son capaces de abrir todo un universo de posibilidades creativas. Más todavía, la IA también está llamada a revolucionar las administraciones e instituciones públicas ofreciendo un servicio más eficiente y personalizado a los ciudadanos.
Sin embargo, la inteligencia artificial también plantea desafíos de primera magnitud. Los riesgos de ciberseguridad y dependencia tecnológica son evidentes, y su potencial efecto destructor de empleos debido a la automatización de procesos no es menos preocupante. Nos hayamos además ante una herramienta que suscita importantes dilemas éticos en tanto puede difundir narrativas sesgadas que reproducen prejuicios y alimentan las desigualdades ya existentes.
Ante este panorama ambivalente, confuso todavía, en el que conviven a partes iguales grandes oportunidades y notables amenazas, las preguntas que debemos hacernos son ¿cómo utilizar la IA? y ¿cómo conseguir que los resultados de la IA sean justos, inclusivos y sostenibles?
Para responder a estas cuestiones, debemos recordar que nuestras sociedades ya se han visto obligadas anteriormente a hacer frente a la aparición de tecnologías potencialmente disruptivas (es el caso de Internet), y lo han hecho dotándose de marcos reguladores que se han demostrado eficaces en muchos aspectos. El caso de la IA no es diferente y la aprobación de la Ley de Inteligencia Artificial por parte de la Unión Europea es un primer paso para ultimar una gobernanza ética de la IA basada en un aprendizaje continuo e inspirada en buenas prácticas.
O, dicho de otra manera, un primer paso para humanizar el algoritmo. III