Naturaleza AristeguiNaturaleza Aristegui

“La tecnología no nos ha unificado, nos ha dividido”: Daniel Innerarity

El filósofo español presentó en México su libro ‘Una teoría crítica de la inteligencia artificial’, por el cual ganó el III Premio de Ensayo Eugenio Trías.

  • Redacción AN / HG
11 May, 2025 05:20
“La tecnología no nos ha unificado, nos ha dividido”: Daniel Innerarity

Por Héctor González

¿Cuál es la incidencia de la inteligencia artificial en el individuo y en la vida democrática? Sin hacer una apología de la herramienta, pero sin caer tampoco en el fatalismo, el catedrático español Daniel Innerarity (Bilbao, España, 1959) analiza el tema desde la cancha de la filosofía política para cuestionar los desafíos de delegar cada vez más decisiones de carácter público a un algoritmo.

Resultado de su estudio, es el libro Una teoría crítica de la inteligencia artificial (Galaxia Gutenberg), con el cual obtuvo el III Premio de Ensayo Eugenio Trías y que recién presentó en la Ciudad de México.

En el libro plantea, parafraseando a Kant, una crítica de la razón algorítmica. ¿Hoy estamos en ese punto?

Cada vez usamos más instrumentos algorítmicos en la toma de decisiones. Desde un banco que quiere dar un crédito, hasta un gobierno que quiere medir el impacto de una ley, pasando por empresas que buscan nuevos clientes y mercados. Hay muchos otros ejemplos, Tinder media las relaciones interpersonales a través de algoritmos. El panorama es muy amplio y creo que irá a más. La gran cuestión, y esto es lo que llamo crítica, es cómo hacemos que esto sea algo reflexivo. Cómo no abandonarnos a las lógicas algorítmicas, que no coinciden exactamente con las lógicas humanas.

¿Cómo hacerlo cuando hay una relación paradójica con la inteligencia artificial? ¿Cómo llevar este debate a un terreno donde coincida lo tecnológico con lo ético?

Mi propuesta natural, dado que soy filósofo, es pensar y pensar. Mi crítica también se dirige contra los escenarios catastrofistas. El principal de ellos plantea que la inteligencia artificial nos puede sustituir, esto puede suceder si lo hacemos mal y si no la regulamos bien. Las máquinas hacen algunas tareas mejor que nosotros, pero también peor que nosotros. Una de las primeras cosas que hay que pensar es en qué tipo de habilidades son específicamente humanas y qué tipo de habilidades son específicamente algorítmicas; buscar zonas de conflicto, zonas de solapamiento y estrategias de complementariedad.

¿Hasta dónde, como seres humanos, estamos dispuestos a ceder terreno en lo cotidiano?

Si comprendiéramos bien de qué se trata o cuál es el juego, no estaríamos en un escenario de pánico. Solemos pensar que nos va a remplazar y a quitar nuestro puesto de trabajo, cuando lo que realmente hace la inteligencia artificial es sustituirnos en tareas, no tanto en puestos de trabajo. Tu labor como periodista o la mía como profesor universitario se compone de distintas tareas y algunas se pueden hacer, incluso mejor, con inteligencia artificial.  El asunto es que hay otras cosas, por ejemplo, el arte de preguntar y de hacer buenas preguntas, donde es muy difícil que las máquinas nos puedan reemplazar.

¿Usted ha usado alguna herramienta de inteligencia artificial en su trabajo?

Sí, pero no demasiado. Cuando empecé a dar clase no existía Internet ni Google, entonces los profesores dedicábamos una buena parte del tiempo a dar información. Hoy en día ya no hace falta que demos mucha información, competir con Google es inútil. Sin embargo, Google tiene ciertos sesgos en virtud de los cuales hace un ranking de respuestas que a lo mejor no es el más razonable. Lo que ahora me toca como profesor es ofrecer a mis estudiantes criterios para buscar bien, para hacer buenas preguntas, y eso no tiene tanto que ver con la información, sino con estrategias cognitivas un poco más sofisticadas.

Dedica buena parte del libro a reflexionar su impacto en la democracia.

Hay dos aspectos fundamentales que son constitutivos de la democracia y que son condicionados por esta tecnología: la conversación y la decisión. Una democracia necesita de una buena conversación pública, y el mundo de las redes básicamente la condiciona y a veces la empeora. En segundo lugar, la democracia es el gobierno del pueblo, ¿cómo se compatibiliza esto con un sistema político que cada vez adopta más decisiones de manera automatizada?, esto es lo que analizo en el libro.

De hecho, ya podemos ver que la IA se utiliza cada vez más en los procesos democráticos y en la persuasión de ciudadanos.

 Y todavía queda mucho por descubrir porque estamos hablando de un desarrollo tecnológico que no ha terminado. Por otro lado, no todos los países tienen una estrategia nacional de inteligencia artificial, pese a que es algo fundamental. Es difícil prever cómo se desarrollará teniendo en cuenta que asistimos a una gran fragmentación tecnológica. Contrario a lo que se pensaba, la tecnología no nos ha unificado, nos ha dividido, en el sentido de que fundamentalmente hay un modelo chino, uno estadounidense y otro europeo. Tanto el sur global como África tratan de intervenir en la discusión, pero no lo consiguen del todo.

En esta discusión hay sesgos que guían la conversación pública en redes a un interés político determinado.

En este terreno hay dos cosas: sesgos y bots. Empecemos por lo segundo, a partir del escándalo de Cambridge Analytica, se sabe que hubo injerencias rusas en campañas electorales de otros países. Los bots son actores falsos en gran número, que inundan el espacio de las redes de una determinada opinión para influir en la opinión pública en general. Este es un problema que necesitamos regular. Los sesgos son algo más complejo, los propios sistemas, tal y como los hemos diseñado, tienden a favorecer determinadas posiciones o a excluir a determinadas personas, por ejemplo, a las mujeres; o a favorecer culturas políticas elaboradas a partir de un idioma que implica cierta visión del mundo, por eso también es importante que haya diversidad lingüística. En el aspecto de los sesgos, hay un caso muy célebre y escandaloso que se dio a partir de los instrumentos de reconocimiento visual que se utilizan para entrar en muchos edificios o para la seguridad pública. La mayoría de las fotos que se usaron para su diseño eran de varones blancos, al punto que mientras se hacían pruebas de estos sistemas se puso el rostro de una mujer negra y el sensor la identificó como un orangután. Desde luego esto nos escandaliza, pero hay que entender que eso se debía a que la alimentación de los sistemas era unilateral. Por eso es muy importante que en todo el ciclo de vida de la Inteligencia Artificial haya diversidad de rostros, criterios, género, etcétera. No podemos dejar que estén dominados solo por Estados Unidos o China.

¿Hasta dónde se pueden legislar estas herramientas sin afectar la libertad de expresión?

Yo diría que no es un asunto cuantitativo, sino cualitativo. No es una cuestión de mucho o poco, sino de legislar y regular bien. A partir del segundo mandato de Trump, hemos visto a un conjunto de señores tecnológicos interesados en capturar al gobierno para ahorrarse dos cuestiones fundamentales para que sus desarrollos sean compatibles con la democracia. Uno, consultar a la gente, preguntar y atender los diversos impactos en diversos grupos de población que una tecnología puede tener. Es decir, lo que tenemos que defender o cuidar no es una legislación, sino que los procedimientos permitan hacer real aquel principio según el cual la democracia es un sistema en el que todos los afectados por una decisión tienen algo que decir. Me parece que el tecnofeudalismo se quiere ahorrar esto. El otro gran asunto es el impacto medioambiental. Los objetivos de la Agenda 2030 plantean una naturaleza para todos y salvaguardada.

Pero parece que vamos en sentido contrario.

Uno de los grandes desafíos que hoy tiene la inteligencia artificial es ir a modelos más ahorrativos de energía. Los tecnólogos deben diseñar módulos que no requieran tanta energía, datos, ni tanto tiempo.

Hace un momento habló de tecnofeudalismo, ¿a qué se refiere con ese término?

Pensábamos que el desarrollo tecnológico implicaría una mejora de la democracia y que su deterioro solo se daría en países con bajo nivel de desarrollo económico. Esto ha saltado por los aires. China tiene una economía impresionante, pero no ha registrado el mismo avance en materia de derechos humanos o democracia. El término tecnofeudalismo ejemplifica muy bien la idea de un desarrollo tecnológico sofisticado y un retroceso en cuanto a las formas de gobierno. La toma de posesión de Trump es un ejemplo de esto, tenemos a señores que ya no quieren condicionar a los gobiernos, sino más bien capturarlo. Es preocupante ver que hay países donde los superricos son precisamente quienes ahora quieren gobernar, y es preocupante también, ver cómo las grandes empresas tecnológicas han establecido una alianza fatal con los poderes políticos.

¿Es compatible la transparencia con el desarrollo de la inteligencia artificial?

Hay diversos tipos de transparencia. Uno me parece legítimo y consiste en impedir que el Estado afecte la privacidad de las personas o los derechos de propiedad. Aquí no hay ningún problema ético o democrático. Hay otro tipo de transparencia o mejor dicho de intransparencia que tiene que ver con la propia complejidad del artefacto, es decir, un ciudadano común no tiene la capacidad tecnológica para entender cómo funciona el algoritmo. Hay un tercer tipo, vinculado con desarrollos que ni siquiera los programadores han podido anticipar y cuya eficacia depende de esa vida propia, es lo que se llama Machine Learning. Cada una de estas formas de opacidad tiene un tratamiento diferente. De hecho, desde hace unos cuantos años, más que hablar de transparencia, se habla de explicabilidad.  Hay cosas que puedo no ver o entender en su complejidad, no obstante, se me deben explicar los criterios por los cuales se determinó que tal decisión se confiara a un algoritmo. Se trata de establecer instituciones intermediarias, auditorías de confianza, gobiernos que regulen, y cuya regulación si bien no podemos no entender, sí está en nuestras manos decir que proyecto nos gobierna. Al final, esta no es tanto una cuestión de individuos sino de que la sociedad en su conjunto sea capaz de establecer procedimientos para supervisar de algún modo las decisiones algorítmicas.

Pensando en que los grandes desarrolladores de inteligencia artificial, ¿cuáles son los retos que enfrentan los Estado-Nación? Finalmente, ya hay un mercado de este tipo de herramientas.

Los seres humanos hemos sido capaces de crear sociedades donde conviven lo público con lo privado. En el mundo financiero esta contraposición es más intensa, pero ¿por qué no pensar que podríamos hacerlo en el terreno tecnológico? No demos por descontado estas alianzas, los poderes públicos dan a los poderes privados cosas que no pueden obtener como legitimidad o contratos. El Estado no es completamente impotente y las empresas tecnológicas no son completamente poderosas. Hay que buscar una negociación, aunque es verdad que hoy el Estado tiene cierta desventaja. La motosierra de Miley en Argentina o la llamada racionalización de la administración pública propuesta por Elon Musk en Estados Unidos, intentan eliminar a los interlocutores, pero es una batalla que hay que dar y donde la sociedad civil u organismos como la UNESCO, tienen muy por decir.

Temas Relacionados