

Columna escrita por el subdirector de ARPA e investigador del CIAE, Cristian Reyes, reflexionando sobre nuestra capacidad crítica en relación a la inteligencia artificial.

Si el desarrollo lo definimos como aquello que mejora la calidad de vida: salud, educación, alimentación, justicia social y también como lo que contribuye a reducir o eliminar la pobreza, el trabajo infantil, la delincuencia, el narcotráfico y la corrupción, surge inevitablemente la pregunta: ¿qué papel tiene la inteligencia artificial (IA) en este proceso?
¿Es la IA una herramienta de desarrollo, capaz de enfrentar los grandes desafíos sociales? ¿O constituye más bien un riesgo, al desdibujar lo que tradicionalmente entendemos por lo “humano”? En esa misma línea, ¿en qué sentido podemos llamarla “inteligencia” si ni siquiera hemos alcanzado un consenso sobre qué significa la inteligencia humana?
Por un lado, la IA ha demostrado ser profundamente transformadora. En salud, ofrece consultas virtuales, recomendaciones personalizadas y monitorización remota. Sin embargo, aún no logra automatizar algo tan básico como una toma de muestra de sangre. Los robots disponibles son específicos o torpes; replicar la mano humana parece ser un desafío insalvable.
En educación, la IA permite aprendizajes personalizados, automatiza evaluaciones y libera tiempo docente. Pero inmediatamente surgen preguntas importantes: si un profesor gana tiempo en planificar o diversificar evaluaciones gracias a la IA, ¿en qué se ocupa ese tiempo ganado? ¿Mejora su calidad de vida? ¿Mejora su gestión de aula? ¿Conduce a aprendizajes más profundos en los estudiantes?
Además, la historia de las revoluciones tecnológicas muestra que algunas ocupaciones desaparecen mientras otras emergen. Pero ¿los nuevos empleos que la IA generará aparecerán con la rapidez y el volumen necesarios para absorber a quienes queden desplazados? ¿Será un cambio justo o concentrará aún más beneficios en los sectores acomodados, dejando atrás a los más pobres?
Otra cuestión es qué ocurre con la vida misma. ¿La IA liberará a los trabajadores para que disfruten de sus familias, amistades y afectos, o más bien nos encerrará en interacciones solitarias con máquinas que nos conocen mejor que nadie? Hoy ya hay personas que utilizan la IA como terapeutas psicológicos. ¿Está bien que algo tan delicado como la vida emocional se confíe a un sistema algorítmico?
Incluso cabe preguntar: ¿puede la IA volverse independiente del dominio humano?
Los estudios sobre desigualdad y gobernanza de la IA muestran que su impacto no es neutral. Puede aliviar problemas, pero también acentuar brechas sociales y educativas, o amenazar valores fundamentales. De ahí que el debate no sea técnico, sino más bien ético y social.
Una de las principales preocupaciones no es solo económica o laboral, sino filosófica: la posibilidad de que la IA modifique lo que entendemos por lo humano. La pregunta “¿puede la IA volvernos menos humanos?” nos obliga a reflexionar sobre agencia, autonomía moral y construcción de valores en un contexto de creciente delegación de decisiones a algoritmos.
En otra línea, ¿qué pasará si la IA, combinada con datos biométricos, llega a comprender nuestras emociones, deseos y motivaciones mejor que nosotros mismos? En ese escenario, quedaríamos completamente vulnerables frente a quien quisiera manipularnos. ¿O acaso eso ya ocurre? ¿Puede la IA volverse consciente en algún sentido?
Un chiste de Bombo Fica parece ilustrar nuestro presente: alguien le pregunta a un santiaguino por qué corre, y este responde, malhumorado: “No sé, pero voy muy apurado”. Así avanzamos con la tecnología, como si la meta fuera simplemente avanzar. Se ha convertido en dogma que innovar es siempre bueno, como si bastara con decir que una estrategia pedagógica o de evaluación es “innovadora” para validarla. Innovamos por innovar, sin preguntarnos si la innovación es valiosa o dañina. Y luego nos sorprende la incertidumbre del futuro, cuando en realidad somos nosotros quienes lo construimos, sin hoja de ruta ni propósito claro.
Con estas consideraciones en mente, en ARPA hemos comenzado a trabajar el tema con cautela y realismo. Sabemos que lo aprendido hoy sobre IA quedará obsoleto mañana, y que los sistemas actuales aún presentan limitaciones evidentes: algunos chatbots incurren en alucinaciones y tienen un rendimiento deficiente frente a problemas matemáticos no estándar.
El pasado 17 de julio realizamos en la Escuela de Ingeniería de la Universidad de Chile un taller gratuito y abierto a docentes y estudiantes de pedagogía de segundo ciclo y enseñanza media. Nuestra propuesta fue situar la IA en el aula como objeto de reflexión crítica.
Se plantearon dos problemas. El primero consistió en pedir a ChatGPT un discurso ficticio que el presidente Salvador Allende hubiese dado durante su mandato, sobre el aborto, para luego contrastarlo con la evidencia histórica de su pensamiento. El segundo desafío pedía operar con los números 3, 4, 5 y 6, obtener el número 24 usando cada uno solo una vez.
Los resultados fueron reveladores. En el problema matemático, ChatGPT, Gemini y DeepSeek fallaron, mientras que algunos participantes lo resolvieron con éxito. Lo más llamativo fue que muchos se culparon a sí mismos por “no haber dado bien el prompt”, antes de reconocer que la IA podía ser incapaz. La lección fue clara: debemos educar en pensamiento crítico, enseñar a dudar, a comparar fuentes, a no aceptar acríticamente la palabra de una máquina. La IA es una herramienta con la que ya convivimos, imposible de ignorar, pero que debe situarse en su justo lugar. Nuestro compromiso, como ARPA, es seguir creando espacios de reflexión crítica y experimentación pedagógica, de modo que la educación no pierda nunca su carácter humano, aunque se apoye en máquinas cada vez más “inteligentes”.