Analistas

¿Puede la IA pensar? Lo que la filosofía le dice a los gerentes

Santiago Jiménez Londoño

Colombia obtuvo 100 puntos en el subindicador de formación en inteligencia artificial del Índice Latinoamericano de IA (ILIA 2025), publicado por la Cepal. La demanda de cursos es cinco veces superior al promedio de la región. Somos, según ese indicador, el país que más quiere aprender sobre IA en América Latina.

Y, sin embargo, la productividad laboral por persona ocupada cayó 0,32% entre enero y septiembre de 2025, según el Dane. El Informe Nacional de Competitividad 2025-2026 lo dice sin rodeos: los aumentos en capital y trabajo han explicado la mayor parte de la expansión económica; la productividad total apenas ha aportado.

Algo no cuadra. Aprendemos más que nunca sobre la herramienta y producimos igual o peor que antes.

El ILIA ofrece algunos destellos. Por cada persona especializada en IA en la región, hay al menos cuatro con conocimientos generales. Mucha alfabetización básica, poca capacidad técnica profunda. Trece de los 19 países evaluados ni siquiera integran habilidades de IA en la educación básica. Once no ofrecen doctorados en la materia. Sabemos que la IA existe. No sabemos qué hace.

Ese vacío tiene consecuencias concretas. Según EY, buena parte de los trabajadores colombianos en empresas formales y grandes ya usa IA en sus labores, pero la adopción ocurre sin estrategias corporativas. La IA está entrando por la puerta de atrás: con herramientas personales, sin criterios, sin gobernanza ni gestión. Y aquí el problema deja de ser técnico y se vuelve filosófico.

En 1980, John Searle propuso un experimento conocido como la Habitación China: alguien encerrado en un cuarto recibe textos en chino, consulta un manual de reglas y devuelve respuestas perfectas. Desde afuera, parece que comprende. Desde adentro, no entiende una sola palabra. Solo manipula símbolos. Eso es lo que hace un modelo de lenguaje. Y eso es lo que están usando millones de trabajadores colombianos sin que nadie les haya explicado la diferencia entre procesar y comprender.

Tom McClelland lo plantea con claridad: no tenemos evidencia suficiente para saber si la IA puede ser consciente. La postura más justificable es el agnosticismo. Pero agnosticismo no es inacción. Es dejar de atribuirle a la máquina capacidades que no tiene y asumir las que sí tenemos nosotros: juicio, contexto y criterio estratégico.

El Informe Nacional de Competitividad recomienda incorporar un módulo de uso y aprovechamiento de la IA en procesos y diseño de productos. Es un buen comienzo. Pero ningún módulo será suficiente si no parte de una pregunta anterior: ¿qué puede hacer esta tecnología y qué no? La filosofía lleva siglos distinguiendo entre sintaxis y semántica, entre manipular símbolos y comprender significados. Esa distinción no es un lujo académico. Es la línea que separa a una organización que usa la tecnología correctamente de una que se deja usar por ella y es llevada al fracaso.

La IA no piensa. Puede ayudarnos a pensar mejor. Pero solo si dejamos de pedirle que lo haga por nosotros.

TEMAS


Inteligencia artificial - Educación - Productividad