Analistas 20/05/2024

Inteligencia artificial y “el ser”

Sergio Clavijo
Prof. de la Universidad de los Andes

Combinar de manera exitosa el análisis técnico de los avances de la inteligencia artificial (IA) con el problema filosófico “del ser” (pensado desde Platón y pasando por Kant) requiere un gran conocimiento y habilidades expositivas para no ahogarse en el intento. Considero que Kissinger, Schmidt y Huttenlocher (2021, The Age of AI) han hecho una magnifica tarea en esta combinación digital-filosófica.

Tenía 98 años Henry Kissinger cuando se propuso analizar implicaciones geo-estratégicas de aplicar, a conflictos internacionales, el conocimiento neuronal de los supercomputadores, sabiéndose que tales decisiones involucran la vida de millones de personas. Y, entretanto, la IA responde que ella “no tiene sentimientos ni ética alguna”. El buen equilibrio académico provino de coautores como el ex-CEO de Google (Schmitd), artífice de la IA durante 2001-2010, y el experimentado analista tecnológico-aplicado (Huttenlocher), dirigiendo hoy Centro Schwarzam del MIT.

Partiendo de la AI como “un habilitador” transversal al conocimiento, no una mera plataforma digital, los autores postulan que se trata de un nuevo paradigma cognitivo: un sistema de aprendizaje general, denominado “Artificial-Generative-Intelligence”. Aunque la descripción histórica sobre progreso científico es más bien pobre (notándose que les hizo falta un filósofo-historiador tipo T. Kuhn), sus conclusiones prospectivas son bastante provocadoras y bien fundamentadas.

Por ejemplo, en el plano de los avances de la IA su ilustración de avances en “entrenamiento de máquinas” Vs. “validación del aprendizaje” permite entender el nuevo paradigma allí propuesto. El caso del avance estratégico en el juego del ajedrez ha hecho toda la diferencia entre simplemente alimentar los supercomputadores con información científica producida por los humanos (el caso ya superado de “big-blue” derrotando a campeones mundiales) frente a la alternativa creativa del autoaprendizaje de dichas maquinas, partiendo simplemente de las reglas que gobiernan tal juego.

Dicha estrategia, denominada “Alpha” (autoaprendizaje), se puede extrapolar a todos los campos del saber, siendo emblemático el reciente avance en el desarrollo de antibióticos. El cuerpo científico, por ejemplo, tenía 15 fórmulas candidatas para solucionar un tipo de problema infeccioso, pero la estrategia Alpha postuló 61.000 que podrían cumplir con tal objetivo. Y lo más sorprendente es que la fórmula ganadora resultante de la IA-neuronal, que ha sido probada exitosamente, aun no es bien entendida en su funcionamiento por el cuerpo científico.

La explicación más básica es que las iteraciones del cerebro humano se quedan cortas para explorar las diversas avenidas por las cuales un problema logra ser resuelto. Nótese que, “lo científico”, hasta el momento, partía de la “causalidad” de lo que ya se conocía (… si esto se activa, entonces ocurrirá tal reacción… etc.). Este tipo de estrategia “Alpha” ha sido la aplicada más recientemente a nivel verbal, tanto en materia de escritura de ensayos como de traducciones “más inteligentes” (tipo ChatGPT), logrando mejores resultados (… aunque aún no exentos de garrafales errores).

En materia de métodos de aprendizaje de IA, los autores postulan avances: i) supervisados; ii) no-supervisados; y iii) reforzamiento (pero este último depende totalmente de las metas “humanas” que se escojan). De la misma manera, los desafíos regulatorios están en función de estas formas de aprendizaje, cuyo objetivo central debería ser evitar oligopolios informativos colusivos y, de allí, la necesidad de aplicar ágiles esquemas antitrust. Esta última es otra arista donde considero que los autores también se quedan cortos y bien hubieran podido beneficiarse de los muchos avances que han logrado economistas, principalmente, de las universidades de Chicago y Stanford en materia Reg-Tech.

Una de las partes que encontré más fascinantes, como mencioné al inicio, fue el vínculo entre el avance del conocimiento y el problema del “ser”. Aquí se retrotraen al problema planteado por el genio de la computación Alan Turing, quien, en 1950, se preguntaba cuando una maquina podía ser catalogada “como inteligente”. Para 1956, John McCarthy postulaba que ello ocurría cuando se tenían destellos de “comportamiento autónomo” en dichos computadores, no simplemente medidos por la rapidez del procesamiento.

Pero dichas respuestas, en realidad, no avanzaban mucho, pues la dependencia entre input-output se enfocaba todavía en capacidad-velocidad, no en la “naturaleza del conocimiento”. Solo a inicios de los años 1990s se retomó el acertijo planteado por Kant (1781) sobre “la crítica de la razón pura” que llevaba a resaltar las limitaciones del conocimiento, descifrando su propio razonamiento: las cosas en sí-mismas pueden estar fuera del alcance de nuestro entendimiento (… como en el caso de los antibióticos, arriba señalados). Así que el saber enciclopédico de Diderot, en la era de “la iluminación del conocimiento”, había estado limitado por la carencia del autoaprendizaje. Será que entonces ¿Ahora cristalizará este nuevo paradigma de la inteligencia generativa artificial, tutora de las nuevas generaciones?

TEMAS


Inteligencia artificial