Analistas

IA: La importancia de saber indagar

Hernán David Pérez

¿Qué harías si, tras entregar un informe a un cliente, descubrieras que incluía citas a investigaciones académicas inexistentes y referencias a sentencias judiciales inventadas? Este escenario, que más parece una pesadilla profesional, ocurrió recientemente. Una de las cuatro principales firmas de consultoría de negocios a escala global se vio obligada a admitir que un reporte elaborado para el gobierno de Australia contenía referencias falsas: artículos y libros atribuidos a profesores reales que nunca escribieron tales obras, y una cita fabricada a un juez en el marco de un caso verídico.

¿Por qué la IA genera respuestas imprecisas pero que parecen realistas?

El entrenamiento de los grandes modelos de lenguaje (LLMs por sus siglas en inglés), se compone de dos etapas: el entrenamiento previo, donde aprenden patrones estadísticos del lenguaje a partir de enormes volúmenes de texto, y el ajuste fino con retroalimentación humana, donde se les enseña a producir respuestas más “útiles”, “seguras” y “agradables” para los humanos. Además, su comportamiento se orienta a optimizar una función matemática que evalúa qué tan bien cumplen con las tareas asignadas.

Esta combinación de ser complacientes y orientados a cumplir objetivos, puede llevar a que los modelos generen respuestas que satisfacen al usuario pero que se alejan de la realidad, fenómeno conocido como alucinaciones, y que se constituye en uno de los mayores retos en el desarrollo y uso de la IA.

El caso en Australia no es único, pero tiene gran connotación por la relevancia de la empresa involucrada, y nos genera la siguiente pregunta clave ¿Cómo podemos proteger a nuestras empresas de un caso similar?

En las últimas décadas, el acceso al conocimiento ha transitado por tres grandes etapas.

1. En la etapa previa a Internet, el reto era acceder a la información que, en muchos casos estaba restringida revistas especializadas y bases internas de universidades o grandes corporaciones, lo que limitaba su disponibilidad.

2. Luego, a finales de los años noventa, con la aparición de los motores de búsqueda, se abrió las puertas a un caudal masivo de fuentes; el desafío pasó a “filtrar y valorar” la información.

3. Hoy, en la era de los “motores de respuestas”, los LLMs pueden combinar y condensar conocimientos dispersos para ofrecer soluciones casi instantáneas; el desafío evoluciona.

El salto a los LLMs no sustituye a los expertos; aumenta sus capacidades al aportar velocidad y variante creativa. Aun así, la supervisión humana es indispensable, y se sustenta en la competencia que considero más importante para las personas en la era de la IA: “saber indagar”, entendida como un proceso en tres etapas: (i) Formular preguntas o hipótesis para abrir una línea de investigación; (ii) Recabar la información; y, (iii) Evaluar y contrastar la información para llegar a una conclusión que satisfaga el problema.

Por eso, el entrenamiento fundamental para trabajar con la IA no reside en cómo crear prompts, sino en evolucionar de una formación que ha premiado el saber las respuesta -el “know how”- a una educación que incentive el “know inquire”: la capacidad de saber indagar con rigor. Este debe ser el primer paso de las instituciones educativas y empresas al momento de formar en IA.

TEMAS


Inteligencia artificial - Empresas