Analistas

Cuando el agente decide, ¿quién responde?

Santiago Jiménez Londoño

El 90 % de los líderes en Colombia confía en incorporar agentes digitales en los próximos 12 a 18 meses. Lo dice el Índice de Tendencias Laborales de Microsoft. El 60 % de las empresas del país ya ejecuta pilotos de inteligencia artificial, según el CIO Playbook 2026 de Lenovo e IDC. Y Gartner proyecta que para 2028 el 15 % de las decisiones cotidianas de trabajo las tomará un algoritmo.

La velocidad va. La pregunta no.

Porque cuando un agente actúa por una empresa, alguien tiene que responder por lo que hace. Y casi nadie ha definido quién. La Universidad de Drexel publicó en enero de 2026 que el 41 % de las organizaciones ya usa IA agéntica en operaciones diarias. Solo el 27 % tiene marcos de gobernanza maduros para supervisarla. Grant Thornton sumó otro dato en marzo: tres de cada cuatro empresas dieron a sus agentes acceso a datos y procesos. Apenas el 20 % tiene un plan probado de respuesta cuando algo falla.

Se delegó la ejecución. La responsabilidad quedó sin dueño.

Un manual interno de IBM de 1979 ya lo había advertido. Una computadora nunca puede ser responsabilizada, por lo tanto nunca debería tomar decisiones de gestión. Décadas después, los tribunales empezaron a aplicarlo. En febrero de 2024, Columbia Británica condenó a Air Canada por información engañosa entregada por su chatbot. La aerolínea alegó que el sistema era una entidad legal separada. El tribunal calificó el argumento de absurdo. California fue más lejos. La ley AB 316, vigente desde enero de 2026, prohíbe usar la autonomía del sistema como defensa frente a un reclamo civil. La defensa “lo hizo el algoritmo” quedó cerrada.

En Colombia, la Circular Externa 002 de 2024 de la SIC ya exige a quienes tratan datos personales con IA el principio de responsabilidad demostrada. Accountability. Saber quién decidió. Y poder probarlo.

Luciano Floridi lo formuló sin rodeos. Los sistemas de IA son agentes funcionales. Ejecutan, optimizan, deciden dentro de parámetros. Pero no son sujetos morales. La responsabilidad no se evapora cuando se automatiza algo. Se distribuye entre quien diseña, quien despliega y quien supervisa. Distribuir no es disolver. Alguien la carga.

Paul Ricœur lo trabajó cuarenta años bajo otra palabra. Imputabilidad. La capacidad de ser señalado como autor de una acción y de responder por ella. Sin esa capacidad, decía, no hay acción. Hay sucesos. Cosas que pasan. Una empresa que despliega un agente sin haber definido quién responde no automatizó un proceso. Generó sucesos sin autor.

El problema no es que los agentes actúen. Es que muchas organizaciones los están desplegando sin haberse hecho la pregunta más antigua del derecho. ¿A quién se le imputa esto cuando salga mal?

El 46 % de los líderes encuestados por Grant Thornton identifica la gobernanza como el principal factor de fracaso de sus iniciativas de IA. La tecnología corre. La arquitectura de responsabilidad no.

El agente ejecuta. La acción exige a alguien que responda por ella. Y ese alguien nunca es el agente.

TEMAS


Microsoft - Inteligencia artificial - Líderes mundiales