IA: ¿Nuevas reglas, nuevas reflexiones?
sábado, 23 de agosto de 2025
Felipe Jaramillo Vélez
Construir nuevas reglas morales que lleven a reflexiones éticas ajustadas a la realidad parece ser apremiante. No se trata solo de un debate técnico, sino uno profundamente humano ¿En qué punto una obra académica, literaria o artística que ha utilizado inteligencia artificial deja de ser considerada una creación humana? ¿Puede incluso llegar a ser vista como un fraude o una afrenta contra la inteligencia de hombres y mujeres que han dedicado su vida al pensamiento, al arte, a la escritura o la investigación? Estas preguntas, lejos de ser provocaciones abstractas, nos empujan a una toma de posición urgente frente al uso (o abuso) de la IA en los procesos creativos e intelectuales. La tecnología, al penetrar cada vez más en lo sensible, lo estético y lo académico, desafía nuestras nociones previas de autoría, esfuerzo y mérito.
Por supuesto, todas las sociedades han tenido su proceso de adaptación a las tecnologías. La aparición de la calculadora, por ejemplo, generó temores similares: ¿nos volveríamos incapaces de pensar matemáticamente? Lejos de eso, aprendimos a convivir con ella como una herramienta que coadyuva a resolver problemas, no a suplantar la lógica humana. Más tarde, los programas de diseño asistidos por computadora revolucionaron la arquitectura, el arte gráfico y el cine. Nadie discute hoy que el software facilita la obra visual, pero aún reconocemos la mano y el criterio del diseñador detrás de cada trazo digital. La diferencia es sutil, pero decisiva: hay una intención humana que sigue marcando la pauta, un acto de voluntad que no puede simularse.
Ahora bien, el caso de las tesis universitarias abre un terreno especialmente delicado. Si un estudiante utiliza IA para redactar parte de su trabajo de grado, ¿hasta qué punto es eso ético? ¿Deberíamos empezar a definir límites cuantificables de participación tecnológica? ¿Un 30% es aceptable? ¿Un 50%? ¿Un 70%? Estas cifras, aunque parezcan arbitrarias, podrían ser una forma inicial de establecer marcos éticos en contextos académicos. Porque no se trata solo de prohibir o permitir, sino de construir consensos sobre cuánto de humano debe conservarse en lo que aún consideramos producción intelectual auténtica. Los comités evaluadores, las instituciones y los propios estudiantes deberán asumir una responsabilidad compartida en esta transición.
En este contexto, bien vale recordar la enseñanza de Aristóteles sobre la phronesis, la prudencia como virtud moral. No pecar por defecto ni por exceso. Como Dédalo advirtió a su hijo Ícaro antes de volar con alas de cera: ni demasiado bajo (para no mojarse con el mar), ni demasiado alto (para no quemarse con el sol). Encontrar el punto medio debería ser la regla ¿Nos atreveremos como sociedad a establecer máximos y mínimos consensuados en el uso de la IA, según el ámbito y el propósito? ¿O dejaremos esta decisión librada a la interpretación individual, muchas veces subjetiva y otras tantas, lamentablemente, perversa? No hay respuestas fáciles, pero sí una necesidad urgente: comenzar a pensar juntos nuevas reglas, retomando un método que hemos arrinconado, pero que ha sido efectivo para contener en parte el ímpetu humano: la ética.