¿Está su hijo hablando con una IA y usted no lo sabe?
sábado, 15 de noviembre de 2025
Martha Patricia Castellanos Saavedra
Más del 77 % de los dispositivos actuales cuentan con algún tipo de inteligencia artificial (IA), según Webster (2024), lo que implica una alta probabilidad de que nuestros hijos estén entablando conversaciones e interacciones con estos algoritmos. Alexa, Siri, Google y varios videojuegos han evolucionado en sus programaciones para ofrecer respuestas cada vez más empáticas y adaptadas a los entornos y condiciones de niños y adolescentes, haciendo cada vez más difícil distinguir entre un modelo conversacional y un ser humano.
Y aunque pueda parecer distópico lo que se muestra en películas como Her o Ex Machina, ya existen casos reales de jóvenes que han desarrollado vínculos sentimentales con la IA, con desenlaces trágicos como el del estadounidense Sewell Setzer III. Precisamente, el estudio titulado La locura tecnológica compartida: bucles de retroalimentación entre los chatbots de IA y las enfermedades mentales advierte que niños, adolescentes y personas con dificultades en su salud mental son más vulnerables al relacionamiento emocional con estos sistemas, ya que tienden a reafirmar sesgos, aceptar ideas falsas y presentan una mayor dificultad para discernir entre la realidad y la ficción.
Por esta razón, es fundamental que padres de familia y docentes conozcan los riesgos a los que pueden estar expuestos los menores y jóvenes. Riesgos que, lamentablemente, pueden intensificarse a través de las redes sociales, las cuales se han convertido en espacios propicios para la manipulación y la tergiversación. Bernard Charlot —pedagogo y sociólogo francés que ha marcado la educación contemporánea con sus estudios sobre el sentido del aprendizaje y la relación que los estudiantes construyen con el conocimiento— ha descrito esta época como un “retorno de la barbarie”, en la que las redes exhiben acosos y fanatismos de todo tipo, con un mayor potencial de daño cuando se cruzan con tecnologías emergentes.
No todo, sin embargo, es negativo en este panorama. Los avances recientes en investigación profunda están dando lugar a herramientas que ofrecen bibliografía de alto valor para sustentar ideas y desarrollar trabajos académicos. Un ejemplo es el modo “Estudiar y Aprender” de ChatGPT, lanzado recientemente, que busca convertirse en un tutor permanente que acompañe el proceso educativo de niños y jóvenes. Basado en el método socrático, esta herramienta formula preguntas para conocer el contexto del usuario, sus intereses académicos y su perfil como estudiante, con el fin de guiarlo a través de debates, ejemplos, respuestas y cuestionarios que le permitan razonar y comprender de forma progresiva las preguntas que plantea a la IA. Si bien este modo aún requiere más entrenamiento y refinamiento de datos, representa una alternativa prometedora para apoyar el aprendizaje autónomo.
La clave, en este escenario, es que niños y adolescentes comprendan que el aprendizaje es su responsabilidad, que su interacción con la tecnología debe ser consciente, y que estas herramientas, bien utilizadas, pueden ser altamente beneficiosas, pero mal empleadas, pueden causarles un daño significativo.
Vivimos un momento único en el que es deber de todos aprender sobre la tecnología: cómo utilizarla en favor del progreso humano, conocer sus riesgos y reconocer sus beneficios. Pero, por encima de todo, este es un momento crucial para estar más cerca de nuestros hijos, conocer qué hacen en sus dispositivos y con quién interactúan. Debemos limitar al máximo su exposición a las redes sociales y al uso indiscriminado de la inteligencia artificial, como recomienda la UNESCO.
La alfabetización digital no debe recaer únicamente en docentes e investigadores. También debe ser asumida por los padres de familia. Solo explorando y comprendiendo estos modelos podremos supervisar adecuadamente el uso que hacen los menores de edad de estas tecnologías y saber con claridad si están interactuando con una inteligencia artificial, con personas de buenas intenciones… o con todo lo contrario.