Meta, Gemini y Poe son los chatbots que más información recolectan de sus usuarios
sábado, 29 de noviembre de 2025
Entre los datos que recopilan los chatbots están ítems como contacto, salud, bienestar, información financiera, ubicación, datos sensibles, contenidos e historial
El uso de chatbots de IA se está volviendo más usual en la vida cotidiana con el paso del tiempo. Sin embargo, es importante tener presente que estas herramientas pueden recopilar datos de los usuarios. Un estudio de Surfshark establece que Meta IA, Gemini y Poe son las IA que más información captan de las personas. De hecho, Meta IA reúne 32 de los 35 datos disponibles, 90% del total.
Esta aplicación recopila información en categorías como información financiera, salud y bienestar. También capta, según el estudio, datos más sensibles como contenido racial o étnico, orientación sexual y creencias, entre otros.
Gemini, por otro lado, recopila cerca de 22 tipos de datos únicos, entre los que están la ubicación precisa del usuario, así como información de contacto, contenido de la persona, historial de búsqueda y navegación. Para el caso de ChatGPT, la plataforma recopila 10 tipos de datos, como información de contacto, contenido del usuario, identificadores, datos de uso y diagnóstico. Aunque la IA guarda el historial del chat, se pueden usar conversaciones temporales para eliminar los datos luego de un mes. “En general, ChatGPT recopila una cantidad ligeramente menor de datos que otras aplicaciones analizadas, pero aun así, se recomienda a los usuarios revisar la política de privacidad para comprender cómo se utilizan y protegen estos datos”, se lee en el estudio.
Según Surfshark, Copilot, Poe y Jasper compilan información de rastreo, la cual podría entregarse a intermediarios de datos o emplearse para anuncios personalizados en la aplicación. DeepSeek y su IA recopila 11 tipos de datos: entrada del usuario e historial, entre otros.
Rodolfo Correa, docente y rector de IA School, explicó que cuando se usan herramientas de inteligencia artificial es fundamental entender que, si bien facilitan muchas tareas, implican riesgos en materia de protección de datos personales. “En términos simples, cada vez que un usuario introduce información en un sistema de IA, esa información puede quedar almacenada, analizada o utilizada para mejorar modelos, dependiendo de las políticas internas de cada proveedor”.
El experto recomienda que nunca hay que ingresar data sensible, confidencial o estratégica. Números de identificación, información financiera, datos de salud, claves, archivos privados o documentación contractual son datos no recomendables para ingresar en una IA.
“Cada plataforma maneja sus propios criterios de almacenamiento, retención de datos. Algunos modelos entrenan con lo que los usuarios ingresan, otros no. Por eso es importante revisar si la herramienta almacena conversaciones, usa los datos para entrenar modelos y permite optar por no compartir información”, explicó.
Agregó que también es importante entender la jurisdicción y los servidores donde se está procesando la información. La legislación de cada país es necesaria para entender el alcance de la protección. Por último, se recomienda una buena ciberhigiene: actualizar contraseñas, evitar redes públicas y activar autenticaciones.