Tecnología

OpenAI ofrece nuevas opciones de privacidad de datos para los usuarios de ChatGPT

Bloomberg

La startup dijo que los usuarios podrán desactivar sus historiales de chat, con el fin de que se sientan cómodos usando el chatbot

Bloomberg

OpenAI está permitiendo que las personas opten por no usar sus conversaciones de ChatGPT en el entrenamiento de los modelos de la compañía de inteligencia artificial. La medida podría ser una protección de la privacidad para las personas que a veces comparten información confidencial con el popular chatbot de IA.

La startup dijo el martes que los usuarios de ChatGPT ahora pueden desactivar sus historiales de chat haciendo clic en un interruptor en la configuración de su cuenta. Cuando las personas hacen esto, sus conversaciones ya no se guardarán en la barra lateral del historial de ChatGPT (ubicada en el lado izquierdo de la página web), y los modelos de OpenAI no usarán esos datos para mejorar con el tiempo.

OpenAI tiene como objetivo hacer que las personas se sientan más cómodas usando el chatbot para todo tipo de aplicaciones. Por ejemplo, durante una demostración de la función el lunes, la empresa usó el ejemplo de planificar una fiesta sorpresa de cumpleaños.

“Queremos avanzar más en esta dirección donde las personas que usan nuestros productos pueden decidir cómo se usan sus datos, si se usan para capacitación o no”, dijo Mira Murati, directora de tecnología de OpenAI.

En los meses posteriores al lanzamiento público de ChatGPT, millones de personas han experimentado con él y otros bots (como Bard, creado por Google de Alphabet Inc.). Esta nueva ola de chatbots de IA ya se está aprovechando para todo, desde ayudar a planificar vacaciones hasta actuar como un terapeuta improvisado , lo que genera preguntas no solo sobre cómo se pueden usar estos sistemas, sino también sobre cómo las empresas procesan las indicaciones que las personas escriben en ellos. OpenAI dijo que su software filtra la información de identificación personal que proviene de los usuarios.

La startup con sede en San Francisco, que anunció los cambios en una publicación de blog el martes, continuará entrenando sus modelos en los datos de los usuarios de forma predeterminada. Todavía almacenará datos (incluidos los de conversaciones en las que los usuarios han desactivado el historial de chat) durante 30 días antes de eliminarlos, lo que hace para detectar comportamientos abusivos, dijo la compañía.

Este mes, OpenAI también dijo que está permitiendo a los usuarios enviarse por correo electrónico una copia descargable de los datos que han producido al usar ChatGPT, que incluye conversaciones con el chatbot.

La compañía planea implementar un plan de suscripción comercial en los próximos meses que, según dijo, no entrenará en los datos de esos usuarios de forma predeterminada.

TEMAS


chatGPT - Privacidad de datos - Inteligencia artificial