BLOOMBERG
INTELIGENCIA ARTIFICIAL

OpenAI dejará que los usuarios decidan si ChatGPT puede usar sus datos

La medida serviría para proteger la privacidad de personas que a veces comparten información confidencial con el popular chatbot.

China's ChatGPT Stock Frenzy Cools Amid Reported Regulatory Ban
China's ChatGPT Stock Frenzy Cools Amid Reported Regulatory Ban | Bloomberg

OpenAI permite ahora que las personas opten por autorizar el uso de sus conversaciones en ChatGPT para el entrenamiento de los modelos de la compañía de inteligencia artificial. La medida serviría para proteger la privacidad de personas que a veces comparten información confidencial con el popular chatbot de IA.

La startup dijo el martes que los usuarios de ChatGPT ahora pueden desactivar sus historiales de chat haciendo clic en un botón en la configuración de su cuenta. Cuando las personas hacen esto, sus conversaciones ya no se guardarán en la barra lateral del historial de ChatGPT (ubicada en el lado izquierdo de la página web), y los modelos de OpenAI no usarán esos datos para mejoras en el tiempo.

OpenAI busca que las personas se sientan más cómodas usando el chatbot para todo tipo de tema. Por ejemplo, durante una demostración de la función el lunes, la empresa usó el ejemplo de planificar una fiesta sorpresa de cumpleaños.

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

“Queremos avanzar más en esta dirección donde las personas que usan nuestros productos pueden decidir cómo se usan sus datos”, dijo Mira Murati, directora de tecnología de OpenAI.

Chat Gpt: la inteligencia artificial responde como bajar la inflación 

En los meses posteriores al lanzamiento público de ChatGPT, millones de personas han hecho pruebas del mismo y de otros bots (como Bard, creado por Google de Alphabet Inc.). Esta nueva ola de chatbots de IA ya se está usando para todo, desde ayudar a planificar vacaciones hasta actuar como terapeuta improvisado, lo que genera preguntas no solo sobre cómo se pueden usar estos sistemas, sino también sobre cómo las empresas procesan las indicaciones que las personas escriben. OpenAI dijo que su software filtra la información de identificación personal que proviene de los usuarios.

La startup con sede en San Francisco, que anunció los cambios en una publicación de blog el martes, continuará entrenando por defecto sus modelos con datos de los usuarios. Seguirá almacenando datos (incluidos los de conversaciones en las que los usuarios han desactivado el historial de chat) durante 30 días antes de eliminarlos, lo que hace para detectar comportamientos abusivos, dijo la compañía.

Este mes, OpenAI también dijo que permite a los usuarios enviarse por correo electrónico una copia descargable de los datos que han producido al usar ChatGPT, que incluye conversaciones con el chatbot.

La compañía planea implementar un plan de suscripción comercial en los próximos meses que, según dijo, no se alimentará por defecto de los datos de esos usuarios.