BLOOMBERG
IA en pugna

Samsung prohíbe a su personal usar IA tras la fuga de datos en ChatGPT

Fue luego de descubrir que empleados subieron un código confidencial a la plataforma, lo que supuso un revés para la difusión de dicha tecnología en el lugar de trabajo.

ChatGPT As Cyber Firms Warns That AI Bots Will Bring Nastier Phishing Scams
ChatGPT As Cyber Firms Warns That AI Bots Will Bring Nastier Phishing Scams | Photographer: Gabby Jones/Bloomberg

Samsung Electronics Co. prohibió a su personal el uso de populares herramientas de inteligencia artificial generativa como ChatGPT después de descubrir que empleados subieron un código confidencial a la plataforma, lo que supuso un revés para la difusión de dicha tecnología en el lugar de trabajo.

La compañía con sede en Suwon, Corea del Sur, notificó el lunes al personal de una de sus divisiones más grandes sobre la nueva política a través de un memorando al que Bloomberg News tuvo acceso. A la empresa le preocupa que los datos transmitidos a dichas plataformas de inteligencia artificial, como Google Bard y Bing, se almacenen en servidores externos, lo que dificulta su recuperación y eliminación, y que puedan terminar siendo divulgados a otros usuarios, según el documento.

Chat GPT: ¿muleta o garrocha?

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

La compañía realizó una encuesta el mes pasado sobre el uso interno de herramientas de IA y dijo que el 65% de los encuestados cree que dichos servicios representan un riesgo para la seguridad. En abril, ingenieros de Samsung filtraron accidentalmente el código fuente interno al subirlo a ChatGPT, según el memorando. No está claro qué información se vio afectada.

Un representante de Samsung confirmó que la semana pasada se envió un memorando informando que se prohibía el uso de servicios generativos de IA.

“El interés en plataformas de IA generativa como ChatGPT ha ido creciendo interna y externamente”, dijo Samsung al personal. “Si bien este interés se centra en la utilidad y la eficiencia de estas plataformas, también hay una creciente preocupación por los riesgos de seguridad que presenta la IA generativa”.

Samsung es solo la última de una serie de grandes empresas que han expresado su preocupación por la tecnología. En febrero, solo un par de meses después de que el servicio de chatbot de OpenAI provocara una ola de interés en la tecnología, algunos bancos de Wall Street, como JPMorgan Chase & Co., Bank of America Corp y Citigroup Inc., prohibieron o restringieron su uso. Italia también prohibió el uso de ChatGPT por temor a poner en riesgo la privacidad, aunque revirtió su postura en los últimos días.

China's ChatGPT Stock Frenzy Cools Amid Reported Regulatory Ban

Las nuevas normativas de Samsung prohíben el uso de sistemas de inteligencia artificial generativa en computadoras, tabletas y teléfonos propiedad de la empresa, así como en sus redes internas. No afectan los dispositivos de la empresa que se venden a los consumidores, como los teléfonos inteligentes con Android y las computadoras portátiles con Windows.

Samsung pidió a los empleados que usan ChatGPT y otras herramientas en dispositivos personales que no envíen ningún tipo de información relacionada con la empresa ni datos personales que puedan revelar su propiedad intelectual. Advirtió que la violación de las nuevas políticas podría tener como consecuencia el despido.

Tarifa social ANSES para el transporte: quiénes pueden viajar en mayo con 55% de descuento

“Les pedimos que se adhieran diligentemente a nuestra directriz de seguridad. No hacerlo podría provocar una violación o compromiso de información de la compañía que resulte en una acción disciplinaria que pueda incluir la terminación del empleo”, señaló Samsung en el memorando.

Mientras tanto, la empresa está creando sus propias herramientas internas de IA para traducir y resumir documentos, así como para el desarrollo de software. También está trabajando en formas de impedir que se suba información confidencial de la empresa a servicios externos. El mes pasado, ChatGPT agregó un modo “incógnito” que permite a los usuarios impedir que sus chats se utilicen para el entrenamiento de modelos de IA.

“La sede está revisando las medidas de seguridad para crear un entorno seguro en el uso de IA generativa para mejorar la productividad y la eficiencia de los empleados”, dice el memorando. “Sin embargo, hasta que se preparen estas medidas, restringiremos temporalmente el uso de la IA generativa”.