Uso militar de la IA

Por qué Trump está generando que haya usuarios que desinstalen Chat GPT

El ingeniero y experto en IA Fredy Vivas analizó el giro del gobierno estadounidense en la contratación de proveedores de inteligencia artificial y advirtió que empleados de OpenIA reclamaron a la empresa que no se usen sus herramientas "para violar la privacidad de las personas".

Donald Trump, presidente de Estados Unidos. Foto: AFP

Fredy Vivas, CEO y fundador de Rocking Data y referente en inteligencia artificial en América Latina, explicó que la decisión del gobierno de Estados Unidos de reemplazar a Anthropic por OpenAI para proveer servicios de IA reavivó temores sobre privacidad y ciberseguridad. "Dentro de OpenAI, muchos empleados firmaron cartas pidiéndole a los directivos no usar las herramientas que crearon para violar la privacidad de las personas", declaró en Modo Fontevecchia, por Net TV y Radio Perfil (AM 1190)

Fredy Vivas es ingeniero, emprendedor y uno de los principales referentes en inteligencia artificial y ciencia de datos en Argentina y Latinoamérica. Es CEO y fundador de Rocking Data. Lidera esta startup especializada en big data e inteligencia artificial, que ayuda a empresas a utilizar algoritmos para la toma de decisiones estratégicas. Además, se desempeña como profesor y coordinador académico en la Universidad de San Andrés. Ha escrito libros fundamentales para entender la evolución de la tecnología actual. Su obra más reciente es "Generación IA", que funciona como una guía para comprender el presente compartido con máquinas inteligentes.  

Anthropic conecta su agente de IA con herramientas para banca de inversión y RR.HH.

El gobierno de Estados Unidos cambió de proveedor de servicios de inteligencia artificial tras las declaraciones de Anthropic, quienes además proveían al Gobierno, tiene una reputación por ser los más preocupados respecto de la incompatibilidad de utilizar inteligencia artificial con fines armamentísticos y recopilación masiva de información sobre la población. Y allí rápidamente Donald Trump realizó un acuerdo con OpenAI, quienes, a pesar de las dudas del público y empleados, afirman haber logrado más reaseguros que los de Anthropic para ciberseguridad. ¿Nos puede explicar qué consecuencias tiene esta decisión?

Cuando hablamos de inteligencia artificial, hoy solemos conectarlo primero con un concepto que es el de modelos de lenguaje. Los modelos de lenguaje son los que terminamos interactuando en general en el mundo, eh, como con herramientas como ChatGPT o como Claude de Anthropic. ChatGPT, por supuesto, el más conocido, de la empresa OpenAI de Estados Unidos. Pero tenés otros como DeepSeek en China. Son herramientas de inteligencia artificial que tienen gran poder de interpretar textos o números, donde nosotros lo podemos ayudar para escribir un artículo, para procesar información muy rápido, para hacer búsquedas en múltiples fuentes de información. Pero existen herramientas muy poderosas, puestas además no solo como las que conocemos y usamos a diario, sino implementaciones específicas para gobierno, salud y otros ámbitos.

Por lo tanto, hay una parte que conocemos y otra parte que está más relacionada a la IA específicamente, por ejemplo, para gobiernos o para sistemas como los de uso militar. Hay una parte que podemos llegar a entender, otra parte que quizás no conocemos de los contratos y las conversaciones internas, pero lo que se está dando es una elección de proveedor de parte de Estados Unidos de con quiénes va a confiar herramientas de inteligencia artificial. Parecía que estaba Anthropic liderando todo esto, la empresa que tiene la herramienta Claude, que es una herramienta muy potente y muy buena. En las últimas horas, OpenAI tomó el contrato y eso está generando mucho revuelo en empleados de la compañía en el mercado, con gente desinstalando ChatGPT hoy y Claude de Anthropic ganando espacio.

¿Cuál sería el temor de los usuarios de OpenAI, de ChatGPT, de OpenAI, de que el contrato fuera del Gobierno? ¿Y cuál sería la dificultad de los que usan Claude de que Anthropic fuera el contratante del Gobierno?

Usos de seguridad, datos y espionaje, con los que mucha gente no está de acuerdo para nada. Imaginate que hoy millones de personas tienen conversaciones muy privadas con ChatGPT, con conversaciones que van desde qué medicación tomo, qué me recomendás de rutina de entrenamiento o me está pasando esto, charlando como si fuese un psicólogo. No estoy diciendo que esté bien o esté mal, pero eso es la realidad de lo que está pasando. Entonces hay millones de personas en el mundo confiando información que, en el caso de usarse para alguna de estas razones, como espionaje, es información muy crítica.

Hay además como una futbolización de estas herramientas. Uno es equipo de GPT, otro equipo de Claude, uno es más de una connotación política y otro de otra. Entonces la gente va a ir pasándose de una plataforma a la otra también por esta afinidad nueva. Si uno lo piensa es muy loco, pero es como una afinidad política dentro de las herramientas de inteligencia artificial. Empleados de Claude, de la plataforma de Anthropic, salieron a decir: "Nosotros no queremos que esta herramienta que creamos nosotros tenga usos con los que no estamos de acuerdo".

Dentro de OpenAI, muchos empleados firmaron cartas pidiéndole a los directivos no usar las herramientas que crearon para violar la privacidad de las personas. Hay artículos, como uno de The Guardian, que dicen que nunca se tuvo un contrato tan estricto como el que firmó OpenAI con el gobierno de Estados Unidos en términos de que no se va a usar para persecución de personas o para generar esto como un incremento de la autonomía en las armas del poder militar de Estados Unidos. 

“La discusión no es ética, es quién monopoliza la guerra con IA”, advirtió Valeria Di Croce en “QR!”

¿Qué porcentaje del total de los que utilizan ChatGPT y Anthropic usan la versión gratuita y qué porcentaje los que pagan?

El porcentaje de los que lo usan gratuito es bastante alto. No tengo el número exacto, pero la gran mayoría usa versiones gratuitas.

¿Y DeepSeek es gratuito?

Sí.

Entonces, nos encontramos con que la enorme mayoría del mundo que utiliza la inteligencia artificial como si fuera un psicólogo o un farmacéutico para que le recomiende un medicamento, utiliza tres versiones gratuitas: la china y las dos norteamericanas. Desde tu propia experiencia como catador de ellas, ¿hay un orden de calidad en las respuestas que dan y ChatGPT está por arriba de Claude y Claude por arriba de DeepSeek, o esa es la impresión personal que yo tengo como usuario?

Depende bastante del uso. Como para generar un panorama, tenemos como dos ejes de tipos de modelos de lenguaje. Hay un eje que es el de los modelos de lenguaje de código abierto, como DeepSeek, por ejemplo. Vos podés descargártelo a tu computadora, modificar la configuración y entender la documentación de dónde toma las fuentes. Es como un modo más profundo de entendimiento. Meta tiene Llama, que es un modelo de lenguaje también de ese estilo, de código abierto.

Después tenés todos los de código privado, los más cerrados, como Gemini, Claude y ChatGPT. De esos tres, que son los más populares y diría los más potentes hoy, estamos hablando de Claude en primer lugar, si tendría que ponerte en un orden. ChatGPT y Gemini estarían al mismo nivel. Y específicamente después, si hablamos de trabajar o tener un uso más personal, también hay una división, porque Claude hoy, para mí, supera ampliamente a ChatGPT en términos de trabajar con una herramienta. Es como si fuese Claude un buen compañero de trabajo y ChatGPT más bien como si fuese un amigo para conversar.

¿Qué importancia le asignás a lo que está pasando militarmente, este nivel de exactitud con el que se llevan adelante incursiones, la de Venezuela primero, la de ahora en el caso de Irán y, fundamentalmente, esta última, el uso de la inteligencia artificial aplicada a la utilización de armamento militar?

Tiene muchas aristas y, por supuesto, hay que analizarlas en detalle. Una es la social, lo que nos pasa con estas conversaciones. Cuando escuchamos IA y guerra, automáticamente muchas personas conectan esos conceptos, incluso por mucho tiempo, de pensar la IA se puede usar para la guerra. Tiene como una connotación que por ahí te quita posibilidades de pensarla como una herramienta positiva para estudiar, para aprender cosas nuevas, para trabajar mejor. Y hay que saber diferenciar eso primero. Hay una connotación social y de qué opina la gente de la IA.

Después, por otro lado, hay una organización que se llama Stop Killer Robots. Es una ONG, y su nombre se traduce a "Detengan a los robots asesinos", que ya hace muchos años vinieron a Argentina. Yo estuve con ellos y es una organización que trata de tomar conciencia y hacer tomar conciencia a la gente de que la IA y la robótica, que están cada vez más vinculadas, podrían utilizarse para hacer armas autónomas, armas que tomen decisiones por sí solas de ataque a objetivos específicos. Eso podría poner a los drones también dentro de esa categoría.

Nvidia es una de las empresas más importantes del mundo porque algunos de los robots más importantes del mundo tienen un procesador Nvidia que funciona muy rápido y con altísima precisión. Por lo tanto, hay un nivel de desarrollo que se está dando en paralelo de la robótica, de la IA, de las capacidades cada vez más autónomas que tienen estas inteligencias artificiales. Pensemos en los autos autónomos cada vez tomando más decisiones por sí mismos, que genera un panorama que no teníamos hace diez años. Y ya desde ese momento organizaciones como Stop Killer Robots venían planteando esta conversación: puede ser algo peligroso, hay que prestar atención, hay que legislarlo. Y de eso se está hablando ahora.

 

TV/ff