BLOOMBERG
Riesgo tecnológico

CEOs de empresas de IA advierten sobre "la extinción” por la tecnología

En un breve comunicado publicado por el Centro para la Seguridad de la IA, dijeron que “mitigar el riesgo de extinción (para la humanidad) de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

Inteligencia Artificial: ¿un nuevo aliado en la educación?
Inteligencia Artificial: ¿un nuevo aliado en la educación? | CEDOC

Los directores ejecutivos de algunas de las empresas líderes en inteligencia artificial, entre ellas DeepMind de Alphabet Inc., OpenAI y Anthropic, se unieron a un creciente coro de líderes que advierten sobre los daños existenciales de la tecnología de rápido desarrollo.

En un breve comunicado publicado el martes por el Centro para la Seguridad de la IA, una organización sin fines de lucro, dijeron que “mitigar el riesgo de extinción (para la humanidad) de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

La declaración fue firmada por más de 350 ejecutivos e investigadores, incluidos Sam Altman, CEO de OpenAI, la empresa detrás de ChatGPT, Demis Hassabis, que dirige DeepMind y Darío Amodei, CEO de Anthropic, una startup cofundada por veteranos de OpenAI.

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

La inteligencia artificial logró que un hombre parapléjico vuelva a caminar

La nota de una sola frase es la última advertencia de alto perfil de líderes de la industria que llaman la atención sobre los graves riesgos que plantea la inteligencia artificial para la sociedad. En marzo, más de 1.100 líderes de la industria, incluidos Elon Musk, Stuart Russell, profesor de informática de la Universidad de California Berkeley y el cofundador de Apple Inc., Steve Wozniak, abogaron por una pausa de seis meses en el entrenamiento de poderosos modelos de IA.

A pesar de las terribles advertencias de los líderes tecnológicos, algunos escépticos sostienen que la inteligencia artificial no es lo suficientemente avanzada como para justificar los temores de que podría destruir a la humanidad, y que centrarse en los escenarios catastróficos sirve solo como distracción de problemas como el sesgo algorítmico, el racismo y el riesgo de desinformación rampante.

Inteligencia Artificial: ChatGPT, popularización, magia y riesgos

“Creo que es una forma de controlar la narrativa”, dijo Sasha Luccioni, investigadora de la startup de AI Hugging Face. “Deberíamos estar hablando de legislación, cosas como los riesgos de sesgo, las formas en que se usa la IA que son buenas para la sociedad, y en cambio nos enfocamos en los riesgos hipotéticos”, dijo en una entrevista en Bloomberg Technology. 

A principios de este mes, Geoffrey Hinton —uno de los llamados padrinos de la inteligencia artificial que pasó décadas revolucionando el campo y ayudando a crear las tecnologías avanzadas de aprendizaje automático de hoy— anunció que dejaba el equipo de investigación de IA de Google, y dijo que las empresas se estaban moviendo demasiado rápido en la implementación de IA al público.