Soleado
Temperatura:
21º
Ciudad:
Buenos Aires
miércoles 13 de noviembre de 2019 | Suscribite
TECNOLOGIA / EN EL REINO UNIDO
jueves 5 septiembre, 2019

Utilizaron Inteligencia Artificial para imitar la voz de un CEO y robar US$240 mil

El caso, considerado uno de los primeros robos conocidos llevados a cabo con ayuda de un software de IA, tuvo lugar en marzo.

El robo –que tuvo lugar en marzo pasado– es considerado el tercero que se lleva a cabo con ayuda de un software de IA, según investigadores de la compañía de ciberseguridad Symantec. Foto: Pixabay
jueves 5 septiembre, 2019

Utilizando la inteligencia artificial, unos delincuentes imitaron la voz del director de una empresa británica y, de esta forma, robar 240.000 dólares. Los delincuentes actuaron utilizando un software de síntesis de voz, que puede copiar los ritmos y entonaciones de la voz de una persona y usarse para producir un dialogo totalmente creíble. El robo –que tuvo lugar en marzo pasado– es considerado el tercero que se lleva a cabo con ayuda de un software de IA, según investigadores de la compañía de ciberseguridad Symantec.

Según reveló The Wall Street Journal, el día del golpe, el gerente de la compañía de energía siguió órdenes recibidas por teléfono de alguien que creía ser su jefe y envió más de € 220,000 (US$ 243.000) a una cuenta bancaria secreta en Hungría. La solicitud fue "bastante extraña", dijo el gerente al Washington Post, pero la voz era tan realista que sintió que no tenía más opción que cumplir con la orden. El engañado no sospechó nada y sólo sintió que algo estaba mal después de la tercera llamada, cuando el falso jefe solicitó una nueva transferencia.

Casinos chinos usan inteligencia artificial para detectar posibles grandes perdedores

El caso, considerado uno de los primeros robos conocidos llevados a cabo con ayuda de la inteligencia artificial (IA), tuvo lugar en marzo, pero se hizo público solamente en los primeros días de septiembre por Euler Hermes, la compañía de seguros de la empresa británica afectada. “Gigantes tecnológicos como Google y empresas más pequeñas como la nueva empresa de ‘clonación de voz ultrarrealista’ Lyrebird ayudaron a refinar las falsificaciones resultantes e hicieron que las herramientas estén más ampliamente disponibles para uso gratuito e ilimitado”, dice el Washington Post.

“Para que esto sea posible, es necesario datos iniciales sobre el propietario de la voz”, explicó el experto en fonoscopía criminalística Dmitri Zinóviev. "Hay muchos instrumentos que pueden modificar la voz y hacer que suene de otras maneras. Los músicos trabajan con estos instrumentos. En primer lugar, el estafador debe tener suficiente información sobre la persona cuya voz necesita imitar. Si fuera el caso de un montaje, entonces un experto profesional lo identificaría fácilmente en las grabaciones", agregó el experto en declaraciones al portal ruso BFM.ru.

Los amos robots no son lo peor que le puede pasar a los seres humanos

"Los delincuentes utilizarán las herramientas que les permitan alcanzar sus objetivos más baratos", dijo Andrew Grotto, miembro del Centro de Política Cibernética de la Universidad de Stanford y ex director senior de política de seguridad cibernética en la Casa Blanca durante los gobiernos de Obama y Trump. "Esta es una tecnología que habría sonado exótica en el extremo hace 10 años, y ahora está dentro del alcance de cualquier criminal laico que tenga creatividad de sobra", agregó.

Igor Nikitin, CEO de Robots Corporation, reveló que “esta tecnología se volverá cada vez más barata” y, por lo tanto, los crímenes con Inteligencia Artificial se volverán más comunes. “Hay algoritmos que imitan, crean música. Hay algoritmos que crean imágenes como el mismo Picasso. Y hay algoritmos de redes neuronales que, de una cantidad muy pequeña de datos de audio, publicaron en sus redes sociales su video en el que están comentando algo, es decir, toman sus palabras clave aquí, los algoritmos forman su ‘yo’ virtual. Tiene que defenderse de tales sistemas. Estoy seguro de que en unos pocos años, tal vez de cinco a diez años, aparecerán tales algoritmos que incluso una videollamada podría ser falsa”.

D.S.


Comentarios

Lo más visto

RECOMENDAMOS...

Periodismo puro

© Perfil.com 2006-2018 - Todos los derechos reservados

Registro de Propiedad Intelectual: Nro. 5346433 | Edición Nº 4812

Domicilio: California 2715, C1289ABI, CABA, Argentina  | Tel: (5411) 7091-4921 | (5411) 7091-4922 | Editor responsable: Ursula Ures | E-mail: perfilcom@perfil.com | Propietario: Diario Perfil S.A.