BLOOMBERG
TECNOLOGÍA

YouTube reveló cómo la Inteligencia Artificial ayudó a filtra videos "basura"

YouTube está lleno de videos extremos y engañosos, y la compañía ha sido criticada por no hacer lo suficiente para limitar el desorden. Pero un lugar que la unidad de Google ha logrado limpiar es la página de inicio de YouTube.

YouTube Billboard Advertisement
YouTube Billboard Advertisement | Photographer: Sean Gallup/Getty Images

YouTube está lleno de videos extremos y engañosos, y la compañía fue criticada por no hacer lo suficiente para limitar el desorden. Pero un lugar que la unidad de Google logró limpiar es la página de inicio de de esta plataforma. Detrás de escena, Google implementó un software de inteligencia artificial que analiza montones de secuencias de video sin ayuda humana, descifra clips problemáticos y los bloquea desde la página de inicio y la pantalla de inicio de la aplicación. Su nombre interno es "clasificador de videos basura", según dijeron fuentes relacionadas con el proyecto a Bloomberg.

El sistema, que no fue revelado anteriormente, juega un papel clave para atraer y mantener a los espectadores en la página de inicio de YouTube, creando una base para una serie de nuevas publicidades que llegan al servicio de video. Google probó el clasificador desde 2015, pero lo implementó ampliamente después de una serie de incidentes desagradables con videos para niños en 2017, según un exmiembro del personal de YouTube. Un episodio, apodado "Elsagate", presentó videos populares que mostraban a la princesa de Disney en una variedad de situaciones adversas.

YouTube está desarrollando programas tipo "elige tu propia aventura"

Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Hoy más que nunca Suscribite

Ese año, YouTube también enfrentó un torrente de boicots de anunciantes por videos inapropiados que amenazó las ventas. Una portavoz de Google confirmó que la compañía tiene un clasificador de videos para la página de inicio de YouTube, así como los paneles de "a continuación" que recomiendan otros clips. El sistema analiza los comentarios de los usuarios que reportan videos engañosos, sensacionalistas, o que solo buscan clics. También aprovecha otros datos sobre retención de audiencia, gustos y aversiones.

Esto demuestra que YouTube es capaz de regular la propagación de contenido problemático. Sin embargo, empleados actuales y anteriores dicen que la compañía solo se ha enfocado seriamente en el problema cuando hay dinero en juego o –en el caso del contenido terrorista– cuando la presión externa la obligó a actuar. El clasificador de videos basura fue, en parte, impulsado por incentivos financieros. A medida que más personas utilizan los teléfonos inteligentes para conectarse, cada vez más van directamente a la aplicación y al sitio web de YouTube, en lugar de ver los clips de YouTube en otros destinos en línea.

Esto fue potencialmente una buena noticia para YouTube. Cuando las personas ven anuncios directamente en el servicio, en lugar de en cualquier otro lugar de Internet, Google a menudo obtiene más de los ingresos, asegura una persona familiarizada con la compañía. Las personas pidieron no ser identificadas por tratarse de información privada. YouTube también duplicó esfuerzos agregando nuevas funciones de página de inicio que incluyen una pestaña "Tendencias" y carruseles de clips personalizados.

YouTube abandona la competencia hollywoodense con Netflix y Amazon

El problema, sin embargo, fue que algunos videos populares que aparecían en la página de inicio eran escalofriantes: clips de personas que peleaban o alguien que sufría una fuerte caída, por ejemplo. Un exingeniero recordó una reunión interna que involucraba una imagen fija de un video con genitales masculinos. Este tipo de contenido tuvo clics, pero también desvió a algunas personas de la página de inicio y se convirtió en una posible pesadilla publicitaria. Los términos de servicio de YouTube prohíben la pornografía.

Esto es lo que llevó a YouTube a adoptar el clasificador de videos basura. El sistema fue un éxito, ayudando a eliminar muchos clips desagradables de la página de inicio y haciendo que los espectadores regresen. Recientemente, Google dijo a vendedores que "el tiempo de observación" en la página de inicio y la aplicación de YouTube se multiplicó por diez en los últimos tres años.

El valor de este sistema de inteligencia artificial se hizo aún más claro este mes, cuando Google, de Alphabet, lanzó funciones publicitarias dirigidas a la creciente audiencia directa de YouTube. Por primera vez, los profesionales de mercadeo pueden realizar promociones en teléfonos inteligentes a medida que los usuarios se desplazan a través de la aplicación de YouTube. Eso hace que el servicio de video se parezca mucho más a Instagram de Facebook Inc., y podría ayudar a Google a obtener más dólares de publicidad que actualmente fluyen a sus rivales de las redes sociales.

YouTube desactiva comentarios en videos con menores por críticas

La compañía no comparte datos financieros de YouTube, pero RBC Capital Markets estima que el servicio de video generó más de US$20.000 millones en ventas el año pasado. Las mejoras en la audiencia de la página de inicio y las nuevas formas de mostrar anuncios podrían generar miles de millones de dólares extra en ingresos. Sin embargo, el software IA de YouTube solo puede llegar hasta cierto punto. Las máquinas tienen dificultades para analizar lo que sucede y lo que se dice dentro de las secuencias de video de forma automática, en particular sin la ayuda de descripciones de texto de los clips. Más de 450 horas de video se suben a YouTube cada minuto. La empresa cita esta suma gigantesca para justificar errores repetidos.

Las últimas técnicas de inteligencia artificial están mejorando en el reconocimiento del contenido y el contexto de los videos, aunque las señales de datos siguen siendo "ruidosas", afirma Serena Yeung, investigadora de la Universidad de Stanford que fue asesorada por la exejecutiva de Google AI Fei-Fei Li. ¿Se podría capacitar al software para identificar algo como "personas que pelean" solo por las imágenes? "Se podría", dice Yeung. "Probablemente tendrá muchos errores; funcionará parte del tiempo, pero no todo el tiempo".