Roblox, la plataforma con más de 150 millones de usuarios activos diarios, anunció la implementación de una estricta política global destinada a limitar la interacción entre menores y adultos desconocidos. La medida comenzará a aplicarse en diciembre en Australia, Nueva Zelanda y los Países Bajos, con una expansión a todo el mundo prevista para principios de enero de 2026.
La iniciativa surge en medio de una creciente presión legal y mediática por denuncias de captación y abuso de menores dentro del ecosistema de Roblox. En Estados Unidos, la compañía enfrenta múltiples demandas que acusan a la plataforma de facilitar el contacto entre adultos y usuarios jóvenes debido a fallas en sus controles de seguridad y verificación.

El eje central del nuevo programa es un sistema de verificación facial de edad que clasificará a los jugadores en seis rangos etarios: menores de 9 años, de 9 a 12, de 13 a 15, de 16 a 17, de 18 a 20 y mayores de 21. A partir de esta segmentación, los usuarios menores solo podrán comunicarse con personas de su misma franja de edad o de grupos cercanos, lo que restringe drásticamente las posibilidades de contacto con adultos desconocidos.
Roblox aclaró que las imágenes y videos utilizados para la verificación no serán almacenados, y destacó que se trata de la primera vez que una plataforma de juegos masiva exige comprobaciones de edad para permitir interacciones entre usuarios. Estas políticas se alinean con las nuevas exigencias del Reino Unido para sitios de contenido adulto bajo la Ley de Seguridad en Línea.
El anuncio se produce tras casos recientes que involucran a niñas de 7, 12 y 13 años en distintos estados de EE.UU., quienes habrían sido captadas por adultos que se hicieron pasar por menores dentro de la plataforma. Las demandas sostienen que la falta de verificación real de edad permitió que depredadores tuvieran acceso directo a millones de usuarios jóvenes.
Marketing tecnológico, vacíos legales: ZARA, la funcionaria “no humana” de Zárate
Uno de los episodios más graves señala que una niña de Nevada, de 13 años, fue manipulada por un adulto que adoptó un perfil falso, ganó su confianza y luego la coaccionó para enviar material íntimo. Según la denuncia, una herramienta de verificación habría evitado ese contacto inicial. Casos similares, presentados en Filadelfia y Texas, se encuentran actualmente en proceso judicial.
En respuesta, Roblox aseguró que mantiene "preocupación profunda por cualquier incidente que afecte a un usuario" y remarcó que sus políticas son “intencionalmente más estrictas que las de otras plataformas”. Entre las restricciones ya vigentes se encuentran la prohibición de intercambio de imágenes entre usuarios, filtros para bloquear datos personales y limitaciones de chat para los jugadores más jóvenes.
Matt Kaufman, director de seguridad de Roblox, afirmó que las nuevas regulaciones buscan “fortalecer la confianza entre usuarios” y mejorar la seguridad general del ecosistema. Según dijo, la verificación de edad “es una oportunidad para elevar los estándares de protección infantil en la industria del gaming”.
Atlas, el navegador de ChatGPT que anticipa tus búsquedas y desafía el dominio de Google
Expertos en derechos digitales celebraron el anuncio, aunque señalaron la demora en la implementación. Beeban Kidron, fundadora de la organización británica 5Rights, aseguró que “las empresas de videojuegos deben poner a los niños en el centro de sus servicios”, y advirtió que Roblox permitió durante años que adultos y menores interactuaran sin filtros eficaces.
La compañía anticipó que espera que otras plataformas adopten medidas similares, impulsando una transformación estructural en la industria. Si se cumple el cronograma previsto, las nuevas restricciones estarán operativas globalmente a partir de enero de 2026, marcando uno de los cambios regulatorios más fuertes en la historia del gaming online.
LV/ff