Roblox refuerza su seguridad infantil tras un año marcado por denuncias de grooming y fallas de moderación
Tecnología
Roblox enfrenta uno de los años más críticos en su historia en materia de seguridad digital infantil. La plataforma, con más de 70 millones de jugadores activos diarios, ha sido objeto de indignación pública y escrutinio internacional tras dos denuncias de grooming ocurridas en 2025.
En febrero, un niño de 13 años acusó a un adulto de exigirle imágenes explícitas a cambio de Robux. Meses después, en septiembre, la madre de una menor presentó una demanda asegurando que su hija fue contactada y manipulada dentro del juego. En ambos procesos legales, la compañía fue señalada por operar con filtros insuficientes y, según los demandantes, “sacrificar conscientemente la seguridad infantil” en favor de su crecimiento y ganancias.
Estos casos ocurren en un contexto global alarmante: uno de cada tres usuarios de internet es menor de edad, según UNICEF, y los delitos de grooming digital han crecido cerca de 30% desde 2020, de acuerdo con Europol. Con el sector de videojuegos valuado en más de 227 mil millones de dólares este año, las plataformas se han convertido en espacios de enorme interacción social, pero también de riesgos que avanzan más rápido que la regulación.
La respuesta de Roblox
Tras las denuncias, Roblox anunció un nuevo estándar de seguridad basado en verificación de edad y segmentación etaria precisa. La plataforma clasificará a los usuarios en rangos específicos: sub9, 9-12, 13-15, 16-17, 18-20 y 21+. Cada grupo tendrá acceso diferenciado a experiencias, contenido e interacciones.
La medida más estricta recae en los menores de nueve años: su chat estará desactivado por defecto, y solo podrá activarse con consentimiento explícito de los padres, un cambio radical frente al ecosistema abierto que caracterizó a Roblox durante años.
El componente tecnológico central es un sistema de verificación facial impulsado por IA, que solicita una selfie para estimar el rango de edad del usuario y validar que coincide con la información declarada. Roblox asegura que las imágenes no se almacenan y que el sistema cumple con regulaciones de privacidad en Europa y Estados Unidos. El objetivo: frenar a adultos que se hacen pasar por menores y reducir la creación de cuentas falsas, prácticas asociadas a la mayoría de incidentes reportados.
Las medidas también buscan alinearse con regulaciones emergentes. En la Unión Europea, la Ley de Servicios Digitales obliga a plataformas con riesgos para menores a implementar mecanismos sólidos de verificación. En Estados Unidos, estados como Utah y Texas ya requieren validar edad e identidad antes de permitir acceso completo a aplicaciones sociales.
¿Será suficiente para recuperar la confianza?
Expertos en protección digital advierten que la verificación por IA mejora el control, pero no elimina todos los riesgos. Organizaciones como Thorn y Common Sense Media reportan que más de la mitad de los menores ha recibido mensajes inapropiados en plataformas de videojuegos. La moderación constante, la supervisión humana y los sistemas de alerta siguen siendo indispensables en comunidades con millones de interacciones por minuto.
Con ingresos anuales superiores a 2,800 millones de dólares, impulsados principalmente por Robux, la confianza de padres y tutores es un pilar central del negocio de Roblox. Cualquier deterioro en la percepción de seguridad afecta directamente su modelo económico.
La plataforma afirma que su nueva estrategia pone la seguridad infantil en el centro de su operación. Su efectividad se medirá en los próximos meses, cuando aparezcan las primeras cifras de incidentes y moderación. Por ahora, Roblox envía un mensaje claro: la seguridad ya no será un apéndice de su crecimiento, sino la base para sostenerlo.





