Se acabó el anonimato absoluto si quieres comunicarte en Roblox. La plataforma ha confirmado hoy, 8 de enero de 2026, un cambio estructural en sus políticas de seguridad: para acceder a las funciones de chat de voz y texto, los usuarios deberán someterse a un escaneo facial mediante un selfie en vídeo. La medida, que comienza su despliegue global esta misma semana, busca verificar la edad real de cada jugador para segregar las salas de juego y proteger a los menores.
El funcionamiento es directo pero intrusivo para los estándares habituales del medio. El usuario debe grabarse un vídeo corto que una inteligencia artificial analiza para estimar su edad biológica. Según la compañía, este archivo se elimina inmediatamente después de la verificación, un matiz diseñado para sortear las preocupaciones sobre privacidad y retención de datos biométricos.
Una respuesta a la crisis de reputación
Este movimiento no es casualidad ni un capricho técnico. Llega tras un 2025 negro para la compañía, marcado por una presión legal y social asfixiante. Como ya analizamos en profundidad hace unos meses, los problemas de Roblox con las demandas en Estados Unidos y casos mediáticos como el del youtuber Schlep pusieron en entredicho la capacidad de la empresa para frenar a los depredadores sexuales.
Aquellas polémicas, que incluían acusaciones de la Fiscalía de Luisiana por priorizar el crecimiento sobre la seguridad, parecen haber forzado la mano de la directiva. La implementación de esta barrera biométrica es, en la práctica, la respuesta técnica a esa crisis de confianza: si no pueden moderar millones de conversaciones en tiempo real, la solución pasa por impedir que adultos y niños compartan el mismo espacio comunicativo.
Segregación por edad y consentimiento paterno
La clave del nuevo sistema es la agrupación de usuarios. Una vez verificada la edad, el algoritmo de matchmaking priorizará juntar a personas del mismo rango etario. El objetivo explícito es limitar las interacciones entre adultos y menores de 16 años, creando entornos estancos donde el riesgo de grooming se reduzca por pura estadística.
Para los usuarios más vulnerables, los menores de 9 años, el sistema añade una capa de burocracia familiar: será obligatorio el consentimiento explícito de un tutor legal para habilitar cualquier función social, independientemente del escaneo.
Del experimento a la norma global
La tecnología ya ha sido testada en mercados como Australia, Países Bajos y Nueva Zelanda, donde la compañía asegura haber obtenido resultados positivos. Ahora, el despliegue mundial obligará a millones de usuarios a decidir en los próximos días si están dispuestos a ceder su imagen para seguir chateando.
Es un paso contundente, quizás el más agresivo que ha dado una red social de este calibre, para atajar el acoso. Sin embargo, queda por ver si esta «muralla digital» será suficiente para calmar a los organismos reguladores y a las familias que, tras los escándalos del año pasado, miran con lupa cada movimiento de Roblox.

