Hace unos días ya hablamos de los riesgos y polémicas en torno a Roblox. Aquella pieza ponía sobre la mesa las críticas a la compañía por no ofrecer suficientes medidas de protección a sus usuarios más jóvenes, así como la demanda presentada en Luisiana contra la plataforma.
- El caso Schlep: del “cazador de depredadores” al veto en Roblox
- La ola legal en Estados Unidos
- La presión social: firmas contra el CEO y desconfianza creciente
- España: señales de alarma y respuestas institucionales
- La respuesta de Roblox: medidas en marcha y dudas pendientes
- Para familias: señales de alerta y pasos prácticos
- Un debate abierto
Desde entonces, lejos de calmarse, la situación ha escalado. Nuevos procesos legales en Estados Unidos, campañas públicas contra la dirección de la empresa y la historia de un youtuber que asegura haber contribuido a la detención de seis depredadores sexuales han reavivado el debate. El foco ya no está solo en la tecnología o en la popularidad de un juego con millones de usuarios diarios, sino en la responsabilidad que asume —o no— Roblox frente a la seguridad infantil.
En este artículo vamos a repasar cómo se ha intensificado la presión en torno a la plataforma, qué papel han jugado figuras externas como la del youtuber Schlep, qué están haciendo las autoridades en distintos países —incluido España— y hasta qué punto las medidas que promete la compañía pueden marcar la diferencia.
El caso Schlep: del “cazador de depredadores” al veto en Roblox
Uno de los episodios más sonados de las últimas semanas ha sido el de Schlep, un youtuber estadounidense que se dedicaba a investigar y exponer a supuestos depredadores sexuales dentro de Roblox. Sus métodos consistían en crear perfiles falsos que se hacían pasar por menores para entablar conversación con adultos sospechosos, coordinar encuentros y después poner el material en manos de las autoridades. Según él mismo, estas operaciones ayudaron a que se produjeran seis detenciones en Estados Unidos, lo que convirtió su canal en un referente incómodo: un creador externo haciendo, en teoría, el trabajo que muchos esperaban de la propia empresa.
La reacción de Roblox fue fulminante: baneo permanente y una orden legal de cese de actividad (cease and desist). La compañía argumenta que este tipo de iniciativas, aunque puedan tener buenas intenciones, generan riesgos adicionales para los usuarios, interfieren con investigaciones oficiales y ponen en peligro tanto a los supuestos menores como al propio vigilante. En otras palabras, las “cazas” comunitarias no encajan con los protocolos legales ni de seguridad de la plataforma.
La decisión abrió un debate enorme. Por un lado, quienes ven en Schlep a alguien que destapó un problema que Roblox no ha sabido atajar con la suficiente contundencia. Por otro, quienes advierten del peligro de convertir la protección infantil en un espectáculo de internet, con riesgo de errores, falsas acusaciones y hasta daños a víctimas reales.
Más allá de las posturas, el caso puso en evidencia una tensión clara: ¿qué ocurre cuando la comunidad toma la iniciativa porque percibe que la empresa no hace lo suficiente? Roblox insiste en que sus canales de reporte y sus equipos de moderación son los únicos que deben asumir esa tarea, pero el eco mediático del caso demuestra lo frágil que puede ser la confianza en la seguridad de la plataforma.
La ola legal en Estados Unidos
El punto de inflexión legal llegó el 14 de agosto de 2025, cuando la Fiscalía General de Luisiana presentó una demanda formal contra Roblox Corporation. El documento acusa a la empresa de haber priorizado su crecimiento y sus beneficios económicos por encima de la seguridad de los menores. Entre las carencias señaladas están la falta de un sistema eficaz de verificación de edad y la ausencia de mecanismos claros para obtener el consentimiento paterno, dos aspectos considerados esenciales para proteger a niños y adolescentes en entornos digitales.
Roblox respondió defendiendo su “compromiso histórico con la seguridad” y recordando que ha implementado más de un centenar de medidas en los últimos meses, incluyendo filtros más estrictos para el chat, limitaciones para los usuarios menores de 13 años y nuevas herramientas de verificación. Sin embargo, la demanda de Luisiana fue solo el comienzo: otros estados como Oklahoma o Florida ya han mostrado interés en abrir investigaciones, mientras que Iowa ha visto presentarse demandas civiles de familias que denuncian grooming, extorsiones y hasta intentos de secuestro con origen en la plataforma.
A estas acciones se suman bufetes de abogados que están agrupando litigios colectivos contra Roblox y otras plataformas como Discord, describiendo patrones preocupantes: adultos que entran en contacto con menores en Roblox, trasladan la conversación a aplicaciones externas y utilizan Robux u otras estrategias para coaccionar.
El mapa legal pinta un escenario complicado: por primera vez, no se trata solo de advertencias de expertos o artículos en prensa, sino de procesos judiciales en marcha que cuestionan la gestión de seguridad de Roblox. Y si los fiscales estatales consiguen sentencias o acuerdos desfavorables para la compañía, el efecto dominó podría extenderse a todo el sector del entretenimiento online.
La presión social: firmas contra el CEO y desconfianza creciente
Mientras los tribunales empiezan a mover ficha, la presión social también ha escalado. En plataformas como Change.org se han multiplicado las campañas que piden la dimisión de David Baszucki, CEO y cofundador de Roblox, o que reclaman revertir decisiones polémicas como el veto a Schlep. Algunas de estas peticiones han reunido centenares de miles de firmas, reflejando el creciente malestar de una parte de la comunidad de jugadores y familias.
Más allá de los números, estas iniciativas funcionan como un termómetro de la confianza pública. Padres y usuarios que antes veían a Roblox como un espacio creativo e inocuo ahora lo perciben como un entorno con riesgos que la compañía no ha sabido neutralizar del todo. El hecho de que un creador externo haya logrado exponer a depredadores mientras la empresa insiste en que sus protocolos funcionan ha añadido gasolina a esa desconfianza.
En redes sociales, el debate se ha vuelto recurrente: ¿es Roblox un juego seguro para los niños o un lugar donde el entretenimiento y la creatividad conviven con amenazas mal gestionadas? La compañía insiste en su compromiso y en que no existe plataforma 100 % libre de riesgos, pero la narrativa pública ya se ha teñido de dudas. Y esas dudas, en un mercado donde gran parte de los usuarios son menores, pesan casi tanto como las demandas legales.
España: señales de alarma y respuestas institucionales
Aunque buena parte del debate se centra en Estados Unidos, en España también han surgido voces de alerta en torno a Roblox. El Instituto Nacional de Ciberseguridad (INCIBE) ha documentado varios casos de grooming iniciados en la plataforma y recuerda que el 017 es la línea de ayuda para familias que necesiten orientación o apoyo. Desde su web, ofrecen guías prácticas para que los padres puedan identificar señales de riesgo, saber cómo actuar y, sobre todo, cómo preservar pruebas en caso de que sea necesario denunciar.
En el ámbito sanitario, la Sociedad Española de Medicina de la Adolescencia (SEMA) y el Comité de Promoción de la Salud de la Asociación Española de Pediatría (AEP) han advertido de un aumento de consultas relacionadas con síntomas de ansiedad, alteraciones del sueño y problemas de conducta que los menores asocian a interacciones online. Roblox, por su popularidad entre niños y adolescentes, aparece de forma recurrente en estas conversaciones. Los pediatras recomiendan un seguimiento cercano de la actividad digital y animan a las familias a preguntar de forma directa sobre el uso de la plataforma.
A nivel normativo, la Agencia Española de Protección de Datos (AEPD) participa en las directrices europeas sobre verificación de edad en servicios online. El Comité Europeo de Protección de Datos insiste en que los sistemas para limitar accesos según edad deben ser robustos, respetar la privacidad y evitar que los menores puedan saltárselos con facilidad. Esta discusión conecta directamente con los cambios que Roblox ha anunciado recientemente en sus sistemas de verificación.
Todo esto refleja que en España el foco no es solo judicial, como ocurre en EE. UU., sino también preventivo y sanitario: se trata de ayudar a las familias a detectar riesgos, proteger la salud mental de los menores y presionar para que las plataformas apliquen filtros efectivos desde el diseño.
La respuesta de Roblox: medidas en marcha y dudas pendientes
Con la presión legal y social creciendo, Roblox ha acelerado en 2025 el despliegue de nuevas medidas de seguridad. Sobre el papel, son cambios relevantes:
- Verificación de edad más estricta: la compañía ha introducido sistemas que combinan selfie en vídeo, documentos de identidad y consentimiento paterno. El objetivo es limitar el acceso a funciones como chat de voz o grupos abiertos únicamente a quienes demuestren tener la edad adecuada.
- Trusted Connections: un modelo de conexión verificada para adolescentes que solo permite interacciones más libres con contactos que puedan confirmar que conocen en la vida real.
- Sentinel, una herramienta de inteligencia artificial que monitoriza miles de millones de mensajes en busca de señales de grooming o comportamientos de riesgo. Roblox asegura que gracias a este sistema ya ha remitido cientos de casos a las autoridades.
- Más de 100 iniciativas de seguridad en lo que va de año, según la propia empresa, que van desde nuevas etiquetas de contenido hasta límites más claros para cuentas de menores de 13 años.
Sin embargo, muchos expertos en ciberseguridad y protección infantil dudan de que estas medidas sean suficientes. Una de las críticas más repetidas es que la verificación de edad sigue siendo relativamente fácil de sortear si un menor tiene acceso a datos de un adulto o si un adulto malintencionado decide falsificar información. También se cuestiona la eficacia real de los filtros de IA, que pueden reducir riesgos pero difícilmente eliminarlos en un entorno con millones de interacciones diarias.
En el fondo, la pregunta es si Roblox está aplicando medidas proactivas y estructurales —diseño seguro desde el inicio, restricciones por defecto más estrictas, auditorías independientes— o si simplemente responde con parches cada vez que surge una polémica. Y mientras esa duda persista, la brecha de confianza con familias y autoridades seguirá abierta.
Para familias: señales de alerta y pasos prácticos
Más allá de lo que haga o deje de hacer Roblox, la primera línea de protección está en casa. Organismos como el INCIBE y asociaciones de pediatría recomiendan a padres y madres tomar un papel activo en la vida digital de sus hijos. Algunas pautas básicas:
- Atención a los chats: si un contacto insiste en mover la conversación a otra aplicación (WhatsApp, Discord, Telegram), es una señal de riesgo clara.
- Cuidado con los Robux: cualquier promesa de Robux gratuitos, intercambios o “tratos” fuera de los canales oficiales es muy probable que sea una estafa.
- Supervisión y diálogo: establecer horarios de juego, revisar con quién se interactúa y, sobre todo, hablar abiertamente con los menores sobre lo que hacen en la plataforma. La confianza es clave para que puedan contar si algo les incomoda.
- Recursos de ayuda: en España, el teléfono gratuito 017 del INCIBE ofrece orientación inmediata, y los pediatras pueden ser un apoyo esencial si aparecen señales de ansiedad, insomnio o cambios bruscos de conducta.
Un debate abierto
La situación de Roblox refleja un dilema que va más allá de esta plataforma: ¿cómo se puede ofrecer un espacio digital atractivo para los jóvenes sin poner en riesgo su seguridad? Las demandas en Estados Unidos, la presión social y las advertencias en España muestran que no basta con confiar en la buena fe de las empresas. Hace falta una combinación de tecnología robusta, supervisión adulta y cultura digital crítica.
Roblox tiene la oportunidad de convertirse en un referente de seguridad si cumple lo que promete. Pero hasta entonces, la conversación seguirá abierta. Y mientras tanto, toca preguntarse: ¿estamos preparados, como sociedad y como familias, para acompañar a los menores en un entorno que combina creatividad y riesgo a partes iguales?