Pese a las demandas, Roblox sería un lugar "seguro" para niñas, niños y adolescentes
Aunque enfrenta múltiples demandas, Roblox refuerza controles para proteger a niñas, niños y adolescentes en su plataforma.
Roblox, la popular plataforma de juegos en línea, es cada vez más cuestionada por sus potenciales peligros
shutterstock.comLa plataforma de videojuegos Roblox, con más de 82 millones de usuarios activos, atraviesa un momento crítico al enfrentar una serie de demandas en Estados Unidos. Los cuestionamientos se centran en su capacidad para proteger a niñas, niños y adolescentes de posibles abusos dentro y fuera de su ecosistema digital.
En respuesta, la compañía niega haber actuado con negligencia deliberada y asegura que está reforzando sus mecanismos de seguridad. Entre las medidas más recientes se destacan un nuevo sistema de verificación de edad con inteligencia artificial y restricciones más estrictas sobre el contenido que circula en la plataforma.
Roblox y las acusaciones en tribunales
Las denuncias provienen de fiscales y familias que acusan a Roblox de ser terreno fértil para abusadores sexuales. Según casos presentados en cortes federales, adultos fingen ser menores para entablar contacto con niños y luego trasladan las conversaciones a aplicaciones externas como Discord o Snapchat, donde la empresa ya no puede intervenir.
Liz Murrill, fiscal general de Luisiana, definió a la plataforma como “el lugar perfecto para los pedófilos”, asegurando que su diseño facilita que se creen cuentas con fechas de nacimiento falsas. Además, señaló que uno de cada cinco usuarios de la plataforma tiene menos de nueve años, lo que agrava el problema de exposición a riesgos.
La apuesta por la verificación de edad
Como respuesta a la presión legal, la compañía ha implementado un sistema de verificación de edad que utiliza selfies en video y análisis con inteligencia artificial. Esta tecnología, lanzada en julio de 2025, busca comprobar si un usuario tiene más de 13 años para acceder a chats con “conexiones de confianza”.
Si se detecta que el jugador es menor, la plataforma ajusta automáticamente la edad registrada y restringe ciertas funciones. A esto se suman nuevas reglas de moderación que prohíben contenidos con referencias sexuales, limitan experiencias “no clasificadas” y obligan a los desarrolladores a completar cuestionarios más estrictos antes de publicar.
Seguridad digital y los desafíos pendientes
Los expertos advierten que, pese a estas medidas, resulta muy difícil controlar los espacios virtuales masivos. Los depredadores pueden eludir los sistemas automáticos usando códigos de lenguaje o migrando a otras aplicaciones con menor supervisión.
Mientras tanto, padres y fiscales piden soluciones más firmes, como controles parentales reforzados y una supervisión constante del contenido creado por los usuarios. Algunos incluso plantean que, si las mejoras no son suficientes, la plataforma debería suspenderse hasta garantizar un entorno realmente seguro para niñas, niños y adolescentes.
FUENTE: Información extraída de Andro4all



