En agosto de 2024, la organización 5Rights Foundation publicó un duro informe que señalaba graves riesgos para los menores en Roblox y pedía rediseñar la plataforma para cumplir con las leyes de seguridad infantil. Este reporte, junto con investigaciones de Hindenburg Research y Bloomberg, puso de relieve los desafíos que enfrentan las plataformas con gran presencia de menores.
La empresa, que desde sus inicios ha declarado la protección infantil en Roblox como uno de sus pilares, ha desarrollado un enfoque que combina inteligencia artificial avanzada, supervisión humana y alianzas estratégicas con autoridades y organizaciones globales. Con más de 100 millones de usuarios diarios, muchos de ellos menores de edad, su meta es proteger a su comunidad y contribuir a un internet más seguro.
Una plataforma pensada para la seguridad desde el inicio
Roblox nació con un diseño apto para todas las edades, incluyendo a usuarios menores de 13 años. Esto se traduce en un ecosistema de control estricto que incluye verificación de edad para habilitar chats sin filtro, filtrado agresivo de conversaciones públicas y bloqueo de cualquier intento de compartir información personal, como números de teléfono o enlaces externos.
El equipo de seguridad, conformado por miles de profesionales alrededor del mundo, revisa constantemente el contenido y las interacciones. Gracias a sistemas proactivos de moderación, la mayoría del material que infringe las normas es detectado antes de llegar a los usuarios.
En cifras, la plataforma procesa miles de millones de mensajes de texto al día y millones de horas de voz, con modelos de IA capaces de identificar riesgos en milisegundos.
Alianza directa con autoridades para frenar amenazas
Uno de los pilares de la protección infantil en Roblox es su trabajo coordinado con organismos como el FBI y el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). La compañía no solo responde a solicitudes oficiales, sino que también reporta de manera proactiva contenido que pueda representar una amenaza grave.
En 2024, Roblox presentó más de 24.500 reportes a NCMEC, detallando información clave para facilitar investigaciones y priorizar casos urgentes. Además, participa en conferencias internacionales como la Crimes Against Children Conference (CACC) y mantiene equipos disponibles las 24 horas para atender requerimientos policiales.
Este enfoque evita que los delincuentes operen impunemente y busca impedir que utilicen la plataforma para contactar a posibles víctimas.
Tecnología y código abierto para la protección global
La inteligencia artificial es la base de la moderación en Roblox. Sus modelos analizan texto, voz, imágenes y contenido 3D para detectar infracciones con gran precisión. En la última década, la compañía ha desarrollado cientos de sistemas que operan en tiempo real, reduciendo al mínimo la exposición de los usuarios a material nocivo.
En 2025, Roblox se convirtió en socio fundador de ROOST (Robust Open Online Safety Tools), una iniciativa sin ánimo de lucro que desarrolla herramientas de seguridad de código abierto para toda la industria. Entre sus aportes destaca un modelo avanzado de detección de voz, capaz de operar en siete idiomas y manejar hasta 400.000 horas diarias de audio.
Con esta estrategia, Roblox no solo protege su comunidad, sino que también ayuda a otras plataformas a reforzar sus defensas.
Colaboración con la industria tecnológica
La protección infantil en Roblox se extiende más allá de sus servidores. La compañía es miembro activo de la Tech Coalition, una red global de empresas que trabajan juntas para combatir la explotación sexual infantil en línea.
A través del intercambio de señales y datos, esta colaboración permite identificar y bloquear a delincuentes que se desplazan entre diferentes plataformas. La meta es clara: que internet sea un entorno más seguro para jugar, aprender y socializar.
Roblox también apoya marcos regulatorios como el California Age-Appropriate Design Code Act y leyes que prohíben explícitamente la creación de material de abuso sexual infantil mediante inteligencia artificial.
Reportes responsables y rechazo a grupos vigilantes
La compañía advierte contra la actuación de grupos o individuos que, con la intención de “atrapar” a depredadores, violan las políticas internas y terminan poniendo en riesgo a otros usuarios. Estas prácticas pueden retrasar las investigaciones oficiales y aumentar el tiempo que los delincuentes permanecen activos.
Por eso, Roblox promueve el reporte directo a través de sus herramientas internas o mediante canales oficiales como el portal de NCMEC o las autoridades locales. Su programa Trusted Flagger permite a socios de confianza notificar incidentes graves para una respuesta prioritaria.
Una tarea que no termina
En Roblox, la protección infantil no es una meta alcanzada, sino un esfuerzo constante. La empresa continúa innovando en sus sistemas de moderación, fortaleciendo alianzas con organismos internacionales y compartiendo tecnologías para elevar el estándar de seguridad en todo el sector.
El compromiso es claro: seguir construyendo un espacio digital donde los más jóvenes puedan explorar, crear y divertirse con confianza.
Referencias
Roblox Corp.
Guía oficial de Roblox para que las autoridades soliciten información y cooperen en investigaciones.
Roblox Help Center
Roblox Corp.
5Rights Foundation