La plataforma de entretenimiento virtual Roblox Corporation reforzó esta semana sus sistemas de seguridad y moderación automática de avatares, con tecnologías que escanean y bloquean apariencias que violenten sus normas de comunidad antes de que sean visibles para otros usuarios.
Según la empresa, el nuevo enfoque —parte de su iniciativa de moderación proactiva de contenidos— evalúa integralmente los elementos que conforman un avatar, como ropa, accesorios y combinaciones de items, para detectar posibles incumplimientos a las políticas de conducta y civismo. Cuando se identifica un avatar inapropiado, la plataforma lo restablece a una versión predeterminada y notifica al usuario sobre la violación, con información sobre las reglas que se infringieron.
Este sistema automatizado se suma a los mecanismos tradicionales de moderación, que combinan tecnología de inteligencia artificial con revisores humanos y herramientas comunitarias para denunciar y eliminar contenido ofensivo o peligroso. Roblox ha señalado que esta estrategia busca proteger especialmente a niños y adolescentes, quienes forman una parte importante de su base de usuarios, de imágenes, temas o combinaciones visuales que puedan ser ofensivas, violentas o inadecuadas para su edad.
La actualización se da en un contexto donde las plataformas digitales enfrentan presión regulatoria y social para mejorar las políticas de protección infantil, y Roblox ha implementado otras medidas de seguridad en los últimos meses, como filtros de chat, verificación de edad y asociaciones con organizaciones de bienestar digital.
No obstante, expertos y usuarios han señalado desafíos técnicos en estos sistemas, ya que puede haber casos de detecciones incorrectas o excesivas, por lo que la compañía mantiene canales de apelación y revisión para ajustes continuos.
Con estos cambios, Roblox busca consolidar una experiencia más segura y adecuada para todas las edades, enfatizando la responsabilidad en la creación y mantenimiento de espacios digitales orientados a la comunidad juvenil.