Que Facebook tiene un problema con la seguridad no es nada nuevo. Es más, casi se podría decir que la noticia es que durante dos semanas Facebook no sea noticia por no haber tenido problemas de seguridad. Ya sea por fallos que afectan a sus usuarios o, como en este otro caso, a sus empleados, o en algo todavía más censurable, comprometiendo conscientemente la seguridad de sus usuarios durante años, algo por lo que deberían dar bastantes explicaciones.
Y aunque la medida de la que habla hoy Venture Beat no tiene aplicación en este último caso, sí que podría ser de gran ayuda en los dos anteriores. Hablamos de Web-Enabled Simulation (WES), un sistema que está siendo diseñado con el fin de realizar simulaciones masivas de todo tipo de comportamientos e interacciones en la red social, empleando modelos de inteligencia artificial para intentar replicar un patrón realista del funcionamiento de Facebook.
¿Con qué intención? La de que, en alguna de las acciones simuladas, sea posible detectar fallos de diseño y agujeros de seguridad que todavía no han sido descubiertos. Y es que son tantos, tantísimos, los modelos de comportamiento que se pueden aplicar a Facebook y, más aún, las posibles combinaciones entre los mismos, que si un fallo de seguridad se da, exclusivamente, con una combinación muy concreta (y esto es lo más común), detectarlo manualmente es buscar una aguja en un pajar.
Con WES este problema se resolverá, dado que permite automatizar las interacciones entre miles o incluso millones de bots que emulan el comportamiento de los usuarios reales. Además, no son bots «tontos», sino que gracias a la IA subyacente, son entrenados y su comportamiento va evolucionando. El aprendizaje, eso sí, es siempre supervisado, para evitar que se puedan producir errores que produzcan un sesgo de cualquier tipo en el comportamiento de los bots a a la hora de probar Facbook.
La gran mayoría de estos bots no se pondrán en funcionamiento sobre la versión de Facebook accesible para todos los usuarios, sino sobre una creada específicamente para este fin. No hay que olvidar que hablamos de bots que interaccionarán entre ellos en todo tipo de pruebas, por lo que su presencia podría llegar a resultar muy molesta en páginas, grupos, etcétera. Solo un subconjunto de bots sí que accederá a la misma versión de Facebook que los usuarios, pero todos estos solo podrán realizar acciones de lectura, no de interacción con la comunidad.
Los bots, por grupos, tendrán diferentes «misiones«, como intentar acceder a fotos y publicaciones privadas, obtener datos de contacto o de pago de los usuarios, etcétera. Dividir a los bots en grupos permitirá a Facebook no solo probar diversas posibilidades para un mismo fin, sino también explorar diversos fines de manera simultánea.
La entrada Facebook: Inteligencia artificial vs vulnerabilidades es original de MuySeguridad. Seguridad informática.