Las redes sociales quieren mantenerse bien alejadas de aquellos usuarios que realizan bots y estafan mediante ‘phishing‘ o ‘trollean‘ a otros usuarios.
En este contexto, Facebook ha creado una red social paralela donde los bots con inteligencia artificial emulan a esta clase de usuarios.
Plataforma alternativa
Gracias a esta nueva plataforma, la compañía puede analizar el comportamiento y tomar medidas para comprobar si serían efectivas finalmente en la red social. Para llevar a cabo la simulación, la firma cuenta con un Facebook alternativo que se conoce bajo el nombre ‘WW‘, el cual menta una versión menor de la WWW.
En realidad, este simulador funciona con el mismo código que el Facebook original usado por usuarios reales, con la diferencia de que en este espacio no hay usuarios reales, sino que hay un montón de bots con inteligencia artificial que campan a sus anchas e imitan a los clientes. Respecto a su funcionamiento, Facebook ha explicado que ha tenido que entrenar a unos “bots malos” para que vendieran productos ilegales.
Se trata de una práctica muy conocida que se produce en la plataforma real, donde se intenta vender ítems que están prohibidos, como pueden ser armas o drogas.
El trabajo de los bots consta en imitar todas las actividades que un usuario real puede hacer, como enviar mensajes a otros, hacer búsquedas, visitar páginas, dejar comentarios y acciones similares.
La plataforma simulada no llega a ser como el Facebook real y tampoco tiene la capacidad de simular todos los factores del mundo real. De modo que, por mucho que el bot sea inteligente, no puede predecir con exactitud el comportamiento y las intenciones de un humano.
Aún así, la compañía tecnológica ha demostrado que existen nuevas formas de testar las medidas de seguridad de una red social, con la mera certeza de que no va a perjudicar a los usuarios finales.
Te puede interesar:
|La nueva estrategia de las marcas para captar consumidores jóvenes
|LinkedIn informa sobre cómo configurar su negocio post COVID-19
Síguenos a través de Instagram: