La piratería informática cognitiva es cada vez más común en nuestros días, deformando la información que tenemos a nuestro alcance para favorecer a los intereses de unos cuantos. Entérense.   Por Kashmir Hill   Este mes quedó al desnudo un esfuerzo financiado por el gobierno de Estados Unidos para crear una red social similar a Twitter en Cuba llamada ZunZuneo. Fue todo un éxito, cerró ya que se volvió demasiado grande, demasiado rápido. Si no consideramos el embargo que pesa sobre Cuba, sería poco probable que luciera tan malo, excepto por las empresas fachada secretas, el robo de medio millón de números de teléfono celular cubanos para echar a andar la red y la elaboración de encuestas entre sus usuarios para averiguar sus inclinaciones políticas. La agencia humanitaria detrás del proyecto –USAID– dijo que sólo quería crear una red donde los usuarios pudieran hablar entre ellos (como las redes que ayudaron a los activistas durante la primavera árabe), pero el hecho de que los que dirigen la red levantaron esas encuestas informales y cuestionarios entre sus usuarios para tratar de averiguar sus inclinaciones ideológicas cuenta una historia diferente: que querían saber quiénes sentían más simpatía por EU, quizá con miras a hacerlos los más influyentes en la red. Éste fue un intento sofisticado de hacking cognitivo, por extraño que resulte, realizado por una organización humanitaria y no por la CIA. El gobierno de EU no es el único en hacerlo; investigadores, políticos y empresas también están explorando el terreno de la piratería informática cognitiva. Algunos intentos son súper flojos y obvios –como esa sexy chica en Twitter que te sigue tuiteando links con spam o el príncipe nigeriano que no sabe qué hacer con sus millones–, pero otros intentos son mucho más refinados –como un grupo de gente aparentemente inconexo que empieza a hablar del mismo tema para convencerte de que es “viral”–. En 2002, un grupo de investigadores de Dartmouth escribió un ensayo sobre los peligros de los ataques cognitivos en la era de Internet. Estos ataques “cambian el comportamiento de los usuarios” al “manipular su percepción de la realidad”. “La naturaleza abierta de Internet la vuelve el terreno ideal para la difusión de información falsa”, escribieron. “La piratería informática cognitiva es diferente de la ingeniería social, donde una sola persona trata de engañar a otra persona”, dice Tim Hwang, quien recientemente organizó una conferencia en Stanford sobre Seguridad Cognitiva e Inteligencia Artificial. “Esto va mucho más allá de eso: es tratar de influir en todos tus amigos para que crean lo mismo que tú, y ello con demasiada frecuencia implica el uso de inteligencia artificial y redes sociales para ampliar el alcance de lo que puede lograrse.” Están las cosas simples, como la compra de un montón de fans falsos en redes sociales para hacerte lucir más popular. O bien, apuntando en una dirección un poco más sofisticada, un partido político puede programar un grupo de bots en Twitter para publicar tuits en apoyo a ellos y poner en entredicho a su oposición, como ocurrió durante las elecciones en México en 2012. “Los políticos quedan al descubierto porque lo hacen de forma muy cruda”, dice Hwang. “Nadie se deja engañar por los bots. La gente tuvo una fuerte reacción negativa hacia ellos”, dice Andrés Monroy-Hernández, investigador de Microsoft Research, quien estudia el uso de las redes sociales en México:
“Pero las redes sociales desempeñan un papel desmesurado en el que afectan a otro tipos de medios de comunicación —prensa, radio, televisión— y ese ruido puede engañar a algunas personas y hacerlas pensar que candidato es más popular que otro. Cada vez que algo sucede en el mundo real, los periodistas se dirigen a las redes sociales para saber más.”
Si ves a mucha gente tuiteando #CancelColbert, tienes que escribir sobre ello, ¿no? En México, fueron más allá de los robots programados. Un video filtrado muestra a un gran grupo de gente en una habitación, todos trabajando en computadoras portátiles, tuiteando bajo consigna. “En lugar de usar bots, usaron gente real para hacerlo”, dijo Monroy-Hernández. Monroy-Hernández espera ver más ejemplos de personas haciendo ataques cognitivos que tienen como objetivo hacer que algo luzca como viral cuando no lo es. Cita el famoso video de Kony, que en el momento parecía ser genuinamente viral, pero que un informe de investigación del Huffington Post encontró que fue en verdad orquestado por aprovechar el poder de los grupos de estudiantes religiosos de todo el país que en línea parecían desconectados, pero en realidad estaban conectados fuera de línea. La gente está encontrando cada vez más ataques cognitivos indeseados a través de sus redes sociales. Los usuarios de Tinder que sólo buscaban amor y dieron el “sí” a atractivas mujeres pronto se encontraron intercambiando mensajes de texto con un bot en lugar de un ser humano, un robot muy interesado en hablar con ellos acerca de un juego para móviles. Después del inevitable “¿qué haces?”, el atractivo bot respondía con un “En este momento me estoy relajando un poco y juego castle clash en mi teléfono. ¿Has oído hablar de ese juego?”, invitando a su nuevo amigo a unirse a ella. Mientras tanto, según el New York Times, OkCupid quiere aumentar la seguridad cognitiva en su sitio mediante el diseño de sus propios robots de defensa “que coquetean con los robots invasores, cortejándolos hasta una especial, ‘una clase de purgatorio’ para hablar entre bots en vez de engañar a seres humanos”. Los investigadores están comenzando a jugar con los robots sociales y ataques cognitivos que implican la desinformación para ver hasta dónde pueden ir. En diciembre, dos profesores universitarios en Dinamarca hicieron que sus alumnos de máquinas aprendices diseñaran un grupo de robots que decían ser de Boston. Trataron de hacer que el hashtag #BanksyinBoston se hiciera tendencia en Twitter al publicar imágenes alteradas en Photoshop de imágenes tomadas de Google Street View con presuntas obras del misterioso artista de graffiti. Obtuvieron algunos RTs y algunas personas dijeron que planeaban comprobar su existencia, pero también hubo escépticos que tuitearon fotos de los verdaderos sitios, en donde no había tales obras de arte callejero. Su ataque cognitivo no funcionó en Andrew Tran, un reportero del Boston Globe. Él los descubrió después de detectar los vínculos entre los usuarios de Twitter. “Esperamos que este pequeño experimento pueda ser útil en la creación de una conciencia de tales manipulaciones sutiles [por robots] antes de comenzar a dar forma a nuestras conversaciones públicas”, dijo uno de los profesores a Forbes. Teniendo en cuenta la cantidad de gente que encontramos y hacemos nuestros amigos digitales sin conocerlos en la vida real, empiezas a volverte paranoico, dando lugar a declaraciones de este tipo: “Tweets como este me han convencido de que eres un bot.” Monroy-Hernández piensa que estas campañas de manipulación de la información eventualmente se moverán fuera de línea. Usando Task Rabbit, por ejemplo —una startup donde la gente hace tareas que les pides— puedes pedir a 300 personas aparecer en la puerta del Ayuntamiento con letreros. “Ahí está el posible uso o abuso de estas herramientas para crear una falsa sensación de apoyo a un problema”, dice. “¿Cómo evolucionarán estas cosas?” Hwang está pensando en la creación de una base de datos de seguridad cognitiva para rastrear y agregar ataques cognitivos expuestos. Dice que el “Twitter cubano” es la “cosa más masiva que hemos visto hasta la fecha en ese terreno”, pero vienen más en camino. “En el futuro, investigadores, gobiernos, plataformas sociales y actores privados podrán participar en una carrera permanente por tener mayor incluencia —y proteger de esa influencia— a los grandes grupos de usuarios en línea.”

 

Siguientes artículos

Square debe venderse, y rápido
Por

La empresa de pagos creada por Jack Dorsey carece del capital que le permita escalar su negocio a la velocidad necesaria...