El negocio de las #FakeNews

Avatar Elena Toledo | July 10, 2018 227 Views 0 Likes 0 Ratings

227 Views 0 Ratings Rate it

Veles, una ciudad en Macedonia con una población de tan solo 50,000 personas y un promedio salarial de $371 pudo haber influenciado las elecciones presidenciales de EE.UU. en el 2016. Esta influencia no venía de funcionarios, ejecutivos ni mucho menos power brokers. Se trataba nada más y nada menos que de un curioso grupo de adolescentes emprendedores que operaban sitios de fake news  o noticias falsas.

Estos jóvenes no tenían una agenda política; simplemente buscaban independencia financiera. Muchos de ellos dejaron de ir a la escuela para poder dedicarse a tiempo completo en sus lucrativas operaciones. Su modus operandi era el siguiente:

  1. Buscar fake news en sitios pro-Trump
  2. Copiar el texto de estas noticias y publicarlas en sus propios sitios
  3. Difundir estas noticias (con links a sus sitios) en grupos de Facebook Pro-Trump (bajo cientos de alias)
  4. Repetir

Su única aportación editorial era cambiar los títulos de las noticias para que fuesen más alarmantes o click bait. Y en caso de que el operador tuviera un bajo nivel de inglés, las publicaba tal cual. Después de todo, no tenían afiliación política y no les importaba el resultado de las elecciones. Su objetivo era volumen, no calidad periodística.

Ese volumen de tráfico a sus sitios de fake news les generaba hasta $6,000 mensuales. Su modelo de negocios era simple: integrar Google AdSense al sitio y generar tráfico. Google AdSense es un producto de Google que publica publicidad en espacios predeterminados de tu sitio (blog, revista online, etc.) y te remunera dependiendo de la cantidad de clicks que estos reciban.

Está claro que existe un incentivo financiero y las herramientas necesarias para corromper elecciones en otros países. Es tan fácil que este grupo de adolescentes lo hacía como hobby. Ahora bien, no podemos decir con certeza qué tan grande fue el impacto de estas fábricas de fake news de Veles. Pero si genera una gran duda: De que es capaz un grupo con fondos ilimitados y acceso a tecnologías más sofisticadas?

Estos grupos pueden ser terceros subcontratados por gobiernos foráneos, campañas rivales y hasta corporaciones. No descartamos que pueden ser operaciones in-house de campañas políticas modernas.

A continuación una hipótesis de cómo estos pueden operar:

  1. Obtener y recopilar datos/metadatos del grupo que se quiere influenciar
  2. Crear perfiles psicográficos de estos usuarios para identificar puntos débiles
  3. Generar memes, fake news, deep video portraits y deepfakes utilizando inteligencia artificial
  4. Difundir el contenido en medios estratégicos utilizando bots
  5. Compartir y disuadir a usuarios susceptibles utilizando bots

Estos grupos puede obtener datos de redes sociales y data brokers. La variedad de datos que recopilan es suficiente para crear perfiles psicográficos. Es decir, estos usuarios pueden ser segmentados según: rasgos de personalidad, actitudes, valores, intereses y estilo de vida. Con toda esta información en mano, es muy fácil detectar vulnerabilidades y poder dirigir contenido personalizado con el fin de disuadir y desinformar. Por ejemplo: Si apoyas a candidato A y tienes una posición fuerte en contra del aborto, recibirás contenido sobre candidato rival hablando vehementemente a favor del aborto. El contenido que recibes puede ser 100% ficticio, creado específicamente para manipular tu inclinación política (y tu voto).

Seguramente has recibido memes y fake news acerca de figuras políticas o celebridades. Los memes suelen tienen un factor cómico/satírico que los hace llegar a la viralidad rápidamente. Los fake news pueden ser divulgados en formato de texto vía aplicaciones como WhatsApp o como enlaces a sitios de noticias en redes sociales. Los otros formatos de contenido son verdaderamente alarmantes y muy peligrosos: deepfakes y Deep Video Portraits.

Los deepfakes son videos en los que puedes reemplazar la cara de alguien en el video con la cara que desees (lastimosamente hay cientos de miles de videos pornograficos que reemplaan las caras de actrices porno con esas de actrices de Hollywood). Los Deep Video Portraits son aún más avanzados. Un algoritmo estudia los movimientos de boca y gestos del sujeto, este puede ser una celebridad, un presidente o tu mismo. Una vez estudiados, puedes hacerlos decir cualquier cosa y el resultado final parece genuino. Un video de un candidato presidencial diciendo exactamente lo que quieres escuchar (o el total opuesto) puede fácilmente influenciar tu voto.

Todo esto parece muy distópico, como algo que sucedería en una novela de Philip K. Dick o un episodio de Black Mirror. La inteligencia artificial es cada día más eficiente, rápida y económica. Así que muy pronto tendremos polémicas acerca de vídeos de declaraciones que quizás nunca ocurrieron.

Pero, la última milla del recorrido de estos contenidos está en nuestras manos. El word of mouth es esencial para la difusión de estos contenidos ya que estadísticamente creemos lo que nos cuentan nuestros amigos y familiares. Así que, tomémonos el tiempo de verificar el orígen de lo que vemos, leemos y compartimos. Si todos estamos en la mísma página (aunque apoyemos a partidos políticos opuestos) seguiremos tomando decisiones informadas.


227 Views 0 Ratings Rate it

Written by Elena Toledo