Fake news: ¿por qué creemos en ellas?
ESET Latinoamérica, compañía líder en detección proactiva de amenazas, analiza cuáles son las razones que hacen difícil la tarea de discernir entre la información real y la falsa, y lo susceptibles que somos a creer en las noticias falsas.
Cada nuevo día se publican una enorme cantidad de noticias y contenidos que compiten por captar la atención de la audiencia. La cantidad interminable de información que está disponible instantáneamente como artículos de noticias, clips de video, fotos u otros medios en sitios web de noticias, redes sociales, televisión, radio y otras fuentes puede, y suele, ser abrumadora. En este sentido, ESET, compañía líder en detección proactiva de amenazas, analiza los problemas para lidiar con la sobrecarga de información que llega desde el mundo digital y para discernir entre lo que es real y ficción.
Últimamente, gran parte del ciclo de noticias a nivel global se ha centrado en la guerra en Ucrania. Comenzó con imágenes satelitales de movimientos del ejército alertando del riesgo de una posible invasión rusa. Luego, comenzaron a llegar imágenes desde Ucrania a medida que los ciudadanos se dirigían a las redes sociales para publicar videos y fotos de tanques en las calles y misiles que caían del cielo, dejando destrucción a su paso. Desde entonces, se vio la guerra a través de los teléfonos a un nivel de detalle nunca antes visto; por lo que ha sido apodada la “primera guerra TikTok”. Plataformas como TikTok, Twitter e Instagram pasaron de mostrar videos de baile a utilizarse para difundir escenas de guerra y llamados para obtener apoyo humanitario, lo cual atrajo innumerables opiniones y acciones en el proceso. No obstante, ambos lados de la guerra tienen acceso a estas plataformas, lo que derivó en que se convierta en un campo de batalla digital para tratar de influir a millones de personas en todo el mundo.
Según una investigación del MIT publicada en 2018 que analizó las noticias compartidas en Twitter, “la información falsa llega significativamente más lejos, se mueve más rápido, penetra de forma más profunda y su alcance es mayor que la verdad”. Incluso al eliminar los bots y considerar solo las interacciones humanas reales. Los resultados son sorprendentes hasta el punto de que concluyeron que “la información falsa tenía un 70% más de probabilidades de ser retuiteadas que la verdad”.
El problema subyacente puede ser el sesgo cognitivo. Si bien nos permite recordar procesos previamente aprendidos y reconocer situaciones familiares, puede dejarnos susceptibles ante los atajos mentales y puntos ciegos. Una conversación entre dos personas de ambos lados de la guerra en Ucrania es un claro ejemplo: ambas partes creen que están actuando racionalmente y se acusan mutuamente de ser parciales y de no comprender las complejidades de la realidad. A partir de este punto, cada uno estará más abierto a consumir noticias que confirmen su perspectiva – incluso si la noticia es falsa. En línea se presenta una realidad filtrada, construida por un algoritmo que da forma a nuestra circunstancia virtual y nos alimenta con validación, sean cuales sean las ideas que tengamos.
En 2018, cuando Larson escribió sobre difundir información errónea, utilizó un término con el que todos nos familiarizamos recientemente: super-spreaders o supercontagiador, al igual que con los virus. Una imagen que explica cómo los trolls en Internet “causan estragos publicando deliberadamente comentarios polémicos e incendiarios”. Pero mientras algunos son solo personas aburridas usando el manto de invisibilidad de internet, otros se dedican a esto como un trabajo, inflamando la opinión pública y perturbando los procesos sociales y políticos. Dos investigadores de Oxford descubrieron varios ejemplos de cómo tanto el gobierno como las empresas privadas administran “tropas cibernéticas organizadas”. Estos batallones de trolls y bots utilizan las redes sociales para moldear las mentes de las personas y amplificar “voces e ideas marginales al inflar el número de likes, compartidos y retweets”.
¿Cómo gestionar el contenido publicado en las plataformas en línea? Facebook, Twitter, Telegram y YouTube han sido criticados por su forma de actuar ante contenido engañoso, con algunos gobiernos que solicitan más responsabilidad e incluso considerando la posibilidad de impulsar la regulación de estos servicios para la difusión de contenido prohibido o ideas falsas y extremistas. En enero de 2022, los sitios web de verificación de hechos de todo el mundo se dirigieron a YouTube con una carta abierta, alertando a la plataforma de video más grande del mundo de la necesidad de tomar medidas decisivas, principalmente “proporcionando contextos y ofreciendo rectificaciones”, en lugar de solamente eliminar el contenido de video. En la carta también se abordaba la necesidad de “actuar contra los reincidentes” y aplicar esos esfuerzos “en idiomas diferentes del inglés”.
Existen las plataformas de verificación de hechos, investigando y evaluando la calidad de la información incluida en una noticia o en una publicación viral en las redes sociales. Sin embargo, incluso estos recursos tienen sus propias limitaciones. La mayoría de estos sitios web siguen un indicador tipo barómetro que va desde “falso” a “mayormente falso”, “mayormente verdadero” a “verdadero”. Del mismo modo, la validez de esta investigación también puede ser desacreditada por aquellos que no ven sus ideas confirmadas.
“La solución estaría en campañas educativas y el diálogo. Y, mientras algunos países tienen buenos resultados en alfabetización digital y educación, otros no. La disparidad es grande, pero todos convergen en el mismo espacio virtual compartido donde no todos quieren dialogar, escuchar o comprometerse realmente. No obstante, tenemos un papel que desempeñar cuando se trata de discernir lo real de lo falso, y en el contexto de una guerra, este trabajo individual adquiere una importancia aún mayor”, comenta André Lameiras, Security Writer de ESET.