Las tecnologías emergentes, como las redes de sensores, el rastreo en redes sociales y las prácticas de vigilancia facial, están transformando de manera significativa nuestra interacción con el mundo digital. Aunque estas herramientas ofrecen grandes beneficios, también plantean serias amenazas a los derechos fundamentales de los individuos, particularmente en lo que respecta a la privacidad. El uso de estas tecnologías, a menudo sin el conocimiento o consentimiento explícito de los usuarios, puede dar lugar a patrones discriminatorios y estigmatización de grupos vulnerables. Esto ocurre sin que las personas afectadas necesariamente lo perciban o tengan forma de evitarlo (Whittaker et al., 2018).
Al respecto, Mehrabi et al. (2019) sugieren que, al igual que las personas, los algoritmos son vulnerables a sesgos que pueden hacer que sus decisiones resulten “injustas”. Este concepto de “justicia” se refiere a la ausencia de prejuicios o favoritismos hacia un individuo o grupo, basándose en características inherentes o adquiridas. Así, un algoritmo sesgado, aunque supuestamente objetivo, puede tomar decisiones que favorecen injustamente a un grupo sobre otro, exacerbando desigualdades preexistentes en la sociedad.
Un claro ejemplo de este fenómeno se observa en los Estados Unidos, donde el uso de inteligencia artificial ha incrementado las desigualdades sociales, como se demuestra con la herramienta de reclutamiento automatizada que mostró un sesgo de género (Dastin, 2018) y con los algoritmos discriminatorios utilizados para evaluar el crédito, que perjudican a las minorías (Bartlett et al., 2018; Glantz y Martínez, 2018; Waddell, 2016). Además, una investigación de ProPublica reveló que una herramienta utilizada para calcular puntajes de riesgo en Florida estaba sesgada contra la población negra, lo que resultó en decisiones discriminatorias (Angwin et al., 2016).
Es importante señalar que algunos académicos sostienen que las restricciones éticas que regulan la inteligencia artificial pueden variar según las culturas y los idiomas. Un incidente relevante ocurrió en 2017, cuando una publicación de un hombre en Facebook fue malinterpretada debido a un error de traducción automática, lo que llevó a su arresto por la policía israelí (Hagerty y Rubinov, 2019; Hern, 2017). Este tipo de error lingüístico puede tener consecuencias graves, ya que las traducciones automáticas son a menudo ambiguas y carecen de un contexto cultural adecuado. Además, la ambigüedad del botón de “Me gusta” en Facebook también dio lugar a un incidente en Brasil, donde un colectivo indígena fue filtrado por el algoritmo de la plataforma, afectando su visibilidad en línea y, por lo tanto, su capacidad para defender sus derechos (Ochigame y Holston, 2016).
El caso expuesto por Ochigame y Holston ilustra cómo los principios de la inteligencia artificial están inevitablemente cargados de valores, los cuales pueden variar drásticamente entre distintas culturas. Las implicaciones de estos valores se hacen aún más evidentes cuando se consideran las diferentes realidades de los países en desarrollo, que a menudo son más susceptibles a los efectos negativos de los algoritmos sesgados, sin poder beneficiarse plenamente de las oportunidades que ofrecen estas tecnologías. El Foro Económico Mundial (2018) señaló que los países en desarrollo enfrentan riesgos mayores de sufrir patrones discriminatorios al emplear métodos de aprendizaje automático.
Desde una perspectiva política, Hashmi et al. (2019) enfatizan la creciente ambigüedad que rodea la implementación de la inteligencia artificial en el sector público. La adopción de estas tecnologías plantea una serie de problemas éticos relacionados con los aspectos morales, legales, económicos y sociales de nuestras sociedades. Los funcionarios gubernamentales se enfrentan a decisiones difíciles sobre cómo aplicar la inteligencia artificial de manera ética en la gobernanza y los servicios públicos.
A pesar de estos desafíos éticos, la inteligencia artificial también tiene un potencial positivo. Algunos estudios sugieren que la IA podría ser utilizada como una herramienta para combatir la propagación de noticias falsas en plataformas de redes sociales, ya que tiene la capacidad de identificar cuentas falsas y realizar verificaciones automáticas de hechos. Según datos de Facebook, las herramientas de inteligencia artificial son responsables de la eliminación del 99,5% de los contenidos relacionados con el terrorismo y el 98,5% de las cuentas falsas (Marsden y Meyer, 2019; Kertysova, 2018). Sin embargo, esta función defensiva de la IA también tiene un lado oscuro, ya que la misma tecnología que puede identificar desinformación también puede ser utilizada para crear y difundir propaganda y manipular la opinión pública, especialmente mediante técnicas como la microsegmentación de audiencias y la generación automática de contenido (Yang et al., 2019).
El papel ambivalente de la IA en la propagación de la desinformación es especialmente relevante cuando se considera el fenómeno de los “deepfakes”, que socavan la autenticidad de los videos y generan contenido visual manipulado (Strickland, 2018; Güera y Delp, 2018). La capacidad de la IA para crear falsificaciones convincentes de videos y audios amplifica el riesgo de manipulación, siendo utilizada tanto como un instrumento de defensa contra bots y noticias falsas, como un medio ofensivo para moldear la realidad y crear caos social.
El enfoque ético que debería adoptarse ante estas tecnologías debe basarse en la intersección de diversas perspectivas y realidades, promoviendo la diversidad y la inclusión en el diseño y la implementación de sistemas algorítmicos. La diversidad en los equipos de desarrollo de IA es crucial para mitigar los sesgos y garantizar que todos los grupos, especialmente los más vulnerables, sean tratados de manera justa y equitativa. Además, la inclusión debe ser un principio central, ya que garantiza que las personas que han sido históricamente silenciadas o excluidas puedan participar activamente en la creación de tecnologías que afectarán directamente sus vidas.
A medida que la IA avanza y su influencia en la sociedad crece, surge una necesidad urgente de desarrollar un enfoque ético que no solo regule los aspectos técnicos de estas tecnologías, sino que también aborde sus impactos sociales y culturales. La intersección de las identidades, las culturas y las realidades sociales debe ser un factor clave en cualquier discusión sobre la ética de la IA, especialmente cuando se trata de abordar las implicaciones que tiene para la propagación de la desinformación y la protección de los derechos humanos en la era digital.
¿Cómo las campañas políticas de Brexit manipularon la percepción pública sobre los migrantes y la inmigración?
La construcción de la figura del migrante como una amenaza para la seguridad se consolidó con el argumento de que abandonar la Unión Europea (UE) impediría que los refugiados buscaran asilo en el Reino Unido. Esto se basaba en la premisa de que, al salir de la UE, Gran Bretaña dejaría de ser parte de uno de los beneficios más centrales de la integración europea: la libertad de movimiento entre los países miembros. Esta línea argumentativa alcanzó su punto culminante con la creación y difusión del cartel de Leave.EU titulado "Breaking Point", el cual mostraba a refugiados de Oriente Medio haciendo fila en las fronteras de Europa. La leyenda que acompañaba la imagen decía: “Debemos liberarnos de la UE y recuperar el control”. Este mensaje promovía la idea de un "retiro insular": si los británicos votaban a favor de abandonar la UE, podrían evitar la entrada de personas como esas al país.
En un nivel más sutil, el uso de la retórica que vinculaba la inmigración con amenazas de naturaleza sexual comenzó a calar hondo en el discurso público. Esto se ejemplificó con las denuncias sobre agresiones sexuales cometidas por migrantes recién llegados en Alemania, el país de la UE que había recibido casi un millón de refugiados en 2015. Los promotores de Leave.EU contribuyeron a generar una moral panic que presentaba a los refugiados como "predadores sexuales", reforzando la narrativa de que la pertenencia a la UE ponía en riesgo la seguridad de las mujeres británicas. A pesar de que el cartel de "Breaking Point" y las narrativas que lo acompañaban podrían considerarse dentro de los márgenes del discurso de odio, no fueron objeto de sanciones penales. Sin embargo, como señala Reid (2019), tales actos transgreden las normas esperadas de una campaña política, ya que pueden tener efectos negativos sobre la voz política de los individuos y deben ser objeto de sanciones limitadas dentro de este ámbito.
La persistente utilización de imágenes nacionalistas y discriminatorias, como las del cartel de "Breaking Point", por parte de actores en posiciones de relativa autoridad, puede generar un cambio significativo en la percepción pública, llevando a que ciertos grupos objetivo sean silenciados. Su voz es deslegitimada en los deliberaciones políticas, y cuando eligen hablar, las consecuencias son que no se les toma en serio. Esto se traduce en una exclusión de facto del proceso deliberativo en la creación de leyes debido a la pérdida de una voz política efectiva. Estos efectos de exclusión han sido discutidos en estudios sobre el discurso de odio, como el trabajo de Jeremy Waldron sobre la "difamación grupal" o "calumnia grupal" (2012), que señala cómo la difusión de ideas falsas sobre ciertos grupos puede llevarlos a ser tratados de manera injusta y desigual.
En este contexto, los migrantes y las minorías que son frecuentemente objeto de estigmatización y prejuicio son despojados de su dignidad, convirtiéndose en miembros de un "entorno social deformante". Este entorno no solo debilita su voz política, sino que además refuerza la percepción de que estos grupos son menos dignos de ser escuchados en el ámbito de la deliberación democrática. A través de lo que se ha denominado "injusticia epistémica" (Fricker 2007), las personas de estos grupos son sometidas a un trato discriminatorio que mina su capacidad de participar efectivamente en la política. La injusticia testimonial es una de las formas más destacadas de esta injusticia epistémica: se trata de la injusticia de ser dudado como conocedor, o de ver cuestionada la integridad de su conocimiento. En este sentido, los migrantes afectados por la retórica del Brexit son forzados a deliberar bajo normas falsas, lo que socava su credibilidad y les coloca en una situación de desventaja al tener que internalizar estereotipos perjudiciales.
Esta dinámica de deslegitimación puede ser observada también en el caso del cartel de "Breaking Point", que representaba a los migrantes y ciudadanos no blancos como una fuerza hostil y una carga para los recursos de la nación. Deliberar bajo la premisa de que estos migrantes representan una amenaza requiere aceptar falsedades y perder credibilidad en el proceso. Este fenómeno refleja las complejidades del "mundo de la política post-verdad" en el siglo XXI, donde la manipulación de la verdad juega un papel crucial en la configuración de la opinión pública y en la exclusión de ciertos grupos de las discusiones democráticas.
Es crucial entender que, en el contexto de la campaña del Brexit, los mensajes clave que los votantes retuvieron fueron aquellos que manipulaban las emociones más profundas y vulnerables de la sociedad: el miedo a la inmigración y la promesa de que la salida de la UE solucionaría problemas sociales complejos como la financiación del sistema de salud (NHS). Sin embargo, la realidad era mucho más compleja. Estos temas no estaban directamente relacionados con la membresía en la UE, pero fueron utilizados y exagerados en un contexto de engaño electoral. Las narrativas construidas durante la campaña referendaria, por tanto, jugaron un papel crucial en la difusión de desinformación, alimentando la desconfianza y la confusión entre el electorado. La división política generada por este tipo de discursos no solo afectó la relación de los votantes con la política, sino que también minó la calidad del debate democrático en el Reino Unido.
¿Cómo afecta la desinformación a la política global?
La desinformación ha cobrado una importancia central en los debates políticos y sociales actuales. En un mundo donde las redes sociales y las plataformas digitales tienen un alcance masivo, la propagación de noticias falsas se ha convertido en una herramienta política poderosa. El fenómeno de la desinformación no es nuevo en sí mismo; ha existido siempre en diversas formas de manipulación de la realidad para servir intereses particulares. Sin embargo, lo que hace única la situación actual es la escala global y la velocidad con la que se difunde, impulsada por las tecnologías digitales. Los informes más recientes, como los emitidos por la Acción Exterior de la Unión Europea (EEAS), revelan que las campañas de desinformación son cada vez más complejas y coordinadas, con actores estatales, como los gobiernos de Rusia y China, utilizando estas tácticas para influir en la percepción pública, especialmente durante crisis internacionales como la pandemia de Covid-19.
El término "fake news" (noticias falsas) se ha consolidado como uno de los conceptos más populares y polémicos en la política moderna. Estas noticias no son solo información errónea o imprecisa; son manipulaciones deliberadas que tienen como objetivo distorsionar la realidad para obtener ventajas políticas. Originalmente, el fenómeno se asoció a momentos específicos como elecciones o crisis internacionales, pero con el tiempo su uso se ha expandido a todos los aspectos de la vida política. Durante las elecciones presidenciales de Estados Unidos en 2016, tanto Hillary Clinton como Donald Trump hicieron referencia a la creciente ola de "fake news" que invadió las redes sociales. Clinton, en su discurso de diciembre de 2016, habló sobre la "epidemia de noticias falsas y propaganda maliciosa" que inundaron las redes sociales, subrayando que las consecuencias de tales manipulaciones podían ser devastadoras.
Lo que ha cambiado radicalmente es la plataforma en la que se difunde esta información. Las redes sociales y las aplicaciones de mensajería instantánea se han convertido en amplificadores de noticias falsas, facilitando su propagación de una manera mucho más rápida y más amplia que los medios tradicionales. Las plataformas digitales no solo permiten que la información se difunda instantáneamente, sino que también ofrecen la posibilidad de que esta información se vuelva "viral", llegando a un número masivo de personas en cuestión de minutos. Además, estas plataformas permiten que las noticias falsas lleguen a los niveles más profundos y emocionales de la mente de las personas, manipulando sus creencias y percepciones con gran eficacia.
En cuanto a la propagación, la desinformación puede ser tanto discontinua como continua. En su forma discontinua, la información falsa aparece de manera esporádica, sin un patrón claro, mientras que en su forma continua puede crear un efecto de bola de nieve. Esta dinámica se ve reforzada por la naturaleza fragmentada de las redes sociales, donde las noticias falsas se difunden simultáneamente a través de múltiples canales, lo que dificulta a los destinatarios el tiempo y la capacidad para discernir la verdad de la mentira. La rapidez con que se distribuyen estas informaciones hace que los receptores apenas tengan tiempo para procesarlas adecuadamente, lo que aumenta la posibilidad de que acepten la información falsa sin cuestionarla.
El impacto de las noticias falsas es tal que, incluso los museos han comenzado a reconocer su importancia histórica. En el Museo Británico, por ejemplo, se han adquirido billetes falsos que surgieron en el contexto del Brexit, calificándolos como testimonios relevantes de la política contemporánea. Esta inclusión en una institución de tan alta reputación subraya la magnitud y la penetración de la desinformación en la sociedad actual. La incorporación de estos objetos a la colección permanente del museo es una forma de reconocer que la falsificación de la realidad y la difusión de información falsa son fenómenos tan omnipresentes y poderosos que merecen ser conservados como parte de la historia.
En el ámbito político, la desinformación se ha vuelto una herramienta de manipulación reconocida y utilizada por actores tanto autoritarios como democráticos. Los líderes políticos, incluso aquellos que condenan públicamente las "fake news", no dudan en emplear esta táctica para conseguir ventajas en el ámbito de la opinión pública, ya sea para desacreditar a periodistas incómodos, atacar a rivales políticos o justificar decisiones controvertidas, como las intervenciones militares basadas en información errónea o fabricada. El uso de la desinformación permite a los políticos crear realidades alternativas, deslegitimar a quienes se oponen a ellos, y consolidar su poder de manera más efectiva y menos detectable.
La política post-verdad, un concepto que ha ganado terreno en los últimos años, describe precisamente esta etapa en la que la verdad objetiva pierde relevancia frente a las narrativas emocionales y manipuladas. En un contexto de medios y redes sociales saturados de información, la capacidad de discernir la realidad se ve erosionada. La manipulación de los hechos y la creación de narrativas paralelas se han convertido en una práctica habitual, donde las emociones y las percepciones prevalecen sobre la evidencia concreta. Así, en la política post-verdad, la verdad se convierte en algo relativo y maleable, dependiendo de las necesidades y objetivos de quienes buscan el poder.
En resumen, la desinformación es ahora una herramienta clave en la política moderna, utilizada tanto por actores estatales como no estatales para manipular la opinión pública, desestabilizar democracias y alterar el curso de los acontecimientos globales. La combinación de fake news y redes sociales ha transformado el panorama político, dando lugar a una nueva era de manipulación digital. La magnitud de este fenómeno exige una reflexión crítica sobre cómo enfrentarnos a una realidad cada vez más líquida, donde las fronteras entre lo verdadero y lo falso se desdibujan con alarmante facilidad.
¿Cómo la verificación de hechos transforma el periodismo en la era digital?
Este capítulo presenta materiales etnográficos sobre las experiencias, rutinas y puntos de vista de los periodistas con respecto a la verificación de hechos y las noticias falsas, basados en estudios de campo realizados en tres organizaciones de medios suecas, a nivel local, regional y nacional. Estos estudios forman parte de un proyecto sueco destinado a desarrollar una herramienta digital que pueda asistir a los periodistas en su trabajo diario de verificación. A través de entrevistas y observación participante, se exploró la necesidad y el interés en una herramienta de este tipo. Los hallazgos obtenidos se utilizaron como preestudio para guiar el desarrollo de un proyecto de verificación más amplio.
El proyecto fue organizado como una colaboración entre investigadores y diversos sectores competidores de la industria mediática sueca. Este enfoque refleja el tipo de trabajo de fronteras abiertas que ha caracterizado el reciente auge del movimiento global de verificación de hechos (Graves, 2018). Aunque este proyecto no tenía como objetivo crear una institución de verificación de hechos específica, sino más bien proporcionar a los periodistas mejores recursos para la verificación en el paisaje de comunicación digital, puede relacionarse con los debates académicos sobre las noticias falsas, la verificación como clave de la profesionalidad periodística y, en general, sobre la autoridad del periodismo en un ecosistema mediático que podríamos denominar "post-verdad" (McNair, 2018).
En términos de los hallazgos de los estudios de campo, los periodistas expresaron tanto la necesidad como el interés en una herramienta digital de verificación, pero también manifestaron el temor de que las formas institucionalizadas de verificación pudieran atentar contra su autonomía profesional, aumentando el control sobre los empleados desde la perspectiva de los empleadores. Esto indica que el contexto en el que se realizaron los estudios de campo está influenciado por aspectos sociales y culturales que van más allá de una simple solución técnica a un problema urgente.
En este capítulo, se presenta el proyecto y se expone el material etnográfico que formó parte de la base sobre la cual se desarrolló el proyecto. Comienza describiendo el proyecto y especialmente los objetivos y características específicas del producto principal: The Fact Assistant, una aplicación web diseñada para ayudar a los periodistas a verificar la legitimidad y validez de las afirmaciones, los medios y las fuentes que aparecen en su trabajo diario en las redacciones. Se describe el trasfondo del proyecto, cómo se desarrolló durante su proceso y algunos de los problemas que ha enfrentado.
El proyecto The Fact Assistant – colaborando hacia rutinas de verificación mejoradas
El proyecto de investigación y desarrollo denominado “Faktaassistenten” (El Asistente de Hechos) se llevó a cabo entre marzo de 2018 y abril de 2020 en el Departamento de Periodismo de la Universidad Södertörn en Estocolmo. Fue realizado en colaboración con diversas organizaciones de noticias suecas que participan en una asociación de la industria mediática llamada “Framtidens Journalistik” (El Periodismo del Futuro). Esta asociación está dirigida por la televisión pública sueca, e incluye tanto operaciones de medios públicos como privados. El proyecto Fact Assistant fue financiado parcialmente por la agencia estatal de innovación Vinnova, como parte de su programa “De lo analógico a lo digital”.
El objetivo principal del proyecto era mejorar los procedimientos de verificación de contenido digital por parte de los periodistas y desarrollar una aplicación web que pudieran utilizar en sus tareas cotidianas. Una vez desarrollado y probado su prototipo, la aplicación estaría disponible para los miembros del consorcio, ayudando a los periodistas a verificar el contenido en línea tanto en el trabajo de redacción como en los procesos rutinarios necesarios en su trabajo diario. La aplicación fue diseñada de manera que pudiera integrarse en el proceso de creación de noticias. Además de proporcionar a los periodistas pasos metodológicos para verificar contenido en línea, incluidos imágenes, videos y textos, la aplicación les permite almacenar y compartir sus verificaciones de hechos y evaluar la credibilidad de los medios y las fuentes.
El proceso de verificación se sistematiza en tres etapas, enfocándose en tres objetos diferentes: (1) el contenido de los medios (imágenes, videos, declaraciones, etc.); (2) los medios en los que se publica la declaración (el sitio web, las cuentas institucionales de redes sociales, etc.); y (3) las fuentes detrás de la afirmación. En la aplicación, los periodistas siguen un proceso paso a paso relacionado con cada uno de los tres objetos. Los pasos consisten en una serie de preguntas planteadas en relación con el objeto que se está investigando. Dentro de cada paso, la aplicación cuenta con una sección titulada "Recursos" que señala varias herramientas relevantes que pueden usarse para el análisis y la evaluación (como Google Reverse Images para establecer si una imagen ha sido utilizada previamente). El proceso puede hacerse más o menos extenso dependiendo del tiempo disponible para el periodista y de la afirmación que se está verificando. Las investigaciones también pueden guardarse antes de completarse y retomarse en una etapa posterior. Al final del proceso, el usuario tiene una base para evaluar la validez de la afirmación que está verificando. La evaluación final es algo que cada periodista puede hacer por sí mismo; la aplicación solo sirve como ayuda en el camino. El resultado de cada verificación de hechos se almacena en el sistema. El usuario individual puede optar por mantener la verificación privada o compartirla con otros usuarios de la misma organización de medios o con el público en general, publicando los resultados en un artículo que inserta los datos hipermediales legibles por máquinas en el ClaimReview.
El procedimiento del proyecto comenzó con una fase preparatoria que finalizó en noviembre de 2018. Esto incluyó los estudios de campo sobre los intereses y necesidades de los periodistas, generando el material que da base a este capítulo. En diciembre de 2018, comenzaron los trabajos de desarrollo con reuniones con los gerentes editoriales de tres organizaciones de medios: SVT (televisión pública sueca), SR (radio pública sueca) y Dagens Nyheter (el periódico nacional más grande de Suecia, comercial con una postura editorial liberal). En estas reuniones, se presentó y discutió la idea de la aplicación The Fact Assistant, y los medios participantes hicieron sugerencias sobre los componentes del sistema, incluyendo la usabilidad y el grado de integración con el trabajo periodístico.
Al integrar herramientas como estas en el flujo de trabajo cotidiano, la verificación de hechos no solo se convierte en un acto necesario sino en una parte esencial del ejercicio profesional del periodismo.
¿Cómo puede la verificación de hechos transformar el periodismo en tiempos de crisis?
El periodismo enfrenta una crisis cada vez más palpable, con desafíos que abarcan desde la pérdida de autoridad profesional hasta la presión externa de adaptarse a nuevas tecnologías y plataformas. A pesar de las tensiones que caracterizan este panorama, existe un interés creciente por redefinir el rol del periodismo y sus prácticas en un contexto digital y globalizado.
El concepto de "crisis del periodismo" ha sido ampliamente debatido en los últimos años. Algunos estudios, como los de Reinardy (2011) y Ekdale et al. (2015), documentan el aumento de los niveles de agotamiento profesional entre los periodistas, quienes se sienten amenazados por la inestabilidad de sus empleos y la precarización de sus condiciones laborales. Esto ha dado pie a una discusión más amplia sobre las posibilidades de reinvención del periodismo. Por un lado, se observa un alivio en la llegada de esta crisis, como si fuera una oportunidad para reconstruir el periodismo desde sus cimientos, con un enfoque más ético y adaptado a las necesidades actuales (Cunningham, 2011; Wasserman, 2019). Por otro lado, persiste la idea de que el periodismo profesional debe resistir la crisis y mantenerse como la autoridad confiable para la provisión de noticias veraces, confiables y sostenibles (Schudson, 2018).
Sin embargo, algunos investigadores, como Zelizer (2015), advierten que el término "crisis" podría ser contraproducente, ya que desvia la atención de los procesos de adaptación y cambio que ya están ocurriendo dentro de la profesión. En su lugar, sugiere que el futuro del periodismo podría encontrarse en una mayor reflexión sobre su naturaleza contingente y su capacidad para reinventarse dentro de contextos sociales, culturales y tecnológicos en constante evolución.
Una de las formas en que el periodismo está abordando esta crisis es a través de la adopción de nuevas tecnologías y la colaboración con actores no periodistas. De hecho, como señala Graves (2018), el movimiento global de verificación de hechos ha emergido como una respuesta tanto a la proliferación de noticias falsas como a la necesidad de reafirmar la credibilidad del periodismo. Desde la creación de organizaciones dedicadas exclusivamente a la verificación de hechos, como FactCheck.org y PolitiFact, hasta la colaboración de periodistas con ciudadanos en la producción de información, el enfoque ha sido diversificado y globalizado. En este sentido, el proyecto "The Fact Assistant" es un ejemplo claro de cómo los periodistas y los no periodistas pueden trabajar juntos para frenar la desinformación.
Este fenómeno ha adquirido una relevancia aún mayor en la era de Trump, cuando las acusaciones de que los medios tradicionales son corruptos y propagadores de noticias falsas alcanzaron una gran audiencia. Graves (2018) documenta cómo el movimiento de verificación de hechos se ha expandido globalmente, desde los primeros encuentros internacionales de verificadores de hechos en 2014 y 2015, hasta la creación de instituciones como el International Fact-Checking Network (IFCN), que conecta a más de 100 organizaciones dedicadas a la lucha contra la desinformación.
En cuanto a las diferencias en la forma en que se lleva a cabo la verificación de hechos, Graves señala que existen diversas metodologías y presentaciones de los resultados, que van desde el uso de sistemas de clasificación como el "Truth-O-Meter" de PolitiFact hasta el empleo de análisis más narrativos en otros contextos. Sin embargo, a pesar de estas variaciones, hay un consenso generalizado en cuanto a la importancia de promover un discurso democrático y un gobierno responsable.
En los países nórdicos, el movimiento de verificación de hechos ha tomado forma a través de iniciativas como "Viralgranskaren" en Suecia y "Faktiskt.no" en Noruega, que operan dentro de modelos de medios democráticos-corporativos. Estas iniciativas no solo contribuyen a la verificación de hechos, sino que también fortalecen la posición de los medios de comunicación tradicionales al integrar la verificación como una herramienta clave para consolidar su legitimidad. Sin embargo, algunos críticos, como Allern (2019), señalan que, a pesar de su importancia, el impacto de la verificación de hechos en el discurso político y la toma de decisiones puede ser limitado. Muchos informes se centran en detalles menores que no afectan directamente al debate público, lo que puede hacer que la verificación de hechos parezca una mera tarea administrativa en lugar de una herramienta efectiva de cambio.
Es crucial comprender que, a pesar de los avances en la verificación de hechos, el periodismo no se limita a la simple corrección de información. La crisis del periodismo debe ser vista como una oportunidad para que los medios reconsideren su papel dentro de un ecosistema informativo en constante transformación. La capacidad de los periodistas para colaborar con otros actores sociales y adoptar nuevas formas de producción y distribución de la información será clave para definir su relevancia en el futuro. La verificación de hechos, por lo tanto, no es solo un instrumento para corregir falsedades, sino un medio para fortalecer el mismo ejercicio periodístico, reafirmando su importancia como guardian de la verdad en una era caracterizada por la sobreabundancia de información.
¿Cómo la demolición afecta a los vecindarios urbanos? Un análisis del impacto de la pérdida extrema de viviendas en el Cinturón Oxidado
¿Cómo influye el entorno y las relaciones en la transformación personal durante un matrimonio inconveniente?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский