La interseccionalidad, como enfoque teórico, permite entender la complejidad de las desigualdades sociales al considerar las múltiples dimensiones de la identidad humana, que se intersecan y crean diferentes formas de opresión y privilegio. Este enfoque, aunque inicialmente propuesto como una herramienta analítica para explorar las experiencias de desigualdad, se ha convertido en una metodología de gran relevancia, no solo en los estudios sociales, sino también en áreas emergentes como la ética de la inteligencia artificial (IA).
La interseccionalidad reconoce que las identidades sociales no son entidades estáticas ni simples. Las categorías de género, raza, clase, orientación sexual y otras dimensiones se entrelazan de maneras que hacen que las experiencias de desigualdad sean únicas para cada individuo. Esta perspectiva permite a los investigadores abordar las intersecciones de estas identidades de forma comparativa, reconociendo cómo las estructuras de poder se manifiestan en múltiples niveles. Aunque la teoría ofrece una base sólida para comprender las disparidades sociales, también plantea desafíos metodológicos, ya que las experiencias humanas son fluidas y en constante cambio, lo que dificulta la aplicación práctica de los enfoques interseccionales.
La complejidad de la interseccionalidad, al ser aplicada a estudios de IA, abre nuevas puertas para examinar los sesgos inherentes en los algoritmos y su impacto en grupos marginalizados. Aunque la interseccionalidad como marco de análisis se considera una herramienta valiosa, sigue estando en desarrollo, especialmente cuando se trata de su implementación práctica. En este contexto, el concepto de "complejidad intracategórica" se ha introducido para subrayar la importancia de considerar a los grupos menos representados, cuyas experiencias se han quedado frecuentemente fuera del foco de atención en investigaciones anteriores. Este enfoque se aleja de la categorización estricta de las identidades, pero reconoce la necesidad de examinar las intersecciones entre ellas.
En el ámbito de la inteligencia artificial, la interacción entre los seres humanos y las máquinas plantea dilemas éticos fundamentales. A pesar de que la IA es capaz de mostrar comportamientos inteligentes y aprender del entorno, los algoritmos empleados para procesar grandes volúmenes de datos pueden reflejar los sesgos históricos y sociales presentes en los datos de entrenamiento. Por ejemplo, un sesgo de género surgió en 2015 cuando el motor de búsqueda de Google mostró predominantemente imágenes de hombres al buscar la palabra "CEO", lo que refleja una desigualdad de género persistente en la sociedad. Este tipo de sesgo no es aislado, y su presencia puede tener efectos perjudiciales, especialmente cuando la IA es utilizada para tomar decisiones que afectan a la vida de las personas, como en la conducción autónoma o en la vigilancia predictiva.
Los riesgos éticos asociados con la IA no se limitan a los sesgos evidentes en los algoritmos. La creciente automatización y el uso extendido de sistemas de IA en diferentes áreas de la vida cotidiana traen consigo preocupaciones sobre la privacidad, la equidad y la transparencia. El conflicto entre la necesidad de acceder a grandes cantidades de datos para mejorar la precisión de los algoritmos y la protección de la privacidad individual se ha intensificado. A medida que las IA se integran más en la toma de decisiones, la posibilidad de que se reproduzcan o amplifiquen las desigualdades sociales se vuelve más pronunciada. La tendencia de los algoritmos a consolidar estereotipos y prejuicios puede llevar a la perpetuación de injusticias, afectando a los grupos ya vulnerables.
Además, los estudios más recientes sobre ética en IA resaltan cómo los sesgos algorítmicos, que provienen de datos históricos y de entrenamiento defectuosos, pueden ser amplificados en sistemas automatizados. Por ejemplo, el uso de datos sesgados para entrenar modelos predictivos puede generar resultados injustos que afecten negativamente a las minorías o grupos marginados. Las implicaciones de estos sesgos en IA son profundas, ya que las decisiones automatizadas sobre quién recibe un préstamo, una oferta de empleo o una sentencia judicial pueden tener un impacto directo en las oportunidades y derechos de las personas.
Es esencial que se continúen desarrollando marcos éticos que no solo aborden las cuestiones de sesgo en la IA, sino que también reconozcan la importancia de las identidades sociales intersectadas. La incorporación de enfoques interseccionales en la ética de la inteligencia artificial podría ayudar a garantizar que los sistemas automatizados no perpetúen ni amplifiquen las desigualdades existentes, sino que promuevan una mayor equidad en la distribución de recursos y oportunidades.
Al explorar la relación entre interseccionalidad y la ética de la inteligencia artificial, se debe tener en cuenta que este campo es aún incipiente y que los desafíos metodológicos y prácticos continúan siendo un obstáculo. Es fundamental que los desarrolladores, legisladores y académicos trabajen juntos para encontrar soluciones que no solo aborden los problemas de sesgo, sino que también garanticen que las tecnologías emergentes sean inclusivas y respetuosas de las diversas identidades y experiencias humanas.
¿Cómo afecta la manipulación de la información a la democracia en la era de las noticias falsas y la posverdad?
La era contemporánea está marcada por una creciente desinformación y un flujo incesante de noticias falsas, que han penetrado profundamente tanto en la política como en la vida cotidiana de las personas. Esta situación genera una desorientación generalizada, que parece ser una característica esencial de los tiempos actuales. A pesar de que existe un reconocimiento más o menos consciente de que vivimos en una época política de posverdad, donde todo puede ser verdadero y falso al mismo tiempo, el debate académico sobre los mecanismos y efectos de esta política sigue en su fase incipiente. Esto se debe, en gran medida, a que un análisis integral de este fenómeno requiere una expertise sólida en diversas áreas, como los estudios de medios, la seguridad, la historia de la opinión pública, la semiótica, el análisis ético, entre otras.
En este contexto, el libro de referencia explora las implicaciones de la manipulación de la información, tomando una perspectiva multidisciplinaria que aborda los desafíos que esta práctica presenta para la democracia. La idea surgió durante la conferencia internacional "Information at a Time of Fake News, Disinformation and Post-Truth Politics", organizada por el grupo de investigación Res/East de la Sant'Anna School of Advanced Studies de Pisa, en mayo de 2019. Durante esta conferencia, se discutieron diversos aspectos del impacto de la desinformación en las democracias contemporáneas, con una atención particular a la transición política en el espacio post-soviético, donde la manipulación de la información tiene una relevancia aún más pronunciada.
En este libro, se profundiza en algunos de los aspectos más relevantes relacionados con la manipulación de la información que emergieron durante la conferencia. Se abordan cuestiones que no solo fueron inicialmente exploradas en dicho evento, sino que también surgieron como áreas de interés durante el desarrollo del proyecto. Este enfoque multidisciplinario busca cubrir los vacíos existentes en la investigación sobre el impacto de la manipulación informativa en los sistemas democráticos.
El concepto de "manipulación de la información" no es nuevo, pero su alcance y velocidad han crecido exponencialmente en los últimos años debido a los avances tecnológicos. El uso masivo de smartphones y plataformas de redes sociales ha permitido que la información se difunda de manera instantánea a un público global. Esto ha facilitado la circulación de todo tipo de contenidos, desde teorías conspirativas hasta discursos de odio, pasando por noticias falsas y deepfakes, fenómenos relativamente nuevos cuyo impacto en la democracia aún no está completamente claro.
Un aspecto clave de la manipulación de la información es el concepto de "desinformación", que tiene su origen en el término ruso dezinformatsiya, utilizado para describir las campañas de propaganda llevadas a cabo por el KGB para manipular la opinión pública. La desinformación, a diferencia de la "información errónea" (misinformation), se refiere a la creación deliberada de falsedades con el objetivo de engañar y moldear la opinión pública. Mientras que la información errónea es simplemente un dato incorrecto o mal interpretado, la desinformación tiene un propósito claro de manipular y orientar la opinión de la audiencia.
La desinformación no es solo una herramienta de los regímenes autoritarios; en los últimos años, ha emergido como una herramienta clave en las democracias también. A través de las redes sociales, los actores políticos y económicos han podido utilizarla para polarizar a las sociedades, manipular elecciones y controlar narrativas, todo ello sin que la verdad objetiva sea un criterio decisivo. Esto plantea serios riesgos para la salud de las democracias modernas, ya que la manipulación de la información no solo afecta a la toma de decisiones políticas, sino que también altera la manera en que los ciudadanos participan en el proceso democrático.
En este contexto, Walter Lippmann, en su ensayo Public Opinion (1922), realizó una investigación exhaustiva sobre la relación entre la información y la toma de decisiones democráticas. Lippmann sostuvo que los intereses de unos pocos actores económicos o políticos podían ser promovidos a través de la manipulación de la información, distorsionando la percepción pública y perjudicando el interés general. Su visión sigue siendo extremadamente relevante hoy en día, especialmente en un momento en que la calidad de la información ha disminuido considerablemente debido a la velocidad con que se difunde y a la cantidad de actores que producen y manipulan esta información.
El fenómeno de la manipulación de la información tiene implicaciones trascendentales para el sistema democrático. En la actualidad, los gobiernos, empresas y grupos de interés tienen acceso a herramientas poderosas que les permiten influir en la opinión pública y en las decisiones políticas. Las plataformas de redes sociales se han convertido en un caldo de cultivo para la difusión masiva de desinformación, lo que a menudo resulta en la creación de burbujas informativas en las que los ciudadanos solo consumen información que refuerza sus creencias preexistentes. Este tipo de entorno polarizado puede socavar la deliberación democrática, ya que las personas se aíslan en sus opiniones, sin confrontar ideas contrarias o reflexionar sobre la veracidad de la información que consumen.
Además de la manipulación de la información en los medios tradicionales y digitales, el fenómeno de las "noticias falsas" y el uso de "deepfakes" se ha convertido en una preocupación creciente. Los deepfakes, vídeos manipulados mediante inteligencia artificial para crear representaciones visuales falsas, presentan un desafío aún mayor, ya que son casi imposibles de distinguir de la realidad. Esto plantea serias dificultades para la democracia, ya que estas herramientas pueden ser utilizadas para difundir mentiras de manera que incluso los medios más fiables no puedan detectar.
Es importante que los ciudadanos comprendan la naturaleza de estos fenómenos y desarrollen habilidades críticas para analizar la información que consumen. La alfabetización mediática, la capacidad para identificar fuentes fiables y la conciencia sobre las técnicas de manipulación de la información son esenciales para fortalecer la democracia en un mundo saturado de contenido digital. Además, los sistemas democráticos deben adaptarse para hacer frente a los retos que plantea la desinformación, mediante la creación de políticas públicas que promuevan la transparencia, la veracidad de la información y la educación crítica de los ciudadanos.
¿Cómo afectan las noticias falsas a la política y la democracia?
Uno de los principales desafíos asociados con la propagación de noticias falsas es el de la "justicia social". Mientras que casi cualquier persona con acceso a tecnologías y redes sociales puede crear noticias falsas, la actividad de reconocerlas e interpretarlas requiere conocimientos, especialización y la capacidad de usar herramientas tecnológicas. Este desequilibrio entre la facilidad de acceso y la capacidad para detectar la falsedad produce una situación de desigualdad. El riesgo es que una parte más vulnerable y menos preparada de la población pueda caer fácilmente en manos de creadores profesionales de noticias falsas, lo que representa una amenaza seria para cualquier democracia.
La llegada de las nuevas tecnologías y las redes sociales ha transformado a los medios de comunicación tradicionales, alterando los incentivos para los proveedores de contenido y promoviendo el surgimiento de grandes audiencias no profesionales que, sin embargo, tienen el poder de generar un impacto significativo con bajos costos. La modificación de los ritmos y el lenguaje de los expertos en información ha acelerado la producción de contenidos que apelan a la esfera emocional de los individuos. Las personas tienden a aferrarse a las falsedades desmentidas cuando estas coinciden con sus propios puntos de vista. Incluso después de que se desmientan las mentiras, sus efectos persisten a nivel subconsciente, influenciando las opiniones a largo plazo.
Además, es importante ser cautos con el uso de las noticias falsas como chivo expiatorio para eventos que en realidad están determinados por una multiplicidad de factores. Por ejemplo, se ha debatido si la manipulación de noticias falsas, como la interferencia de Rusia en las elecciones presidenciales estadounidenses de 2016 o en el referéndum del Brexit, puede ser atribuida a una influencia decisiva. Aunque tales acciones puedan ser demostradas, se debe reconocer que estos eventos son multifactoriales y no pueden ser explicados únicamente por la propagación de noticias falsas.
Para evaluar el impacto de la manipulación de la información, es necesario adoptar una perspectiva que reconozca la complejidad de la política. Establecer una correlación directa entre el auge de las noticias falsas y los cambios en el comportamiento político de los receptores es complicado. Aunque el impacto de las noticias falsas en las elecciones sigue siendo un tema muy debatido, parece claro que el comportamiento electoral depende principalmente de factores socioeconómicos y de la posición de las personas dentro de los sistemas sociales.
Un estudio realizado por investigadores de Princeton, Dartmouth y la Universidad de Exeter en torno al consumo de noticias falsas durante las elecciones estadounidenses de 2016 concluyó que aproximadamente el 25% de los estadounidenses visitaron sitios web de noticias falsas en un periodo de seis semanas. Sin embargo, los investigadores también encontraron que las visitas estaban altamente concentradas: el 10% de los lectores realizó el 60% de las visitas. Crucialmente, los investigadores concluyeron que "las noticias falsas no sustituyen el consumo de noticias verídicas".
En el debate sobre cómo reaccionar ante la omnipresencia de las noticias falsas, las soluciones propuestas son muy variadas. Estas van desde la legislación de los medios de comunicación hasta la moderación de contenido mediante algoritmos, pasando por enfoques "más suaves" como la verificación de hechos, la desmentida de falsedades y la inversión en la educación en alfabetización mediática. La verificación automatizada de rumores mediante algoritmos de aprendizaje automático y la implementación de herramientas de verificación de hechos son algunas de las estrategias disponibles para desenmascarar las noticias falsas.
Investigaciones recientes han evidenciado que las noticias falsas se difunden más rápidamente y más profundamente que la información verdadera. Las estrategias de desmentido posteriores pueden no ser suficientes para detener el flujo de noticias falsas, y algunos investigadores están explorando maneras preventivas de mitigar el problema, como el "pre-bunking", que busca evitar que las narrativas falsas se afirmen en la memoria desde el principio.
No obstante, cualquier intento de combatir las noticias falsas se encuentra en una zona limítrofe entre el control y la censura. Este control puede ser utilizado por gobiernos autoritarios para silenciar la disidencia, lo que genera un problema político de gran envergadura. Las empresas de redes sociales transnacionales, como Facebook, YouTube, Instagram y Twitter, han empezado a reaccionar, desarrollando herramientas para identificar y eliminar contenidos falsos. Facebook, por ejemplo, ha implementado etiquetas de advertencia para páginas no confiables, mientras que Twitter ha probado una función experimental para permitir que los usuarios informen sobre noticias falsas.
Sin embargo, las decisiones sobre qué contenido es problemático aún no son completamente precisas, lo que deja abierta la posibilidad de errores en la moderación de contenido. Las organizaciones dedicadas a la verificación de hechos, como Snopes o las fuerzas de tarea como el East StratCom Task Force de la UE, también están aumentando su presencia, aunque la alfabetización mediática sigue siendo una herramienta fundamental para capacitar a los jóvenes en la identificación de noticias falsas.
Al final, es importante reconocer que el fenómeno de las noticias falsas no puede ser comprendido de manera simplista. Las noticias falsas son solo una de las muchas fuerzas que influyen en el comportamiento político de las personas. La manipulación de la información está inserta en un contexto mucho más amplio, en el que se deben considerar los factores sociales, económicos y políticos que también contribuyen a la formación de las opiniones públicas. Por lo tanto, combatir las noticias falsas no es simplemente una cuestión de desmentir, sino de construir una comprensión más profunda de cómo interactúan los medios, las tecnologías y las sociedades para dar forma a la política y la democracia.
¿Por qué los periodistas desconfían de las herramientas digitales de verificación de hechos?
La ambigüedad que rodea las formas organizadas de verificación de hechos ha emergido como un tema recurrente en las conversaciones con periodistas. Esta incertidumbre no se limita a la falta de tiempo o al agotamiento técnico —ambas razones comprensibles por las cuales muchos se resisten a involucrarse en el desarrollo de herramientas como The Fact Assistant— sino que también se ancla en dimensiones más profundas del entorno laboral del periodismo contemporáneo.
Para algunos, la sola insinuación de que deben fortalecer sus competencias de verificación fue recibida como un cuestionamiento directo a su integridad profesional. En este contexto, las iniciativas de fact-checking institucionalizado no son percibidas como apoyo, sino como una amenaza implícita a la autoridad periodística tradicional. La recopilación de datos sobre las actividades de verificación, por ejemplo, fue vista por varios como una potencial herramienta de vigilancia gerencial más que como un recurso para mejorar la calidad del contenido.
Además, el hecho de que este tipo de herramientas digitales puedan estar financiadas por fondos públicos, incrementa el temor a que su uso se convierta en una fuente de exposición a ataques externos —desde actores políticos hasta usuarios hostiles—, lo que ya ha sucedido en proyectos previos. La reacción de algunos periodistas no es, entonces, simple resistencia al cambio tecnológico, sino una respuesta crítica a los posibles usos y apropiaciones sociales, profesionales y políticas del instrumento.
En un ecosistema informativo caracterizado por la saturación de datos, la inmediatez de los flujos comunicacionales y la creciente presión institucional, sostener la autonomía y la autoridad del periodista se ha convertido en una tarea extraordinariamente compleja. La integración de soluciones tecnológicas para la verificación de contenido digital, si bien responde a ideales legítimos —entregar información precisa y contribuir a una ciudadanía informada—, se enfrenta a la tensión permanente entre eficacia organizacional y libertad editorial.
La aceptación del prototipo de The Fact Assistant no solo estuvo condicionada por consideraciones técnicas, sino por una reflexión crítica sobre el rol que cada periodista desempeña frente a su audiencia. Cualquier herramienta que pudiera implicar una merma en su capacidad de decidir libremente sobre qué, cómo y por qué verificar determinada información, era inmediatamente cuestionada. Porque al comprometer su autonomía, arriesgan también su legitimidad como fiscalizadores del poder.
Lo que está en juego, entonces, no es únicamente la eficiencia de una solución digital, sino la esencia misma del ejercicio periodístico en la era post-verdad. La verificación de hechos ya no puede concebirse como un simple procedimiento técnico: es una práctica atravesada por tensiones éticas, políticas y simbólicas. Una herramienta digital, por sofisticada que sea, no reemplaza el juicio profesional, ni puede suplir el capital simbólico que otorga la credibilidad construida en el tiempo.
Para los lectores, es crucial comprender que la resistencia a estas herramientas no siempre implica rechazo a la verdad o al rigor. Más bien, revela la sensibilidad de una profesión que está siendo reformulada por dinámicas externas —tecnológicas, económicas, políticas— que a menudo ignoran la lógica interna del periodismo. La cuestión de cómo organizar colectivamente la verificación de hechos sigue abierta, precisamente porque cualquier respuesta que no contemple la autonomía del periodista corre el riesgo de erosionar el mismo principio que busca proteger: la verdad como bien público.
¿Cómo hacer galletas energéticas con ingredientes naturales?
¿Por qué la hierba rue ha sido considerada un símbolo mágico y curativo a lo largo de la historia?
¿Cómo funcionan los parámetros de configuración y activación en la codificación HEVC?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский