Una spia inganna il nemico diffondendo intenzionalmente informazioni false (disinformazione). Una guardia ignara scambia uno sconosciuto per un leader (misinformazione). Intuitivamente, non riteniamo che in queste due situazioni venga trasmessa vera informazione. Ma perché l’informazione deve essere vera? Secondo una formulazione della teoria della comunicazione di Shannon, l’informazione è la riduzione dell’incertezza su un argomento eliminando possibilità alternative. Le informazioni false non possono eliminare alternative né ridurre l’incertezza in modo genuino.
Immaginiamo che B ami A, ma non sappia se A ricambi questo sentimento. B è incerto circa i sentimenti di A. Se A invia un messaggio che conferma il suo amore, l’incertezza di B si riduce. Tuttavia, se A non prova realmente amore e manda quel messaggio solo per giocare con i sentimenti di B, quest’ultimo può illudersi di avere meno incertezza, ma in realtà non è così: questa è disinformazione. La disinformazione è per sua natura fuorviante; per questo motivo la veridicità è una proprietà intrinseca dell’informazione. Misinformazione e disinformazione, pertanto, non sono vere informazioni, proprio come le anatre finte non sono vere anatre.
Questa visione della veridicità sembra però in contrasto con l’idea che il riferimento (Ref) sia intrinsecamente neutro rispetto alla verità. Infatti, la veridicità è una proprietà dell’informazione, non del riferimento stesso. Il riferimento caratterizza semplicemente l’associazione tra un segnale e il suo referente, ma non determina la natura di questa associazione. Ad esempio, il suono di un campanello può riferirsi a qualsiasi evento nella catena causale, e solo perché è stato designato dal progettista per segnalare l’arrivo di un visitatore, quel suono acquista un significato specifico. Pertanto, la questione della determinazione del referente di un segnale riguarda un aspetto normativo dell’informazione.
Molti studiosi hanno cercato di misurare la quantità di riferimento di un segnale, ma ci sono opinioni contrastanti. Secondo Dretske, solo quando la possibilità condizionata che un segnale rappresenti una certa proprietà è pari a uno, si può dire che quel segnale porta informazione su quella proprietà. Se i messaggi inviati e ricevuti differiscono anche minimamente, allora sono qualitativamente messaggi diversi. Ma questo approccio non regge in tutte le situazioni: ad esempio, il messaggio "Luciano Floridi è un filosofo italiano dell’informazione" ha intuitivamente più riferimento del messaggio più generico "Luciano Floridi è un filosofo". Bar-Hillel e Carnap interpretano questa differenza in termini di probabilità d’occorrenza, mentre Floridi valuta la quantità di verità trasmessa, e Skyrms analizza la struttura vettoriale delle informazioni. La posizione qui sostenuta è pluralista: finché una teoria della misura del riferimento serve al suo scopo, è accettabile. Inoltre, anche se due messaggi sono qualitativamente diversi, ciò non significa che non possano essere misurati quantitativamente secondo standard accettabili.
L’informazione ha però anche una dimensione normativa, legata alla sua utilità. Prendiamo il caso di A che ama B, ma ha bisogno che B sappia prima che lei si fidanza con un altro. Anche se il messaggio "Ti amo" non cambia di significato, la sua tempestività e il contesto sono cruciali perché abbia effetto. L’informazione è dunque sensibile al tempo e al contesto: ha valore solo se arriva in tempo utile e nel contesto giusto. La sequenza simbolica "Ti amo" è efficace perché A e B condividono un significato comune; il messaggio deve essere consegnato correttamente e tempestivamente. Questa dimensione dell’informazione è chiamata informazione normativa.
L’informazione normativa è stabilmente utile per gli utenti, dipende dal riferimento ma non è determinata esclusivamente da esso, e determina quale segnale è associato a quale referente. È sensibile al contesto e riguarda l’effetto che l’informazione produce sull’utente: una vera "differenza che fa la differenza". Un messaggio ha valore solo se modifica lo stato epistemico o comportamentale del ricevente. Ad esempio, "La balena è un mammifero" sarebbe informazione nuova per gli abitanti della Cina di 2000 anni fa, ma oggi è ridondante e quindi priva di novità.
L’informazione non è solo un dato da trasmettere, ma una relazione dinamica che implica verità, contesto, tempo e valore per chi la riceve. Comprendere questo è fondamentale per riconoscere la differenza tra mera comunicazione e vera informazione, e per analizzare i fenomeni della misinformazione e disinformazione nel mondo contemporaneo.
La relazione tra entropia termodinamica e entropia informativa: come la fisica sostiene la rappresentazione
L'entropia termodinamica misura il grado di disordine di un sistema. Secondo la seconda legge della termodinamica, un sistema tende spontaneamente verso l'equilibrio, e in termini di entropia, tende a diventare sempre più disordinato. Gli elementi che compongono il sistema diventano progressivamente meno correlati tra loro fino a raggiungere una distribuzione uniforme, ovvero la massima entropia. In altre parole, la probabilità di trovarsi in uno stato specifico del sistema diventa infinitesimamente bassa. L'elemento più importante di questo processo è che la libertà del sistema aumenta, portandolo verso uno stato di completa disgregazione.
Tuttavia, quando questa tendenza verso l'equilibrio viene impedita o invertita, quando cioè gli elementi tendono a correlarsi localmente, si può dedurre che un'influenza esterna stia disturbando il sistema. In altre parole, la probabilità di trovarsi in uno stato altamente probabile cambia drasticamente, suggerendo l'influenza di un fattore esterno. Questo legame tra entropia termodinamica e informazione è cruciale per comprendere come l'entropia informativa interagisce con la fisica.
Le interazioni tra un sistema e il mondo esterno possono essere considerate come una forma di comunicazione. Gli stati possibili di un sistema possono fungere da segnali, veicolando informazioni su eventi esterni che lo influenzano. In tal modo, il cambiamento nella distribuzione probabilistica di questi stati può essere interpretato come l’acquisizione di nuova informazione. L’entropia informativa, tuttavia, non segue la stessa tendenza naturale a crescere come l’entropia termodinamica, ma diventa più complessa quando si considera il supporto fisico che veicola l’informazione. Poiché gli stati informativi sono realizzati e mappati sugli stati fisici di un sistema termodinamico, la tendenza naturale all’aumento dell’entropia può corrompere il canale di trasmissione e i segnali stessi, riducendo così la capacità informativa del sistema e rendendo meno affidabile la comunicazione.
Questa interdipendenza tra entropia termodinamica e entropia informativa si esplica in modo evidente quando si analizzano i sistemi fisici. Un sistema termodinamico, se non disturbato da fattori esterni, tende a raggiungere il massimo disordine, ma se l’entropia cessa di aumentare o addirittura diminuisce, ciò indica la presenza di un’influenza esterna che cambia il comportamento del sistema. Questo principio si applica perfettamente all’analisi dell’informazione: quando un sistema si trova in uno stato improbabile, lontano dall’equilibrio, ciò segnala un disturbo che altera le condizioni del sistema stesso. Un esempio di questo è un sistema come un rilevatore di metalli: quando il sistema è attivo e non vi sono perturbazioni esterne, il campo elettromagnetico generato dal rilevatore mantiene uno stato di bassa entropia. Ma, quando un oggetto conduttivo entra in contatto con il rilevatore, il campo si distorce, e il sistema subisce un aumento dell’entropia, segnalando che un’influenza esterna sta operando sul sistema.
Nel contesto di tale interazione fisica, le informazioni non sono determinate dalle proprietà intrinseche del segnale stesso, ma dalle caratteristiche fisiche del mezzo attraverso il quale il segnale viene trasmesso. I segnali fisici non sono solo indicatori di uno stato specifico del sistema, ma anche portatori di informazioni riguardanti eventi esterni che modificano e influenzano quel sistema. Un segnale che cambia nel tempo riflette l’impatto di una perturbazione esterna e funge da indicatore di eventi che vanno oltre il sistema stesso.
Questa dinamica fisica che interagisce con l’entropia termodinamica e informativa può anche essere applicata a una rappresentazione naturale. Secondo la filosofia naturalista, le correlazioni tra eventi nel mondo naturale forniscono una base per la rappresentazione. Quando un evento del mondo esterno è ripetutamente correlato con un altro, la sua informazione si trasmette attraverso questa correlazione, che può essere vista come una forma di rappresentazione. La fisicità di queste correlazioni è determinata dal fatto che i segnali, in quanto media fisici, dipendono dalle proprietà fisiche del sistema stesso. Di conseguenza, la trasmissione dell'informazione è un processo fisico che non può prescindere dalle leggi della termodinamica.
La connessione tra entropia termodinamica e informazione può quindi essere compresa come una forma di interazione fisica, dove il disturbo esterno porta a un aumento dell'incertezza e quindi a una crescita dell'entropia informativa. Quando un sistema si trova in uno stato altamente vincolato e lontano dall’equilibrio, un cambiamento nella sua entropia segna l’influenza di un fattore esterno. Analogamente, un cambiamento nel canale informativo (come la distorsione di un campo elettromagnetico) può essere visto come una trasmissione di informazioni riguardo agli eventi esterni che alterano il sistema stesso.
Infine, è importante notare che l'entropia informativa non è solo una conseguenza dell'interazione tra il sistema e l'ambiente, ma anche del contesto fisico specifico in cui il sistema opera. La comprensione di come le dinamiche fisiche influenzano la trasmissione dell'informazione può fornire una base solida per analizzare e comprendere fenomeni complessi che vanno al di là della semplice termodinamica. Il concetto di entropia, sia in termini fisici che informativi, può aiutarci a decifrare il modo in cui la realtà esterna interagisce con i sistemi fisici, trasformandoli da stati di disordine in stati ordinati, creando così una struttura che permette la rappresentazione di eventi esterni.
Come il Naturalismo e la Teoria dell'Informazione Affrontano il Problema del "Rappresentare" e del "Riferirsi"
Nel corso degli ultimi quarant'anni, il naturalismo ha dominato il panorama filosofico contemporaneo. La maggior parte dei filosofi si identifica con il naturalismo, sebbene il termine stesso sia alquanto ambiguo. Tuttavia, l'approccio naturalistico riguardo al concetto di "rappresentazione" segue un'agenda chiara. Come sostiene Neander (2017), il progetto di semantica naturalizzata è un tentativo di spiegare i fatti semantici e le proprietà del mondo, nei loro aspetti più fondamentali, in termini di fatti e proprietà non semantiche del mondo stesso, con una specifica condizione che è notoriamente difficile da definire. In sintesi, questa condizione implica che i fatti e le proprietà non semantiche siano quelli che la scienza naturale approva. Il progetto naturalista sostiene che la "rappresentazione" ha le sue radici nella natura, ossia che il significato ha un'origine naturale.
Paul Grice (1957) distingue tra significato naturale e significato non naturale. Il significato naturale, come suggerisce il termine, esiste in natura. Esempi tipici includono il fumo che indica il fuoco, le nuvole scure che segnalano pioggia imminente e il numero di anelli in un tronco che rivela l'età di un albero. Alcuni filosofi ritengono che il significato naturale serva da fondamento per il significato non naturale. Poiché l'informazione sembra essere una "specie naturale" – ben definita e ben strutturata – molti sostengono che essa sia una candidata forte per il significato naturale. Propongono che l'informazione sia alla base del significato e dell'intenzionalità, offrendo una spiegazione naturalistica. Poiché l'informazione esiste intrinsecamente nella natura, la sfida dell'intenzionalità diventa quella di spiegare come gli organismi viventi utilizzano le relazioni informative per rappresentare cose rilevanti per i loro bisogni.
Questo approccio sembra promettente e ha portato a ricerche produttive negli ultimi decenni. Tuttavia, quando esaminiamo come questi filosofi definiscono l'informazione, troviamo significative variazioni nelle loro spiegazioni. Questo non è un problema nuovo negli studi sull'informazione. Sebbene il concetto di informazione svolga un ruolo unificante in discipline come la fisica, la biologia, le scienze cognitive e le scienze sociali, la sua interpretazione varia considerevolmente tra i diversi campi. È vero che abbiamo buone teorie formali dell'informazione, che hanno contribuito in modo significativo allo sviluppo delle tecnologie della comunicazione, del calcolo e delle informazioni, diventando una risorsa necessaria nella vita quotidiana. Tuttavia, questi successi hanno un costo: la perdita del significato stesso dell'informazione. La concezione ingegneristica dell'informazione si concentra esclusivamente sull'analisi quantitativa, trascurando il contenuto e l'uso pragmatico dell'informazione, aspetti che sono essenziali per la nostra comprensione di essa.
Intuitivamente, l'informazione è qualcosa che viene trasmessa da segnali riguardo a qualcos'altro, per qualche scopo. Tuttavia, le teorie formali si occupano principalmente della quantità dei segnali, un aspetto ristretto della natura fisica dell'informazione. Questa limitazione le rende insufficienti per spiegare come i segnali fisici trasmettono contenuti astratti, come i segnali vengano a portare significati specifici e come i contenuti astratti possano avere conseguenze fisiche. Di conseguenza, le teorie attuali dell'informazione sono inadeguate per fondare una teoria del significato o dell'intenzionalità.
Tuttavia, ciò non significa che il progetto di fondare il significato nell'informazione sia destinato a fallire. Al contrario, si può affermare che questo approccio rimanga promettente, a condizione che si sviluppi una teoria dell'informazione più completa. Una tale teoria deve tenere conto degli aspetti strutturali, referenziali e normativi dell'informazione, ponendo così le basi per una spiegazione naturalistica convincente del riferimento e del significato. Questo è l'obiettivo di questo libro.
Per costruire una teoria comprensiva dell'informazione, questo libro intraprenderà i seguenti passi: (1) Analisi concettuale, dimostrando che l'informazione consiste di tre aspetti interconnessi: strutturale, referenziale e normativo. Le teorie esistenti si sono per lo più concentrate sull'aspetto strutturale. (2) Revisione critica delle teorie naturalistiche del significato, argomentando che le difficoltà delle attuali teorie naturalistiche derivano da una comprensione inadeguata dell'informazione. (3) Costruzione della teoria, basandosi sulla semiotica peirceana, il libro propone che l'informazione debba essere intesa come un fenomeno triadico: trasmesso da segnali riguardo a qualcosa, per uno scopo. L'informazione è intrinsecamente relazionale e negativa. Questa prospettiva negativa chiarisce le relazioni tra informazione, termodinamica, interpretazione ed evoluzione. Attraverso l'interpretazione, le relazioni informative formano strutture referenziali a strati: l'iconico dipende dall'indicativo, che a sua volta dipende dal simbolico. (4) Applicazione. (a) Riformulazione del problema della fondazione dei simboli come problemi di "sfondamento" e "riesfondamento" dei simboli all'interno di questo quadro, spostando l'attenzione su come le relazioni simboliche possano essere sganciate senza perdere il loro potere referenziale. (b) Fornire una base plausibile per un approccio naturalistico all'intenzionalità, al riferimento e al significato. La teoria offre soluzioni ai problemi di disinformazione e determinazione dei contenuti.
Sebbene la teoria matematica della comunicazione di Shannon non si occupi degli aspetti semantici dell'informazione, la sua influenza sulla scienza dell'informazione e sulla teoria della comunicazione rimane fondamentale. Shannon stesso ha affermato che "frequentemente i messaggi hanno un significato; cioè, si riferiscono a o sono correlati, secondo un sistema, con certi enti fisici o concettuali. Questi aspetti semantici della comunicazione sono irrilevanti per il problema ingegneristico" (Shannon 1948/1964, 31). Tuttavia, l'incapacità della teoria di Shannon di affrontare la "questione del riferirsi" ha portato molti ricercatori a cercare di andare oltre, sviluppando teorie che potessero descrivere ciò che costituisce l'informazione stessa – il riferimento e il significato.
In definitiva, è fondamentale comprendere che l'informazione non è solo una questione quantitativa. Si tratta di una relazione profonda che lega segnali fisici a significati astratti, creando un quadro complesso che ci aiuta a capire non solo cosa è l'informazione, ma anche come essa funzioni nella natura e nelle nostre menti. Un adeguato modello di informazione deve affrontare queste sfide, integrando gli aspetti formali e significativi, e sviluppando una teoria che risponda non solo alla trasmissione di dati, ma alla loro capacità di rappresentare la realtà.
Come misurare il contenuto informativo? Una visione critica delle teorie semantiche
Le teorie sull'informazione, soprattutto quelle legate al concetto di contenuto informativo, si sono sviluppate in vari modi nel corso del tempo. Una delle più note e fondamentali è quella di Shannon, che ha definito l'informazione come la misura dell'incertezza ridotta mediante un segnale. Tuttavia, sebbene la formula di Shannon riguardi sequenze di segnali e non si occupi direttamente del significato, alcuni studiosi, come Carnap e Bar-Hillel, hanno tentato di stabilire una relazione tra la quantità di informazioni e il contenuto semantico, con approcci che, pur non risolvendo tutte le questioni, pongono le basi per riflessioni più profonde.
Carnap e Bar-Hillel hanno sviluppato una teoria che misura il contenuto informativo non tramite la frequenza dei segnali, ma attraverso la probabilità induttiva delle proposizioni all’interno di un insieme di descrizioni possibili degli stati dell'universo. La quantità di contenuto informativo che una proposizione trasmette si misura dal numero di proposizioni che essa esclude. Più proposizioni vengono escluse da una dichiarazione, maggiore sarà il suo contenuto informativo. Formalmente, questo approccio è simile a quello delle formule di Shannon, ma con un approccio semantico. Sebbene interessante, questa teoria presenta alcuni problemi logici controintuitivi, come ha notato Floridi, che ha evidenziato il paradosso Bar-Hillel-Carnap. Secondo questa teoria, una tautologia (una proposizione che è sempre vera) non porta alcun contenuto informativo, poiché non esclude alcuna altra proposizione. Al contrario, una proposizione contraddittoria porta il massimo contenuto informativo, poiché esclude ogni altra proposizione a causa della sua incoerenza. Tuttavia, nella pratica matematica, i teoremi che derivano da prove deduttive, pur essendo tautologici, vengono comunque considerati portatori di informazioni, creando una dissonanza tra la teoria e l’esperienza empirica.
Inoltre, la teoria assume che il numero di proposizioni che descrivono tutti gli stati possibili dell'universo sia finito. Questo è problematico, poiché esistono descrizioni semantiche praticamente infinite degli stati dell’universo, e qualsiasi segnale potrebbe teoricamente trasmettere una quantità infinita di informazioni, il che crea un paradosso all'interno della teoria stessa. Nonostante ciò, il lavoro di Bar-Hillel e Carnap rimane un'importante proposta, che ha messo in luce la complessità della relazione tra la teoria di Shannon e il contenuto semantico dell'informazione.
Una delle teorie semantiche più rilevanti è quella di Dretske, che si distingue per il suo tentativo di naturalizzare il significato e l'intenzionalità. Dretske definisce il contenuto informativo come segue: un segnale "r" porta l'informazione che "s è F" se la probabilità condizionale che "s" sia F, dato "r" (e una certa conoscenza di background "k"), è pari a 1. In altre parole, se un evento (segnale) porta un contenuto informativo su una proposizione "s" che è F, l’evento "s" deve necessariamente verificarsi. Per Dretske, quindi, esiste una relazione necessaria tra le variabili in gioco, che deve essere una regolarità nomica (legale). La regolarità è tale da escludere l'occorrenza di "r" quando "s" non è F.
Questa concezione implica che una mera correlazione tra due variabili, anche se perfetta, non è sufficiente per stabilire una relazione informativa. La relazione deve essere legata a una regolarità naturale, come quella che può essere osservata tra un segnale e una risposta fisiologica in un organismo vivente. Per esempio, quando un coniglio vede un segnale che avverte della presenza di un predatore, la probabilità che un predatore appaia, dato il segnale, non è mai pari a 1, ma ciò non toglie valore informativo al segnale: anche se la probabilità è bassa, il segnale è comunque utile per la sopravvivenza. In questa visione, l'informazione non è assoluta, ma relativa alla conoscenza di base che il ricevente ha dell'ambiente e delle possibilità a sua disposizione. Questo introduce un'importante dimensione relativa dell'informazione, che dipende da ciò che il ricevente già sa del mondo.
Un altro concetto cruciale nella teoria di Dretske è quello di relazioni informatiche annidate. Un'informazione può essere annidata in un’altra in due sensi: analiticamente e nomicamente. Per esempio, la proposizione "John è un uomo" è analiticamente annidata nella proposizione "John è celibe", poiché la definizione di celibe implica che l'individuo sia un uomo. Le relazioni annidate nomicamente sono garantite dalle leggi naturali. Dretske sottolinea che un segnale porta molteplici informazioni, a seconda delle leggi naturali che lo legano agli stati dell'universo.
Tuttavia, la teoria di Dretske non è esente da critiche. In primo luogo, il requisito che la probabilità condizionale debba essere pari a 1 è troppo restrittivo. In natura, la frequenza statistica è ciò che gli esseri viventi tendono a utilizzare per interpretare i segnali, e non la necessità naturale. Ad esempio, un coniglio potrebbe interpretare il movimento di un cespuglio come un segnale di presenza di un predatore, ma la probabilità che ciò si verifichi non è mai pari a 1. Inoltre, Dretske non considera che una relazione informativa possa essere basata su una correlazione imperfetta, come quella che si trova in molte situazioni quotidiane.
Infine, è importante comprendere che il concetto di contenuto informativo, sebbene centrale in molte teorie, non è facilmente riducibile a formule matematiche o probabilistiche. Esistono molteplici sfumature che rendono complessa la definizione di cosa costituisca realmente "informazione" in vari contesti. La visione semantica dell’informazione, che cerca di coniugare la dimensione oggettiva con quella relativa, è fondamentale per comprendere come le informazioni vengano elaborate, interpretate e utilizzate nei vari ambiti del sapere e della conoscenza. Ogni segnale, infatti, può trasmettere informazioni diverse a seconda del contesto e della preparazione del ricevente, e ciò che è informativo per un organismo può non esserlo per un altro.
La più grande tradizione nella storia americana: Donald Trump come traditore della sua nazione
Come Utilizzare i Cicli DO e le Dichiarazioni di Formato in Fortran per la Gestione dei Dati
Come rappresentare e comprendere la distribuzione di probabilità nei dati misurati

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский