L'informazione è un concetto difficile da definire in modo universale, ma molti studiosi concordano sull'idea che essa si manifesti come un fenomeno tripartito, ovvero come una combinazione di aspetti strutturali, referenziali e normativi. Questo modello, che trova la sua origine nel pensiero di Charles Sanders Peirce, viene oggi riscoperto e approfondito da ricercatori contemporanei, come De Tienne (2005), Nöth (2013) e Liszka (2016), i quali lo analizzano sotto diverse prospettive. Pur nella diversità delle teorie, è possibile tracciare un filo conduttore che lega questi approcci, per comprenderne l'interazione e l'importanza.

L'informazione strutturale, infatti, riguarda la rottura della simmetria: quando esiste una differenza tra due entità, emerge l'informazione. Questo tipo di informazione è obiettiva e può essere misurata sia intrinsecamente che estrinsecamente. In altre parole, l'informazione strutturale è indipendente da un agente interpretante, come nel caso di segnali che descrivono uno stato fisico del mondo. Se analizziamo la relazione tra il segnale e la sua sorgente, entriamo nel campo dell'informazione referenziale. Quest'ultima si distingue dal significato, che è un concetto centrale nella filosofia del linguaggio, poiché non riguarda solo i fenomeni linguistici, ma è un'informazione di base che non implica verità o falsità.

Il terzo aspetto, l'informazione normativa, si occupa della funzione e dell'utilità dell'informazione. Essa si manifesta in due livelli: tipo e token. Un segnale stabilisce una funzione che è un tipo, ma questa funzione può essere distinta da quella intenzionale e da quella effettivamente realizzata. L'informazione normativa, dunque, dipende dall'informazione referenziale, la quale dipende a sua volta dall'informazione strutturale. Questi tre livelli sono gerarchicamente interconnessi, creando una struttura complessa e asimmetrica che permette una comprensione più ricca e sfumata del concetto di informazione.

Per comprendere appieno la nozione di informazione, è necessario analizzarla da una prospettiva concettuale e teorica. La teoria dell'informazione che emerge da tale analisi deve essere in grado di integrare e spiegare questi tre aspetti: strutturale, referenziale e normativo. Tuttavia, come abbiamo visto, le teorie matematiche dell'informazione, come quella di Shannon, si concentrano principalmente sulla misura della quantità di informazione strutturale, trascurando le dimensioni più soggettive e utilitaristiche. Ciò ha comportato una perdita di significato in molte teorie formali.

La sfida attuale nelle scienze dell'informazione è quindi quella di ripristinare questi aspetti mancanti, riacquistando una visione completa che non si limiti alla mera misurazione della quantità di dati o segnali. La teoria dell'informazione, pertanto, non è solo una disciplina tecnica, ma coinvolge una riflessione filosofica profonda sul ruolo dell'informazione nell'espansione della conoscenza e nella sua utilità. L'analisi concettuale, che si concentra su ciò che l'informazione è, è fondamentale per costruire una teoria robusta che possa rispondere alle esigenze moderne, integrando non solo gli aspetti tecnici ma anche quelli cognitivi e normativi.

È importante comprendere che l'informazione, nel suo aspetto normativo, non è solo un concetto astratto, ma trova applicazione concreta in molte aree, dalla comunicazione quotidiana alle tecnologie avanzate. L'informazione non è mai neutra: essa implica sempre un processo di selezione, un filtro che determina cosa è utile, cosa è vero, e cosa ha significato per chi la riceve. Questa visione dinamica e stratificata dell'informazione aiuta a evitare confusioni comuni, come quella tra dati, segnali, codici e significato.

Infine, un aspetto che non può essere trascurato è la relazione tra informazione e disinformazione. Le teorie tradizionali, pur trattando l'informazione come qualcosa di oggettivo e misurabile, non si soffermano mai abbastanza sulla sua manipolazione e distorsione. La comprensione della natura dell'informazione, infatti, implica anche una consapevolezza critica riguardo alle sue potenzialità di essere travisata o sfruttata a fini di potere. In un mondo sempre più interconnesso e digitalizzato, questa consapevolezza è essenziale per navigare le sfide della comunicazione contemporanea.

Come le limitazioni fisiche definiscono l'informazione: tra entropia e segnali

Nell'ambito delle teorie contemporanee sulla comunicazione e sull'informazione, l'idea che l'informazione sia un concetto puramente astratto e separato dalla realtà fisica è stata progressivamente messa in discussione. L'informazione non si riduce a un'entità immateriale che esiste indipendentemente dai sistemi fisici, ma si radica profondamente nelle dinamiche dei sistemi naturali e nelle limitazioni imposte dalla loro struttura. Da questa prospettiva, la comunicazione dell'informazione può essere vista come la propagazione di vincoli da una sorgente a un ricevente, dove la "forma" dell'informazione non è qualcosa che si trasmette come un'entità separata, ma è il risultato di un processo che cambia lo stato del sistema ricevente attraverso le limitazioni imposte dal segnale.

L'approccio semantico di Millikan, applicato alla biosemantica, può essere visto come una mappatura di vincoli, non come rappresentazioni astratte. I vincoli, che sono imposti da un evento, vengono trasferiti nel segnale, e il segnale stesso diventa il mezzo attraverso cui questi vincoli si propagano. Questo approccio aiuta a superare alcune delle difficoltà metafisiche che la teoria di Millikan incontra, ancorando il significato non in mappature astratte, ma nei vincoli naturali che modellano la realtà fisica. L'informazione, pertanto, non è una rappresentazione immateriale, ma un insieme di restrizioni che influenzano lo stato del ricevente. Questo concetto aiuta a fare luce sulla natura fisica della comunicazione dell'informazione e sulle sue implicazioni in relazione alle entropie termodinamiche e informative.

Nel contesto di questa visione, la concezione probabilistica dell'informazione, che fa ampio ricorso alla teoria della probabilità di Shannon, acquisisce una nuova interpretazione. In sostanza, l'informazione è vista come una riduzione dell'incertezza. Tuttavia, questo approccio implica una logica negativa: l'informazione non è determinata dalle proprietà intrinseche del segnale, ma dalla scelta tra i segnali che potrebbero essere stati inviati ma che non sono effettivamente presenti. La quantità di informazione trasmessa da un segnale è misurata in relazione ai segnali che sono assenti, e senza il contesto di queste alternative mancanti, non è possibile determinare quanta informazione è contenuta nel segnale stesso.

Un esempio pratico aiuta a chiarire questa idea. Immaginiamo una situazione in cui una sorgente di informazioni ha quattro stati possibili (S1, S2, S3, S4), ognuno con probabilità uguale, e quattro segnali corrispondenti (M1, M2, M3, M4). Ogni segnale è correlato in modo ricorrente con uno degli stati della sorgente: M1 appare quando si verifica S1, M2 quando si verifica S2, e così via. Quando si verifica S1, il segnale M1 porta con sé l'informazione relativa a S1. La quantità di informazione prodotta è determinata dai tre segnali che potrebbero essere stati inviati, ma che sono effettivamente assenti. Quindi, il contenuto informativo non dipende da cosa è presente, ma da ciò che manca. In altre parole, l'informazione viene misurata rispetto al "mancante", e l'incertezza che esso comporta determina il valore dell'informazione.

La teoria delle informazioni probabilistiche può essere ulteriormente elaborata attraverso la teoria dei vettori, che descrivono la distribuzione probabilistica di tutti gli stati possibili di un sistema. Ogni stato possibile di un sistema impone un vincolo, in quanto alcune possibilità non possono essere realizzate. Quando uno stato cambia, si verifica una divergenza rispetto allo stato originario, e questa divergenza produce informazione. L'informazione, quindi, non è solo un'entità astratta, ma una differenza che provoca un cambiamento, e tale cambiamento è fisicamente realizzato nei sistemi attraverso l'imposizione di vincoli.

L'informazione, da questa prospettiva, può essere vista come una proprietà formale degli eventi del mondo. Essa esiste nel tempo e nello spazio, concretizzandosi negli stati fisici che si verificano nella sorgente e nei segnali. Ogni cambiamento nel sistema produce un'informazione, che può essere misurata in base alla variazione del vincolo che caratterizza il sistema. Pertanto, l'informazione non è solo una questione di segnali, ma del modo in cui i vincoli si propagano attraverso i segnali, definendo le trasformazioni che avvengono nel ricevente.

Inoltre, una comprensione più profonda dell'informazione passa attraverso l'analisi delle entropie termodinamiche e informative. I segnali, da un lato, sono misurabili attraverso le loro proprietà formali, ma dall'altro, poiché la forma degli eventi nel mondo è un vincolo realizzato dagli stati fisici, i segnali seguono la Seconda Legge della Termodinamica. Un segnale, quindi, può essere caratterizzato da due tipi di entropia: l'entropia informativa e l'entropia termodinamica. L'entropia informativa, secondo Shannon, misura la probabilità di ricevere un determinato segnale tra quelli possibili, mentre l'entropia termodinamica misura la probabilità che un segnale sia stato corrotto. Nonostante condividano la stessa formula, queste due entropie appartengono a categorie logiche differenti: l'informazione è formale e logica, mentre la termodinamica è fisica. Tuttavia, c'è una relazione profonda tra le due entropie, e la comprensione di questa relazione è fondamentale per integrare la teoria dell'informazione con la fisica.

La chiave per comprendere appieno l'informazione come proprietà fisica risiede nell'approccio duale ai segnali: essi sono, da un lato, una rappresentazione formale di un'idea o di un evento, ma, dall'altro, sono vincoli fisici che interagiscono con le leggi della termodinamica. La comprensione di questa interazione è cruciale per esplorare come l'informazione venga effettivamente trasmessa e trasformata nei sistemi naturali, dando così una base fisica concreta a quello che, in un primo momento, potrebbe sembrare un concetto puramente teorico.

Come può una rappresentazione essere al contempo storica, attuale e normativa?

Una teoria semiotica naturalistica, come quella proposta da Deacon, offre una comprensione profonda della rappresentazione, che va oltre l’approccio teleosemantico tradizionale. Essa concepisce il segno non come un’entità statica, ma come un fenomeno dinamico, il cui significato è co-determinato da due dimensioni essenziali: l’evoluzione e l’interpretazione. Il meccanismo evolutivo vincola le possibilità interpretative, ma non le determina in modo univoco; ogni atto interpretativo, infatti, contribuisce a mantenere o a destabilizzare la tendenza dinamica del sistema interpretativo stesso.

La normatività della rappresentazione non si esaurisce nel semplice riferimento a una funzione evolutiva, come pretende la teleosemantica. Quest’ultima, pur cercando di naturalizzare la rappresentazione ricorrendo alla selezione naturale, finisce per ridurre la normatività a un epifenomeno di un processo meccanicistico. Inoltre, assume come dato il concetto di sistema vivente, senza fornirne una vera spiegazione. Al contrario, l’approccio autogenetico, da cui muove la semiotica naturalistica, spiega la natura dei sistemi viventi a partire dalla loro capacità di automantenersi, e riconduce la normatività a questa funzione.

Da questa prospettiva, il problema della disinformazione e quello della determinazione del contenuto si risolvono in maniera coerente. Se una rappresentazione non contribuisce alla funzione autopoietica per cui si è evoluta, essa fallisce e diventa portatrice di disinformazione. L’oggetto rappresentato – nella terminologia di Peirce, l’“oggetto immediato” – è determinato sia dalla storia della rappresentazione, sia dalle proprietà che attualmente sostengono la stabilità del sistema interpretativo. L’interpretazione non è dunque un atto soggettivo e arbitrario: è vincolata dalla storia e, proprio per questo, è stabile e condivisibile.

Un ulteriore vantaggio della teoria semiotica naturalistica risiede nella sua capacità di spiegare come una rappresentazione possa essere stabilizzata dal passato ma riferirsi al presente. La teleosemantica, infatti, attribuisce alla rappresentazione una funzione determinata esclusivamente dal contesto evolutivo passato, rendendo problematico il riferimento al presente. Ma, come mostra l’approccio autogenetico, una rappresentazione inserita in un sistema interpretativo vive nel presente, pur essendo storicamente vincolata. La coesistenza di vincolo e attualità è possibile proprio grazie alla dinamica auto-organizzativa del sistema.

Questa teoria risolve anche la tensione apparente tra la stabilità e l’apertura della rappresentazione. Mentre la teleosemantica non ammette variazioni creative, la semiotica naturalistica, concependo l’evoluzione secondo una logica negativa – cioè come processo di eliminazione di possibilità incompatibili – riconosce che le rappresentazioni possono svilupparsi in modi nuovi, mantenendo al contempo una coerenza funzionale.

Da ciò deriva una teoria costruttiva dell’informazione strutturale, referenziale e normativa. L’informazione strutturale è intesa come vincolo, quella referenziale come propagazione di vincoli tra processi dinamici, e quella normativa come l’efficacia dei vincoli nella conservazione della struttura del sistema vivente. La propagazione dei vincoli acquista significato solo quando si colloca all’interno di un sistema interpretativo: questo è il nucleo centrale della semiotica. La funzione e la rappresentazione emergono dall’organizzazione intrinseca dei processi viventi attorno a fattori assenti o estrinseci. L’informazione è una proprietà relazionale, emergente da livelli annidati di vincoli: vincoli probabilistici (Shannon), vincoli dinamici (Boltzmann), e vincoli finalizzati all’automantenimento in sistemi lontani dall’equilibrio (Darwin).

Tuttavia, questa teoria spiega soltanto rappresentazioni semplici e idealizzate. Le rappresentazioni linguistiche, in particolare, si mostrano assai più complesse e stratificate. La finzione, ad esempio, è onnipresente nel linguaggio: nomi come “Harry Potter” o espressioni come “il re di Francia nel 2025” non possono essere liquidati come semplici casi di errore rappresentativo o di finzione deliberata. La riduzione della finzione a una falsa rappresentazione è insoddisfacente, poiché non coglie la funzione strutturale che essa svolge nella comunicazione umana e nella cognizione collettiva. Una teoria completa della rappresentazione deve essere in grado di spiegare anche questi casi-limite, in cui l’assenza dell’oggetto rappresentato non annulla la funzione rappresentativa, ma la rende addirittura possibile attraverso strutture di vincoli ancora più sofisticate.

Inoltre, occorre comprendere che l’informazione non è un'entità trasportabile indipendentemente dai sistemi che la generano e la interpretano. Ogni contenuto informativo è inestricabilmente legato alla struttura e al contesto del sistema vivente che lo produce. Anche nel caso della comunicazione linguistica, l’apparente autonomia delle frasi nasconde una dipendenza profonda dal contesto storico, biologico e cognitivo del parlante e dell’ascoltatore.

Infine, bisogna riconoscere che la capacità di un sistema di rappresentare non può essere separata dalla sua capacità di sopravvivere e trasformarsi. La rappresentazione non è un lusso cognitivo, ma una funzione vitale. È attraverso la rappresentazione che un sistema può adattarsi, anticipare, e agire nel mondo. La rappresentazione, quindi, non è solo una questione di significato, ma di vita.

Come funziona il riferimento linguistico? Un'analisi critica

Il linguaggio non è semplicemente un sistema di parole che rimandano direttamente alla realtà, ma un insieme complesso di meccanismi simbolici e semiotici che vanno oltre il semplice rimando a oggetti concreti. Una parola, come "cane", non si riferisce mai a un cane specifico, a meno che non sia inserita in una frase che fornisca ulteriori dettagli o un contesto che permetta di identificare un cane particolare. La lingua, infatti, è un mezzo che può riferirsi a concetti generali e astratti, come le nozioni matematiche o logiche di "triangolo", "funzione" o "deduzione". In altri casi, può servire a fare riferimento a cose che non esistono nel mondo reale, come nel caso della finzione, con esempi celebri come "Harry Potter" o "Terra di Mezzo". Ancora, esistono espressioni linguistiche che vengono utilizzate in modi che non corrispondono ai loro significati letterali, come nel caso dell'ironia o della metafora.

Il compito principale della filosofia del linguaggio, della filosofia della mente e della filosofia delle scienze cognitive è proprio quello di comprendere come funziona il riferimento linguistico e come questi meccanismi di significato si articolano. Numerosi filosofi hanno cercato di affrontare questi problemi, ma le loro conclusioni sono state spesso discordanti. Questo capitolo intende sviluppare un approccio alternativo ai problemi del riferimento, seguendo il lavoro di Deacon (1997, 2012b, 2018), che critica le teorie tradizionali sostenendo che non sono in grado di spiegare adeguatamente il riferimento linguistico. La causa di tale insoddisfazione risiede nel fatto che queste teorie trascurano l'infrastruttura semiotica complessa che sottende il riferimento linguistico. In altre parole, il riferimento linguistico è un atto simbolico che è gerarchicamente costruito a partire dal riferimento indiciale, il quale a sua volta origina dal riferimento iconico. Senza comprendere questa gerarchia semiotica, il legame tra senso e riferimento non può essere pienamente compreso.

Iniziamo con una critica della metafora della mappa nella filosofia del linguaggio e della mente. Questa metafora presuppone un modello di linguaggio di tipo diadico, in cui i simboli linguistici mappano la realtà attraverso funzioni matematiche o logiche. La metafora della mappa considera il linguaggio come una sequenza di simboli che codificano la realtà secondo regole specifiche. Filosofi come Wittgenstein, i neopositivisti, Quine e i teleosemantici hanno utilizzato questa metafora per spiegare come il linguaggio si relaziona al mondo. La principale divergenza tra loro riguarda il tipo di relazioni che esistono tra il linguaggio e la realtà e le modalità con cui queste relazioni si stabiliscono.

Una delle teorie più significative in questo ambito è quella di Millikan, che propone un modello biologico del linguaggio, noto come biosemantica. Secondo Millikan, il linguaggio è un tratto biologico, modellato dall'evoluzione attraverso la selezione naturale e l'apprendimento rinforzato. Il linguaggio ha molteplici funzioni, ma ciò che lo rende speciale è che alcune delle sue funzioni vengono realizzate con successo tramite la comunicazione di informazioni di interesse. Una di queste funzioni è la funzione di mappatura semantica. Perché una forma linguistica possa adempiere correttamente a questa funzione, devono esistere delle condizioni nel mondo che la supportino. In altre parole, ci devono essere variazioni sistematiche tra la forma linguistica e le condizioni nel mondo.

Millikan utilizza il concetto di "funzione di mappatura" in un senso matematico. Se esiste una funzione di mappatura tra due insiemi, ogni elemento di un insieme corrisponde esattamente a un elemento dell'altro insieme secondo regole che possono essere caratterizzate matematicamente o logicamente. Nel caso della funzione di mappatura semantica, gli insiemi sono il linguaggio e il mondo. Gli elementi dell'insieme linguistico sono le diverse forme linguistiche, mentre gli elementi dell'insieme del mondo sono proprietà, oggetti, eventi, strutture, processi, ecc. La funzione di mappatura semantica stabilisce una relazione tra gli elementi di questi due insiemi. Questa funzione è stabilizzata convenzionalmente nei sistemi cooperativi tra parlanti e ascoltatori all'interno di una comunità linguistica.

Per illustrare meglio questo concetto, si può considerare l'esempio del linguaggio delle api. Le api utilizzano una danza, chiamata danza dell'ondulazione, per comunicare la posizione di un fiore che ha trovato lontano dal loro alveare. L'angolo α tra la direzione in cui si muove l'ape e il sole indica la direzione del fiore, mentre la durata dell'ondulazione t indica la distanza dal fiore stesso. In questo caso, la funzione di mappatura semantica mappa la posizione del fiore sulla danza dell'ape. Le variabili α e t costituiscono l'insieme della danza, mentre le posizioni dei fiori sono gli elementi dell'altro insieme. La relazione tra questi insiemi è descritta dalla funzione di mappatura, che varia sistematicamente con la posizione dei fiori.

Allo stesso modo, la funzione di mappatura semantica nel linguaggio umano funziona, ma con una complessità molto maggiore e con numerose variazioni. Ad esempio, il termine "imparare" può riferirsi a concetti diversi a seconda del contesto. Il linguaggio umano ha una funzione di mappatura semantica molto più sofisticata rispetto alla danza dell'ape, ma entrambi sono esempi di come il linguaggio, sia umano che animale, svolga un ruolo fondamentale nella trasmissione di informazioni attraverso simboli.

Per comprendere appieno il funzionamento del linguaggio, è necessario riconoscere la complessità delle relazioni semiotiche sottostanti. La metafora della mappa, seppur utile, non è sufficiente a spiegare le sfumature di come il linguaggio funzioni realmente. Il linguaggio è molto più di un semplice codice che rimanda alla realtà; è un sistema dinamico e contestualizzato che si radica nelle esperienze e nelle interazioni degli individui all'interno di una comunità.