Secondo la teoria di Millikan, un segno informativo naturale, o "infosign", è un segno che può servire come indicatore per gli organismi. Affinché un evento A possa essere un segno informativo per un altro evento B, A deve correlarsi ripetutamente con B per una ragione specifica e in un contesto locale ben definito. A differenza delle teorie di Stampe e Dretske, Millikan sostiene che una correlazione statistica tra due eventi è sufficiente per stabilire una relazione informativa naturale. Se la correlazione tra A e B persiste nel tempo per una ragione, cioè se esiste una dipendenza non accidentale di B da A nella natura, allora A è un segno informativo di B. La teoria di Millikan, che si basa su correlazioni statistiche, è più realistica rispetto a quella di Dretske, poiché la prima riconosce che queste correlazioni si verificano sempre all'interno di domini locali.

In questa prospettiva, i segni informativi sono definiti relativamente alla classe di riferimento, ovvero il contesto locale in cui i segni e i loro significati sono costantemente correlati. Millikan sottolinea che le condizioni di canale che supportano una correlazione sono fondamentali per comprendere un segno informativo. Queste condizioni costituiscono la classe di riferimento, che non deve essere arbitraria. Ad esempio, per comprendere un segno informativo, è essenziale considerare anche le condizioni che lo supportano, senza le quali il segno perderebbe il suo valore informativo.

Un altro aspetto cruciale della teoria di Millikan riguarda la relazione tra il segno informativo e il suo significato. In una relazione informativa naturale, sia il segno che il suo significato sono strutture del mondo. La loro struttura determina il significato in modo architettonico. Il significato di un segno è determinato in funzione dei valori di variabili significative o determinabili che il segno manifesta. In altre parole, il significato varia in modo sistematico in parallelo con trasformazioni matematiche significative del segno. La correlazione tra il segno informativo e il suo significato è una funzione di mappatura semantica, che trasferisce le proprietà del segno a quelle del significato. Questa funzione è alla base della produttività dei sistemi di segni informativi: la loro capacità di fornire nuove informazioni.

Inoltre, Millikan afferma che un segno informativo di un evento è anch'esso un segno informativo dello stesso evento. Le informazioni naturali trasportate da un segno informativo sono incapsulate anche nei segni informativi di questi segni. Così come i segni informativi possono essere annidati l'uno nell'altro, la loro capacità di trasmettere significato si espande attraverso una serie di funzioni di mappatura semantica, applicabili una dopo l'altra.

Tuttavia, i segni informativi non possono essere falsi; essi non portano, ma ancorano informazioni non naturali. Questo solleva la questione: come nasce l'aspetto normativo del significato non naturale? Secondo Millikan, il significato non naturale è trasportato dai segni intenzionali, che si differenziano dai segni informativi naturali. A differenza della teoria di Dretske, che si concentra sullo sviluppo individuale, Millikan propone una spiegazione eziologica. Secondo questa visione, un organo ha un effetto sulla sua funzione perché è stato preservato nel corso della storia, sia per apprendimento che per evoluzione. Di conseguenza, portare un significato non naturale è una funzione stabilizzata dei segni intenzionali. Quando un segno viene utilizzato da un consumatore e corrisponde al mondo in un modo che soddisfa gli scopi di quest'ultimo, continuerà a essere utilizzato e stabilizzato. I segni intenzionali sono convenzionali in questo senso. La stabilizzazione della funzione di un segno intenzionale è il risultato di dinamiche evolutive o di apprendimento.

Millikan estende questa analisi ai segni linguistici, che nascono dai segni informativi nello stesso modo. Neander e Shea, successivamente, sviluppano ulteriormente la biosemantica di Millikan, ma qui ci concentreremo su Shea. Shea, ispirato dalla teoria di Millikan, sostiene che per comprendere il contenuto rappresentazionale, una teoria debba avere due componenti: le funzioni eseguite da un organismo o sistema, e una struttura interna che capitalizza su relazioni estraibili tra stati interni e il mondo esterno. Shea sviluppa quindi il concetto di "informazione correlazionale estraibile", usando la teoria delle probabilità per caratterizzare situazioni in cui, all'interno di un dominio locale, quando un evento accade, la probabilità che un altro evento si verifichi cambia per una ragione univoca. Questo tipo di evento porta informazioni estraibili sull'altro evento.

Un ulteriore sviluppo riguarda la funzione compito, che rappresenta l'output stabile di un sistema progettato per produrre determinati risultati. Sebbene le teorie di Millikan e Shea presentino differenze importanti, entrambe appartengono alla stessa famiglia di semantiche teleologiche.

Nonostante la potenza della biosemantica di Millikan, essa affronta alcune sfide. La più rilevante è che, secondo Millikan, l'informazione naturale consiste in correlazioni locali ricorrenti. Questo porta a una sorta di paradosso infinito, simile a quello che Dretske ha individuato con il principio delle relazioni nidificate: un segno informativo potrebbe essere correlato con qualsiasi altra cosa, creando un circolo vizioso in cui il segno non porta più a nessuna informazione specifica. Inoltre, poiché un segno informativo può essere qualsiasi cosa, il suo contenuto non può essere determinato autonomamente, sollevando così il problema della determinazione del contenuto di un segno.

Come il Gioco del Segnalare Influenza le Decisioni nelle Situazioni di Coordinamento

La teoria dei giochi è una potente lente attraverso la quale possiamo comprendere i comportamenti degli individui in situazioni interattive. In particolare, i giochi di segnalazione, come quelli studiati da Lewis e Skyrms, offrono un esempio affascinante di come le interazioni possano essere strutturate attorno alla comunicazione indiretta e alla coordinazione. Alcuni ricercatori hanno dimostrato che la segnalazione è possibile anche quando i giocatori non condividono interessi comuni o, addirittura, quando non c'è alcun interesse comune (Godfrey-Smith e Martínez 2013; Martínez e Godfrey-Smith 2016). Questo concetto è fondamentale, poiché ci porta a riflettere su come le strategie possano essere efficaci anche in assenza di un obiettivo condiviso o di una conoscenza comune.

Nel contesto dei giochi di segnalazione, il comportamento dei giocatori può essere visto come un processo di apprendimento dinamico, dove ciascun partecipante esplora attivamente le risposte dell'altro per determinare quale strategia adottare per ottenere il miglior risultato possibile. Sebbene la teoria dei giochi evolutivi e la teoria delle scelte razionali offrano spiegazioni su come gli individui possano arrivare e mantenere un equilibrio, ciò che suscita dibattito è se la semplice convergenza a un equilibrio di segnalazione sia sufficiente per garantire una comunicazione reale. Questo porta a interrogarsi su come le dinamiche di interazione tra il mittente e il ricevente possano influire sul raggiungimento di tale equilibrio.

Immaginate ora due giocatori, un mittente e un ricevente, che partecipano a un gioco di coordinamento. In un gioco del tipo "stag hunt" (caccia al cervo), il mittente e il ricevente devono decidere se collaborare per cacciare un cervo, che porta a un maggiore guadagno, o cacciare una lepre, che offre una ricompensa minore. Tuttavia, il rischio è che, se uno dei due gioca in modo egoista, non raggiungano il guadagno maggiore. Qui, la segnalazione gioca un ruolo cruciale: il mittente invia un segnale al ricevente, indicando se è pronto a collaborare per cacciare il cervo o preferisce cacciare una lepre.

Il gioco di segnalazione non si limita alla semplice scelta tra azioni, ma implica una coordinazione tra le azioni del mittente e quelle del ricevente. La coordinazione può avvenire in due modalità: coordinazione stato-atto e coordinazione atto-atto. La prima riguarda la relazione tra uno stato del mondo e l'azione del ricevente, mentre la seconda concerne la relazione tra l'azione del mittente e quella del ricevente. Nella vita reale, queste due modalità si sovrappongono spesso, e il gioco descritto può comprendere una combinazione di entrambe.

Nel caso del gioco "stag hunt", il mittente potrebbe non sapere se il ricevente è pronto a collaborare o meno. Se il mittente osserva una lepre, invierà un segnale specifico al ricevente, il quale a sua volta dovrà decidere come rispondere. Non c'è una relazione predefinita tra le azioni e i segnali, ma attraverso l'apprendimento rinforzato, entrambi i giocatori potrebbero sviluppare un sistema di segnali che consente loro di coordinarsi con successo. Ciò implica che la comunicazione non è immediata, ma si evolve nel tempo man mano che i giocatori apprendono dalle esperienze passate.

D'altra parte, nel gioco del "battle of the sexes" (la battaglia dei sessi), la situazione cambia. In questo scenario, un marito e una moglie devono decidere se trascorrere il fine settimana insieme, ma con preferenze diverse: lui preferisce guardare il calcio, mentre lei preferisce andare al cinema. Tuttavia, entrambi desiderano rimanere insieme, poiché ciò rappresenta il massimo guadagno per entrambi. Ancora una volta, la segnalazione svolge un ruolo cruciale, ma questa volta riguarda il coordinamento tra le loro preferenze piuttosto che tra azioni e stati esterni.

Nel gioco del "battle of the sexes", il mittente (ad esempio, il marito) deve inviare un segnale alla moglie per indicare quale attività preferisce. La moglie, a sua volta, risponde in base al segnale ricevuto, cercando di massimizzare il suo guadagno personale, ma anche mantenendo la relazione intatta. In questo caso, la strategia del mittente è determinata dalla sua conoscenza soggettiva della situazione e dalle aspettative che ha riguardo alla risposta del ricevente.

Il concetto di segnali è cruciale in entrambe le situazioni descritte. Sebbene le dinamiche di segnalazione possano sembrare complesse, il meccanismo di coordinamento che emerge dal gioco è relativamente semplice da comprendere: i giocatori inviano segnali per comunicare le loro intenzioni, e attraverso l'apprendimento rinforzato, arrivano a sviluppare un sistema condiviso di segnali che permette loro di coordinarsi e raggiungere un equilibrio.

Ciò che rende questi giochi particolarmente interessanti è che, nonostante la mancanza di una comunicazione diretta o di una conoscenza condivisa, i giocatori sono in grado di coordinarsi e raggiungere un equilibrio che massimizza il loro benessere. Questo suggerisce che, anche in assenza di una comprensione esplicita degli interessi reciproci, è possibile stabilire una forma di comunicazione indiretta che consenta una coordinazione efficace.

Tuttavia, per il lettore che esplora questo argomento, è fondamentale comprendere che la segnalazione non è solo una questione di trasmissione di informazioni. È anche un processo dinamico di apprendimento e adattamento, dove i giocatori non solo rispondono ai segnali dell'altro, ma li modificano nel tempo in base alle esperienze passate. La comunicazione, quindi, non è statica, ma evolutiva, e si basa su una continua interazione tra i giocatori che cerca di ottimizzare i risultati a lungo termine.

Come Misurare l'Informazione: Teorie e Concetti Fondamentali

Un sistema di comunicazione può essere descritto in termini semplici come un insieme di fasi in cui un messaggio viene trasmesso dal mittente al destinatario attraverso un canale. Il mittente ha il compito di trasformare il messaggio in segnali idonei alla trasmissione, mentre il ricevitore si occupa di decodificare questi segnali per ricostruire il messaggio originario. Il canale, che rappresenta il mezzo di trasmissione, e il destinatario, l’entità che riceve il messaggio, completano il sistema. In teoria, questo processo sembra lineare e diretto, ma la teoria dell'informazione, come elaborata da Claude Shannon nel 1948, si concentra sui dettagli di come questi segnali vengano trasmessi e misurati, cercando di quantificare l'informazione e la capacità del canale.

Shannon, nel suo approccio, si distacca dall'aspetto semantico dei messaggi e si concentra esclusivamente sulla trasmissione di segnali. Secondo la sua visione, l'informazione è definita come la riduzione dell'incertezza, un concetto che può essere formalizzato attraverso la teoria della probabilità. L'informazione trasmessa da un segnale non dipende dalle caratteristiche intrinseche del segnale stesso, ma dalla sua provenienza da un insieme di segnali possibili. Questo significa che l'entità dell'informazione di un segnale è legata alla probabilità con cui questo segnale potrebbe essere scelto all'interno di un determinato insieme.

Se un segnale è scelto da un insieme con due segnali equiprobabili, la quantità di informazione portata dal segnale può essere misurata in termini di incertezza risolta, utilizzando la funzione logaritmica in base 2, ottenendo così 1 bit di informazione. Allargandosi, se una sorgente di informazione, indicata con S, è un sistema che può trovarsi in uno degli stati s1, s2, ..., sn, con probabilità uguali per ciascuno stato, la quantità di informazione generata dal verificarsi di uno stato specifico si misura con una formula che utilizza il logaritmo della probabilità di quel particolare stato.

L'entropia informativa di una sorgente S, che esprime la misura complessiva dell'incertezza associata alla sorgente, può essere calcolata sommando le probabilità degli stati e moltiplicandole per i logaritmi di quelle probabilità. Questo concetto di entropia è fondamentale per la teoria dell'informazione, in quanto misura la "quantità" di informazione generata da una sorgente.

Allo stesso modo, il destinatario di un messaggio è anche un sistema con una gamma di stati possibili d1, d2, ..., dm. L'informazione generata da ciascuno stato del destinatario può essere misurata con la stessa formula, e la sua entropia fornisce una misura dell'incertezza associata al ricevimento del messaggio. L'informazione trasmessa dal segnale dal mittente al destinatario non corrisponde necessariamente all'entropia della sorgente o del destinatario. In effetti, l'informazione che arriva al destinatario è meglio rappresentata da una misura chiamata "informazione mutua", che quantifica la quantità di informazione che è stata generata dalla sorgente e ricevuta dal destinatario.

L'informazione mutua, come suggerisce il nome, misura la quantità di dipendenza tra la sorgente e il destinatario. In altre parole, quanto un cambiamento nell'informazione alla sorgente corrisponde a un cambiamento nell'informazione ricevuta dal destinatario. In un canale ideale e senza rumore, l'informazione ricevuta dal destinatario sarebbe uguale all'informazione generata dalla sorgente. Tuttavia, nella realtà, i canali di comunicazione sono soggetti a rumore ed equivocazioni, che possono alterare la quantità di informazione trasmessa.

Il rumore, rappresentato dalla variabilità nelle informazioni ricevute dal destinatario che non provengono dalla sorgente, e l'equivocazione, che misura la quantità di informazione generata dalla sorgente ma non ricevuta dal destinatario, giocano un ruolo cruciale nella determinazione dell'informazione effettivamente trasmessa. La relazione tra queste variabili è espressa attraverso la formula dell'informazione mutua, che rappresenta la differenza tra l'entropia del destinatario e l'entropia condizionale del destinatario dato la sorgente.

La massima quantità di informazione mutua che può essere trasmessa da un canale è definita come la capacità del canale. Questa misura riflette non solo l'affidabilità del canale, ma anche la massima quantità di informazioni che possono essere trasmesse in modo sicuro attraverso di esso. La capacità del canale è quindi un indicatore fondamentale per comprendere quanto un canale di comunicazione può essere "efficiente" nel trasmettere segnali e ridurre l'incertezza.

La quantità di informazione mutua è influenzata dalle probabilità con cui gli eventi si verificano sia nella sorgente che nel destinatario. Ad esempio, se un evento si verifica al destinatario, l'informazione ricevuta dalla sorgente è pari, in modo simmetrico, a quella inviata dalla sorgente stessa. Questo rapporto reciproco è il motivo per cui si parla di "informazione mutua", che riflette la simmetria tra la trasmissione e la ricezione di informazioni.

Infine, la teoria dell'informazione di Shannon si concentra esclusivamente sulla quantità di informazione, escludendo l'aspetto semantico o il "significato" intrinseco delle informazioni trasmesse. Mentre questa visione ha avuto un enorme impatto nel campo dell'ingegneria e delle telecomunicazioni, non si è potuto evitare il passaggio a una discussione sulla "sostanza" informativa, ovvero su come i segnali possano veicolare significati, e questo è un aspetto che è stato esplorato successivamente da teorici come Yehoshua Bar-Hillel e Rudolf Carnap. I loro lavori mirano a separare chiaramente la misura quantitativa dell'informazione dalla sua interpretazione semantica, sottolineando che non esiste una connessione logica diretta tra la quantità di informazioni trasmesse e il contenuto semantico di un messaggio.