A representação pode ser compreendida fisicamente como uma propagação de restrições. Quando consideramos a definição de Peirce sobre informação como a comunicação de forma e a concepção de Bateson de que a informação é uma diferença que faz a diferença, podemos reformular esses conceitos de maneira física dentro deste quadro. A representação, nesse sentido, está enraizada na propagação de restrições resultante de interações dinâmicas físicas. Porém, ao contrário da visão fundamentalista da informação, a propagação de restrições fundamenta o significado, mas não o determina. O problema da representação errônea e o problema da indeterminação do conteúdo demonstram que o significado é inerentemente normativo. Portanto, para oferecer uma compreensão abrangente do significado, devemos entender o aspecto normativo da informação.

As correlações naturais estão presentes em toda a natureza. Essas correlações podem ser vistas como regras projetivas entre dois tipos de eventos, realizadas pela transferência de restrições em interações dinâmicas. Isso serve como o fundamento físico da intencionalidade. No entanto, a intencionalidade, ou a relação representacional, não pode ser reduzida à transferência de restrições, pois é normativa. Em outras palavras, uma representação pode ser falsa, enquanto uma correlação natural não pode. Uma representação possui um referente estável e pode se referir a um evento distal, em vez de um evento proximal. Para compreender plenamente a intencionalidade, é necessário explicar seu aspecto normativo.

Filósofos naturalistas frequentemente recorrem a teorias teleológicas para explicar a normatividade da representação. Eles concebem a representação em termos de função. Quando um item ou característica é selecionado para produzir um efeito específico, essa produção de efeito se torna sua função. Ou seja, espera-se que esse efeito seja produzido. Por exemplo, a função de um detector de metais é detectar metal, e a função do coração é bombear sangue. É evidente que um detector de metais pode falhar em detectar metal, e o coração pode funcionar mal, não bombeando sangue corretamente. De maneira similar, a função de um signo é representar algo – ou seja, carregar informações sobre um evento, objeto, propriedade, etc. A função dos sinais visuais é transmitir informações sobre o estímulo nas células retinais para o cérebro; a função da dança do zumbido das abelhas é indicar a localização de uma fonte de néctar; a função dos sinais de alerta dos macacos vervet é indicar a presença de predadores; a função do DNA é armazenar e transmitir informações genéticas; a função da palavra "gato" é representar o tipo de animal, o gato. Assim como uma ferramenta pode falhar em realizar sua função, um signo pode falhar em representar o que deveria.

Além disso, um item pode produzir muitos efeitos, mas nem todo efeito é sua função. Por exemplo, um detector de metais gera um campo eletromagnético por meio de uma corrente elétrica constante, mas também pode produzir um efeito que prejudica pequenos animais, como insetos. Detectar metal, e não prejudicar insetos, é a função do detector de metais, porque esse é o motivo principal pelo qual o detector existe. Da mesma forma, quando o coração bate, ele também produz sons além de bombear sangue. Bombear sangue, e não fazer sons, é a função do coração, pois é esse o motivo de sua existência. Da mesma forma, um signo representa um evento distal, e não um evento proximal, porque a propagação da restrição do evento distal é exatamente o motivo pelo qual o signo existe. A frequência da dança do zumbido e o ângulo entre a direção de movimento da abelha e o sol devem indicar a localização de uma fonte de néctar, e não simplesmente que a abelha está enérgica e ativa ao dançar. Indicar a localização da fonte de néctar é a função essencial da dança do zumbido.

A teoria da semântica teleológica, que defende a ideia de que o significado de um signo é fundamentado na sua função e em como ele foi selecionado para desempenhar um determinado papel, enfrenta o desafio de explicar como essa seleção ocorre em um contexto mais amplo e em tempos passados, enquanto os efeitos gerados acontecem no presente. Isso implica que o entendimento da representação, quando analisado sob essa ótica, deve ser mais complexo, considerando não apenas a função passiva de um objeto, mas a mudança ativa e contínua dos efeitos que ele gera ao longo do tempo. Embora a teoria teleosemântica ofereça uma explicação robusta da normatividade do significado, ela não resolve completamente o enigma da relação entre o presente e o histórico dos efeitos dos sinais.

A proposta de uma semiótica peirceana oferece uma alternativa para entender a normatividade da representação. De acordo com essa abordagem, a interpretação desempenha um papel central ao transformar uma correlação em uma relação representacional. A interpretação, entretanto, é um conceito teleológico que necessita de uma explicação naturalista mais profunda. A autogênese, como proposta por Deacon, sugere um modelo plausível para um sistema primário de interpretação. Esse conceito é relevante para compreendermos como os processos interpretativos podem emergir de interações naturais, sem depender de estruturas de significação já predefinidas, permitindo uma abordagem mais dinâmica da representação e do significado.

O entendimento da representação, portanto, exige uma visão multifacetada que vai além da simples análise de efeitos passados ou funcionais. A natureza normativa da representação implica que ela está intimamente ligada a um processo de interpretação, que, por sua vez, é fundamental para o surgimento e a constância do significado. Quando examinamos os sinais, não devemos apenas observar sua função explícita, mas também considerar os complexos processos de interpretação que tornam uma simples correlação em uma representação de algo mais, algo que envolve uma relação de distanciamento temporal e espacial. Esse processo é essencial para entender como o significado se constrói e se estabiliza em sistemas dinâmicos de informação.

Qual é a Relação entre Informação, Significado e Naturalismo?

Nos últimos quarenta anos, o naturalismo tem sido uma das abordagens dominantes nas ciências filosóficas contemporâneas. A grande maioria dos filósofos se identifica com o naturalismo, embora o termo tenha uma ambiguidade própria. No entanto, a abordagem naturalista sobre o conceito de "sobre" (aboutness) segue uma agenda bem definida. Como argumenta Neander (2017, 3–4), o projeto da semântica naturalizada visa explicar os fatos e propriedades semânticas do mundo em termos dos fatos e propriedades não semânticas do mundo, com uma condição adicional que é notoriamente difícil de especificar. Basta dizer que essa condição adicional é, aproximadamente, que os fatos e propriedades não semânticos devem ser corroborados pelas ciências naturais.

O projeto naturalista defende que a representação ou o conceito de "sobre" tem suas raízes na natureza, significando que o significado tem uma origem natural. Paul Grice (1957) distingue entre significado natural e não natural. O significado natural, como o próprio nome sugere, existe na natureza. Exemplos típicos incluem a fumaça indicando fogo, as nuvens escuras sinalizando chuva iminente e o número de anéis em um tronco de árvore revelando a idade da árvore. Alguns filósofos acreditam que o significado natural serve como base para o significado não natural. Como a informação parece ser uma espécie natural – bem definida e bem estruturada – muitos defendem que ela é uma candidata forte para o significado natural. Eles propõem que a informação está por trás do significado e da intencionalidade, oferecendo uma explicação naturalista. Uma vez que a informação existe intrinsecamente na natureza, o desafio da intencionalidade passa a ser explicar como os organismos vivos utilizam relações informacionais para representar coisas relevantes para suas necessidades.

Essa abordagem parece promissora e tem levado a uma pesquisa produtiva nas últimas décadas. No entanto, ao examinar como esses filósofos definem a informação, encontramos variações significativas em suas explicações. Esta não é uma questão nova nos estudos da informação. Embora o conceito de informação desempenhe um papel unificador em disciplinas como física, biologia, ciência cognitiva e ciências sociais, sua interpretação varia consideravelmente entre os campos. É verdade que temos boas teorias formais da informação, que impulsionaram a comunicação, a computação e as tecnologias da informação, tornando essas facilidades uma mercadoria necessária em nosso cotidiano. No entanto, esses sucessos vêm a um custo – a perda do próprio significado da informação.

A concepção de informação na engenharia foca exclusivamente na análise quantitativa, negligenciando o conteúdo e o uso pragmático da informação – aspectos essenciais para o nosso entendimento sobre ela. Intuitivamente, informação é algo transportado por sinais sobre algo para algum uso. No entanto, as teorias formais abordam principalmente a quantidade de sinais, um aspecto restrito da natureza física da informação. Essa limitação torna-as insuficientes para explicar como os sinais físicos transmitem conteúdo abstrato, como os sinais passam a carregar significados específicos e como o conteúdo abstrato pode ter consequências físicas. Como resultado, as teorias atuais da informação são inadequadas para fundamentar uma teoria do significado ou da intencionalidade.

Não obstante, isso não significa que o projeto de fundamentar o significado na informação esteja fadado ao fracasso. Pelo contrário, compartilho da opinião de que essa abordagem continua promissora, desde que desenvolvamos uma teoria mais abrangente de informação. Tal teoria deve levar em conta os aspectos estruturais, referenciais e normativos da informação, estabelecendo assim a base para uma explicação naturalista convincente de referência e significado. Este é o objetivo deste livro.

Para construir uma teoria abrangente de informação, esta obra se propõe a realizar o seguinte: (1) Análise Conceitual. Demonstrar que a informação consiste em três aspectos inter-relacionados: Estrutural, referencial e normativo. As teorias existentes focaram largamente apenas no aspecto estrutural. (2) Revisão crítica das teorias naturalistas do significado. Argumentar que as dificuldades enfrentadas pelas abordagens naturalistas atuais decorrem de uma compreensão inadequada da informação. (3) Construção da Teoria. A partir da semiótica peirceana, propõe-se que a informação deve ser entendida como um fenômeno triádico: Carregado por sinais sobre algo para algum uso. A informação é inerentemente relacional e negativa. Essa perspectiva negativa esclarece as relações entre informação, termodinâmica, interpretação e evolução. Através da interpretação, as relações informacionais formam estruturas referenciais aninhadas: o icônico depende do indexical, que, por sua vez, depende do simbólico. (4) Aplicação. (a) Reformular o problema do embasamento dos símbolos como o problema do desfundamento e do reembasamento dos símbolos dentro desse framework, deslocando o foco para como as relações simbólicas podem ser desconstruídas sem perder seu poder referencial. (b) Fornecer uma base plausível para uma abordagem naturalista da intencionalidade, referência e significado. A teoria oferece soluções para os problemas da desinformação e da determinação de conteúdo.

A compreensão adequada da informação e suas várias camadas – estrutural, referencial e normativa – é essencial para qualquer teoria do significado, que, por sua vez, deve ser naturalista. A forma como as informações são transmitidas e as consequências da interpretação dessas informações dentro de um contexto evolutivo revelam aspectos profundos de como os seres vivos se relacionam com o mundo e atribuem significados às suas ações e interações.

Como a Linguagem Se Torna Um Sistema Simbólico: Da Aquisição à Autonomia Semiótica

No aprendizado de uma segunda língua, a relação entre palavras e frases não é uma simples correspondência direta entre termos de duas línguas. Em vez disso, ela se apresenta de forma complexa e indireta. Por exemplo, não existe uma tradução direta da palavra “pão” para o chinês, uma vez que o pão não fazia parte da história culinária da China. Da mesma forma, as palavras “céu” e “paraíso” não correspondem precisamente a “天” (tiān) em chinês. Quando começamos a dominar a segunda língua, mudamos nossa estratégia interpretativa. Deixamos de traduzir palavra por palavra e passamos a reconhecer as relações sistemáticas entre as palavras e frases dentro dessa língua. Nesse estágio, não dependemos mais da relação índice entre a segunda língua e nossa língua nativa. O significado de uma palavra ou expressão (legisign) passa a ser função de sua relação com outros signos dentro do sistema da língua (Deacon, 1997, p. 86). Nesse ponto, a língua secundária se desvincula da nossa língua nativa em nossa interpretação. Ao encontrarmos uma nova palavra, somos capazes de incorporá-la rapidamente ao sistema da língua, em vez de associá-la à nossa língua nativa.

No processo de aprendizado de uma segunda língua, já possuímos uma competência simbólica interpretativa. No entanto, isso nos leva a questionar: como adquirimos nossa língua nativa inicialmente? Um fenômeno notável no aprendizado de línguas é a rapidez com que os bebês adquirem a linguagem, geralmente por volta dos dois anos de idade. Antes dessa idade, não existe um aprendizado sistemático como o que ocorre no aprendizado de uma segunda língua. Em vez disso, o bebê se envolve em uma variedade de interações com o cuidador, que vão além de simples trocas verbais. Chomsky (1968, 1980) desenvolve o argumento da pobreza do estímulo, no qual afirma que a quantidade de input linguístico é insuficiente para explicar como os bebês adquiririam a linguagem. Interações linguísticas entre um bebê e o cuidador geralmente são fragmentadas, desestruturadas e frequentemente gramaticalmente incorretas. Além disso, há poucas correções de erros linguísticos. Mesmo assim, os bebês costumam adquirir uma gramática complexa e a habilidade de gerar infinitas novas frases, utilizando sentenças que nunca ouviram antes com facilidade. Se a linguagem não pode ser adquirida com esse tipo de input, ela deve ser inata—parte de uma gramática universal (Chomsky, 1968; 1980; Pinker, 1994).

Entretanto, Deacon (1997) argumenta que não existem diferenças anatômicas ou fisiológicas significativas entre o cérebro humano e o de outros animais. Não encontramos nada que se assemelhe a uma faculdade linguística. Ele e Raczaszek-Leonardi (em preparação) defendem que a abordagem da Gramática Universal inverte a causa e o efeito. As regularidades estruturais universais na linguagem resultam da interpretação simbólica, e não o contrário. Vamos agora explorar como um bebê aprende a língua. Na realidade, ele aprende de maneira semelhante à forma como aprendemos uma segunda língua. Diferente dos linguistas tradicionais, que afirmam que o input linguístico durante a infância é insuficiente, os bebês na verdade experimentam interações semióticas ricas com seus cuidadores. Expressões simples como “Mamãe!”, “Papai!” e “Leite!”, juntamente com diversos sons, expressões faciais e contato visual, desempenham funções indiciais. Essas expressões possuem continuidades espaço-temporais ou causais com as propriedades, processos ou eventos representados. O que distingue essas correlações indiciais das que ocorrem em traduções é que elas acontecem entre legisigns produzidos pelo cuidador e os objetos.

Esses legisigns indiciais não se diferenciam dos sinais dos animais, como os sinais de alerta dos macacos vervet ou a dança de oscilação das abelhas. É importante compreender, dentro da estrutura triádica semiótica de Peirce, que os bebês são capazes de interpretar esses legisigns como índices, da mesma forma que os animais. No entanto, os bebês se distinguem dos animais em suas capacidades cognitivas. À medida que seus cérebros e faculdades cognitivas se desenvolvem e à medida que adquirem inúmeras relações indiciais, os bebês começam a reconhecer as relações entre legisigns independentemente das correlações diretas com os objetos. Com esse reconhecimento das relações entre legisigns, ocorre uma mudança na estratégia mnemônica, deixando de depender de relações indiciais entre legisigns e objetos e passando a reconhecer as relações entre legisigns que fixam os referentes de forma indireta. Como resultado, o poder representacional de um símbolo depende de sua posição dentro de uma rede interligada de símbolos.

Além disso, o poder representacional de um símbolo não depende mais de sua correlação física com o objeto, uma vez que ele se distribui pelo sistema e ganha autonomia da realidade que representa. Essa transformação reduz a carga na memória e torna possíveis generalizações lógicas ou categóricas (Deacon, 1997, p. 88). Ao aprender um novo símbolo ou palavra, a relação referencial deixa de ser função da continuidade entre o legisign e o objeto. Em vez disso, ela passa a ser uma função das relações que essa nova palavra compartilha com outras palavras no sistema, o que oferece um conjunto limitado de maneiras de integrar novos itens (Deacon, 1997, p. 88).

Em resumo, os símbolos não podem ser compreendidos como uma coleção desestruturada de tokens que mapeiam para uma coleção de referentes, porque os símbolos não apenas representam coisas no mundo, mas também representam uns aos outros. Como os símbolos não se referem diretamente às coisas do mundo, mas se referem a elas indiretamente ao se referirem a outros símbolos, eles são entidades implicitamente combinatórias, cujo poder referencial é derivado pela ocupação de posições determinadas em um sistema organizado de outros símbolos. Tanto sua aquisição inicial quanto seu uso posterior exigem uma análise combinatória. A estrutura do sistema como um todo possui uma topologia semântica definida que determina as maneiras como os símbolos modificam as funções referenciais uns dos outros em diferentes combinações. Devido a essa base relacional sistemática da referência simbólica, nenhuma coleção de sinais pode funcionar simbolicamente a menos que toda a coleção se conforme a certos princípios gerais de organização. A referência simbólica emerge de um fundo de processos referenciais não simbólicos apenas porque as relações indiciais entre os símbolos são organizadas de modo a formar um grupo logicamente fechado de mapeamentos de símbolo a símbolo. Esse caráter determinante permite que o sistema de associações de ordem superior substitua o suporte referencial individual (índice) anteriormente investido em cada símbolo componente. Esse sistema de relações entre símbolos determina uma topologia definitiva e distintiva que todas as operações envolvendo esses símbolos devem respeitar para manter seu poder referencial.

Além disso, descrições indefinidas, gerais e abstratas são o resultado da interpretação simbólica. Devido ao poder indiciante distribuído e à autonomia dos símbolos, o significado—ou o sentido fregeano—dessas representações está desvinculado da realidade física, ou seja, elas não têm necessariamente referentes físicos. Não é necessário se preocupar com a metafísica dos seus referentes, pois eles podem não ter referentes físicos correspondentes, apesar do que o conteúdo dessas representações descreve. Para uma descrição indefinida, pode de fato existir um referente correspondente conforme descrito, mas a própria descrição não o representa diretamente. Ela adquire seu conteúdo através do sistema semiótico subjacente a ela. O mesmo vale para as descrições gerais e abstratas, embora com algumas diferenças. Ao contrário das descrições indefinidas, que podem se referir a um objeto específico, as descrições gerais e abstratas servem como generalizações lógicas ou categóricas.

Como a Falta de Comunicação Pode Gerar Equilíbrio em Jogos: O Caso do Taoísta e do Açougueiro

A história do Taoísta e do açougueiro é um exemplo fascinante de como a falta de comunicação pode, paradoxalmente, levar a uma interação bem-sucedida, sem que nenhuma informação real tenha sido transmitida entre os participantes. No entanto, esse sucesso não decorre de uma verdadeira troca de sinais ou de uma comunicação direta. Ao contrário, ele emerge de uma série de mal-entendidos recíprocos, onde as crenças e expectativas de cada parte sobre as ações do outro geram um equilíbrio, mesmo na ausência de entendimento compartilhado.

No cenário apresentado, o Taoísta e o açougueiro não se comunicam efetivamente, mas suas interações seguem um caminho que, embora baseado em interpretações errôneas, resulta em uma resolução que todos os envolvidos parecem aceitar. O Taoísta pensa que o açougueiro está lhe propondo enigmas através de gestos, enquanto o açougueiro acredita que o Taoísta está negociando sobre os porcos. Ambos fazem escolhas baseadas em previsões subjetivas sobre o que o outro pensa ou deseja, sem uma base comum de conhecimento.

Essa falta de comunicação direta e a suposição de que o outro está tomando decisões semelhantes cria um jogo complexo entre os envolvidos. O Taoísta acredita que o açougueiro entende sua estratégia, o açougueiro acredita que o Taoísta compartilha seu entendimento, e o imperador, observando a cena, também acredita que há um entendimento comum entre os dois. No entanto, o que realmente ocorre é uma forma de "jogo", onde cada participante toma decisões baseadas em suas próprias suposições, sem nenhum conhecimento compartilhado.

Ao analisarmos esse cenário sob a ótica da teoria dos jogos, podemos perceber que ele pode ser descrito como uma situação em que todos os participantes estão tentando maximizar seus próprios ganhos, baseados nas previsões das decisões dos outros. Essa dinâmica resulta em um equilíbrio de Nash, onde, apesar das suposições erradas, os resultados acabam sendo favoráveis para todos, sem que haja troca de informações real.

Esse cenário pode ser representado como três jogos distintos, cada um refletindo a percepção individual de cada jogador sobre a situação: o jogo do imperador (ge), o jogo do Taoísta (gt) e o jogo do açougueiro (gb). Mesmo sendo jogos diferentes, os equilíbrios de Nash desses jogos coincidem, apontando para a mesma solução, ou seja, o resultado (P2, Q2). Assim, embora as estruturas de cada um desses jogos sejam diferentes, todos convergem para o mesmo ponto, demonstrando que, mesmo sem comunicação real, pode-se alcançar uma solução mutuamente aceitável.

A chave para entender esse fenômeno está no conceito de crenças individuais. Cada participante acredita que sua percepção do jogo é compartilhada pelos outros. O imperador, por exemplo, acredita que o Taoísta e o açougueiro têm conhecimento comum de suas intenções, mas, na realidade, esse conhecimento é puramente subjetivo e baseado em mal-entendidos. Esse tipo de situação é caracterizado como um "mal-entendido recíproco", no qual todos os envolvidos operam sob suposições erradas, mas ainda assim conseguem chegar a um ponto de equilíbrio.

Esse cenário de mal-entendidos recíprocos é particularmente interessante quando o analisamos no contexto de jogos de sinalização. No caso do Taoísta e do açougueiro, os gestos de cada um podem ser interpretados como sinais. No entanto, os sinais têm significados diferentes para cada parte. Para o Taoísta, os gestos do açougueiro são enigmas; para o açougueiro, os gestos do Taoísta são parte de uma negociação. Apesar dessa discordância na interpretação dos sinais, os gestos ainda conseguem gerar um equilíbrio entre eles.

Contudo, esse tipo de mal-entendido recíproco não deve ser confundido com um processo de comunicação bem-sucedido. Embora as interações entre os dois pareçam ser um exemplo de jogo de sinalização, onde um sinal é enviado e interpretado, na realidade não há transmissão de informações. O que ocorre é uma forma de "pseudo-sinalização", onde as ações de cada parte são interpretadas de maneira errada, mas ainda assim conduzem a um resultado estável, de acordo com as expectativas de cada um.

Essa análise também nos leva a questionar a validade de certos pressupostos em jogos de sinalização tradicionais. Em jogos de sinalização típicos, como os analisados na teoria dos jogos, um equilíbrio de sinalização é alcançado quando as estratégias de envio e recepção de sinais convergem para um ponto de estabilidade. No entanto, no caso do Taoísta e do açougueiro, mesmo sem uma comunicação real, a interação ainda chega a um equilíbrio.

Esse tipo de situação desafia a ideia convencional de que a comunicação eficaz é necessária para que um equilíbrio seja alcançado em jogos de sinalização. A interação bem-sucedida entre o Taoísta e o açougueiro, apesar dos mal-entendidos, mostra que, em alguns casos, o sucesso pode surgir da incapacidade de comunicar de forma clara, desde que as partes envolvidas operem dentro de suas próprias suposições e expectativas. Isso coloca em questão o papel da comunicação real na formação de equilíbrios em jogos complexos e na resolução de conflitos.

Além disso, é importante perceber que essa situação de mal-entendido recíproco pode ser aplicada a outros contextos da vida real, especialmente em ambientes onde as pessoas têm diferentes interpretações sobre as intenções e ações dos outros. Mesmo quando não há uma comunicação direta ou clara, as interações podem seguir um caminho de entendimento mútuo, baseado nas expectativas de cada um. No entanto, é essencial que, em contextos mais complexos, onde a informação precisa ser compartilhada de maneira clara, os mal-entendidos possam ter consequências mais graves.

Como Medir a Informação e a Capacidade de um Canal de Comunicação: Uma Perspectiva de Shannon

A teoria da informação de Shannon, formulada em 1948, forneceu uma estrutura rigorosa para compreender a quantidade de informação transmitida através de um canal de comunicação. Ao definir o sistema de comunicação, Shannon simplifica os processos envolvidos em uma troca de mensagens entre o transmissor e o receptor. A comunicação pode ser descrita em cinco etapas essenciais: a origem da mensagem, a transformação da mensagem em sinais, a transmissão desses sinais através de um canal, a recepção dos sinais e, finalmente, o destino da mensagem. No entanto, Shannon foca sua atenção exclusivamente nas etapas de transformação e transmissão dos sinais, deixando de lado o significado intrínseco da mensagem.

Shannon propôs que a quantidade de informação transmitida por um sinal não depende de suas propriedades intrínsecas, mas da incerteza que ele resolve ao ser selecionado de um conjunto de sinais possíveis. Isso pode ser formalizado usando a teoria da probabilidade. Se um sinal é selecionado de um conjunto com dois sinais igualmente prováveis, a quantidade de informação que ele carrega é de 1 bit, que é a medida de redução da incerteza. Quando o sistema de origem gera uma gama de estados, a informação gerada pela ocorrência de um estado pode ser medida pela fórmula I(si)=log2p(si)I(s_i) = -\log_2 p(s_i), onde p(si)p(s_i) é a probabilidade do estado sis_i ocorrer.

Além disso, a entropia informacional de uma origem SS é dada pela soma das probabilidades dos estados multiplicadas pelo logaritmo da inversa dessas probabilidades:

H(S)=i=1np(si)log2p(si)H(S) = - \sum_{i=1}^{n} p(s_i) \log_2 p(s_i)

O destino da mensagem, por sua vez, pode ser modelado de maneira semelhante, com a entropia informacional H(D)H(D) representando a quantidade de incerteza no estado do destino. A quantidade de informação transmitida de SS para DD não é necessariamente igual a essas entropias, sendo mais apropriadamente medida pela informação mútua, que quantifica a quantidade média de informação que é gerada em SS e recebida em DD.

A informação mútua depende da relação entre SS e DD, mas também é afetada pela presença de ruído e ambiguidade no canal. O ruído NN refere-se à informação que chega ao destino, mas não é gerada pela origem, enquanto a ambiguidade EE diz respeito à informação que é gerada pela origem, mas não chega ao destino. Em um canal ideal sem ruído, a informação recebida no destino seria igual à informação gerada na origem, ou seja, H(D)=H(S)H(D) = H(S). No entanto, em sistemas reais, a presença de ruído e ambiguidade significa que a quantidade de informação recebida no destino será sempre inferior à quantidade gerada pela origem.

A informação mútua é dada pela seguinte relação:

I(S;D)=H(S)E=H(D)NI(S; D) = H(S) - E = H(D) - N

Se SS e DD forem independentes, então EE e NN são máximos, resultando em nenhuma troca de informação, ou seja, H(S;D)=0H(S; D) = 0. Quando há dependência entre SS e DD, os valores de EE e NN diminuem, aumentando a quantidade de informação mútua. O valor máximo da informação mútua é também uma medida da capacidade do canal, que reflete a quantidade máxima de informação que o canal pode transmitir de forma confiável.

A fórmula para calcular a informação mútua pode ser expandida considerando as probabilidades conjuntas entre os eventos sis_i e djd_j:

I(S;D)=i=1nj=1mp(dj,si)log2(p(dj,si)p(dj)p(si))I(S; D) = \sum_{i=1}^{n} \sum_{j=1}^{m} p(d_j, s_i) \log_2 \left( \frac{p(d_j, s_i)}{p(d_j) p(s_i)} \right)

Essa equação mostra como a probabilidade conjunta entre os eventos sis_i e djd_j se relaciona com as probabilidades individuais dos eventos. A informação gerada em DD, dado que SS ocorreu, é simétrica, ou seja, a informação transmitida de SS para DD é igual à informação transmitida de DD para SS, o que justifica o termo "informação mútua".

Em essência, a teoria da informação de Shannon nos permite medir a quantidade de informação que passa de um ponto a outro em um sistema de comunicação, levando em conta o contexto probabilístico e as propriedades do canal. No entanto, é crucial entender que essa teoria não aborda o "conteúdo significativo" da mensagem, ou seja, a relevância semântica da informação transmitida. Este é um aspecto que, embora importante, foi deliberadamente deixado de lado na formulação original da teoria.

Com o tempo, estudiosos como Yehoshua Bar-Hillel e Rudolf Carnap procuraram expandir a teoria de Shannon para incluir essa dimensão significativa da informação. Segundo Bar-Hillel, embora a teoria de Shannon seja clara ao afirmar que ela trata apenas da quantidade de informação e não do conteúdo significativo, na prática, é difícil evitar a tentação de associar a "informação" à mensagem transmitida. A distinção entre a "sequência de sinais" e o "conteúdo expresso pela sequência de sinais" é fundamental, pois o evento de transmissão de uma sequência de símbolos e o evento expresso por essa sequência de símbolos são, em geral, eventos logicamente distintos, com probabilidades diferentes associadas a eles.

Em resumo, enquanto a teoria de Shannon fornece uma maneira formal de medir a quantidade de informação em um sistema de comunicação, ela deixa de lado a questão do significado, que, apesar de não ser abordada diretamente na teoria original, continua sendo um elemento essencial para a compreensão completa da informação em contextos mais amplos. É isso que a teoria da informação de Shannon, apesar de sua profundidade e precisão, não consegue capturar em sua totalidade: o papel da informação como algo mais do que apenas uma redução de incerteza, mas como algo que carrega um conteúdo significativo.