Millikan (2017) desenvolve uma descrição metafísica do mundo com o objetivo de fornecer uma base realista para a informação natural. Contudo, mesmo com esses avanços, persistem dificuldades substanciais para resolver problemas cruciais. O primeiro desses problemas refere-se ao conceito de "infosign", que, para Millikan, deve ser um sinal localmente recorrente de um evento, vinculado a uma família recorrente de sinais naturais. De acordo com essa teoria, um "infosign" é um tipo de sinal que pode ser utilizado por organismos para se tornar um signo intencional, ou seja, um sinal carregado de significado. No entanto, os organismos frequentemente tratam uma simples correlação como um signo intencional. A função semântica desses sinais, segundo Millikan, é derivada, e, para compreendê-la completamente, é necessário entender como ela é derivada a partir de outros sinais naturais.

Além disso, Millikan argumenta que, embora os sinais intencionais sejam definidos dentro de sistemas cooperativos entre produtores e consumidores, é o consumidor quem determina seu significado. No entanto, ela também exige que os "infosigns" fundamentem os sinais intencionais, ainda que estes não carreguem informação natural no sentido tradicional. Isso sugere que correlações acidentais poderiam se tornar funções semânticas intencionais se atenderem aos propósitos do consumidor, o que desafia a ideia de que os "infosigns" sejam necessários para que um sinal se torne intencional. Em última análise, a falta de uma explicação satisfatória sobre como a informação natural pode se tornar significado intencional permanece um problema central.

Porém, apesar dessas abordagens naturalistas, uma teoria amplamente ignorada pela filosofia dominante é a semiótica de Peirce, que compreende os signos como algo sempre interpretado por um "interpretante" — algo que traduz e interpreta o sinal em outros signos. A interpretação, assim, é considerada necessária para que algo seja considerado um signo. Essa perspectiva parece subjetiva e, à primeira vista, incompatível com o naturalismo. No entanto, defendo a ideia de que a semiótica peirceana, com sua naturalização moderna através da biosemiótica, oferece uma maneira inovadora de compreender o significado, sem enfrentar os problemas apontados pelas teorias anteriores. A teoria de Peirce permite que entendamos o significado como algo que se fundamenta na informação, mas dentro de um quadro biosemiótico, especialmente o modelo de dinâmica emergente e biosemiótica proposto por Deacon (1997; 2012a). Esse modelo resolve ou elimina muitos dos desafios que as abordagens naturalistas anteriores enfrentam, como o problema do sentido e da referência, o problema da determinação do conteúdo, o uso de sinais pelos organismos, o problema da misrepresentação (ou da normatividade), e o problema da emergência da linguagem.

A semiótica peirceana, ao naturalizar a interpretação, oferece uma explicação mais robusta de como os sinais podem carregar significado dentro de uma estrutura física, sem cair nas limitações das teorias anteriores. O modelo de Deacon propõe que a interpretação, longe de ser um fenômeno meramente subjetivo, é um processo fundamentalmente biológico, que permite que sinais naturais se transformem em signos carregados de significado. O conceito de autogênese proposto por Deacon é central para esse entendimento, sugerindo que os sistemas interpretativos primitivos podem emergir de interações simples em níveis biológicos, como em organismos unicelulares, e se desenvolver de forma complexa ao longo da evolução.

Por fim, a análise semiótica de Peirce e a abordagem biosemiótica têm o potencial de resolver as questões centrais sobre a fundação do significado e da intencionalidade, fornecendo uma base naturalista sólida para entender a referência, a normatividade e a representação. Ao integrar a interpretação dentro de um framework biológico e naturalista, é possível superar as dificuldades que surgem quando tentamos explicar o significado de maneira independente de processos interpretativos.

Como Medir a Complexidade da Informação e o Conceito de Informação Referential

A informação, como frequentemente entendida, é a redução da incerteza, um conceito formalizado na teoria da comunicação de Shannon. Contudo, ao analisarmos a complexidade e a medição da informação, podemos observar nuances que vão além da simples quantidade de alternativas possíveis que um sinal pode representar. Quando se fala da complexidade de uma sequência de símbolos, como a mensagem "Eu te amo", é necessário entender que ela é mensurável de maneira intrínseca e extrínseca.

A primeira forma de mensuração, a intrínseca, refere-se à complexidade da sequência de símbolos em si. Por exemplo, a frase "Eu te amo" pode ser decomposta em seus tokens — oito letras e dois espaços. A complexidade de tal sequência é uma característica independente de qualquer outro contexto, como a forma como ela é transmitida. Para calcular a quantidade de informação necessária para representar essa sequência de forma eficiente, utiliza-se a complexidade de Kolmogorov, que define o grau de complexidade de uma sequência como a menor descrição possível de um algoritmo que possa gerá-la. Assim, podemos medir a complexidade de uma sequência sem levar em conta o contexto externo. A mensagem em si, portanto, possui uma medida intrínseca de complexidade.

Por outro lado, a abordagem extrínseca de medição de informação, como proposta por Shannon, leva em consideração o contexto em que um sinal é transmitido e a quantidade de incerteza que ele reduz ao ser enviado. De acordo com essa teoria, a informação carregada por um sinal não depende da sequência em si, mas das alternativas que poderiam ser enviadas. A quantidade de informação é determinada pela redução da incerteza sobre o que poderia ter sido transmitido em vez daquele sinal específico. Em outras palavras, a informação não é intrinsecamente definida pelo próprio sinal, mas pela comparação com outros sinais possíveis.

Essa distinção entre medição intrínseca e extrínseca da informação é fundamental para entender como a informação é transferida e como ela é tratada em diferentes sistemas de comunicação. Por exemplo, ao analisar uma mensagem em que a sequência de símbolos "Eu te amo" é transmitida, a quantidade de informação que ela carrega, sob a ótica de Shannon, depende das alternativas de mensagens possíveis e da redução de incerteza que ela causa no receptor.

Além disso, a questão da informação referencial surge quando analisamos a relação entre um sinal e o objeto ou evento a que ele se refere. A mensagem "Eu te amo" transmite um significado, mas a relação entre a sequência de símbolos e o sentimento de amor que ela representa não é intrínseca à sequência de símbolos. Isso significa que, embora a sequência de símbolos em "Eu te amo" seja um meio de comunicação, ela não tem uma relação direta com o conceito de amor em si. A relação entre a mensagem e o objeto de sua referência é, portanto, extrínseca e depende do contexto e da interpretação do receptor.

A informação referencial é o aspecto da informação que descreve essa relação de referência entre o sinal e o objeto ou evento ao qual ele se refere. O conteúdo referencial de uma mensagem não é determinado pelo próprio sinal, mas pela interpretação que o receptor faz do sinal dentro de um contexto específico. A informação referencial é, portanto, algo que depende do receptor e do mundo externo, e não apenas da forma do sinal em si.

A distinção entre significado e informação referencial também é crucial. O significado de um sinal pode ser interpretado de várias maneiras, enquanto a informação referencial está mais relacionada à verdade ou à correspondência do sinal com a realidade. Por exemplo, uma mensagem como "Xi Jinping é o presidente da República Popular da China em 2020" pode ser interpretada em diferentes formas (em diferentes idiomas ou até em diferentes mídias), mas sua veracidade, ou a relação da mensagem com o evento real, é o que define sua informação referencial. Em outras palavras, a informação referencial é vinculada à verdade e ao contexto em que é interpretada.

Outro ponto importante a ser considerado é que a informação referencial não está limitada aos símbolos linguísticos. Fenômenos naturais como as pegadas de um animal ou as expressões faciais de uma pessoa também carregam informação referencial, mesmo que não sejam sinais convencionais. A diferença entre significado e informação referencial também fica clara quando analisamos situações em que o significado de uma mensagem pode ser conhecido pelo receptor, mas ainda assim a mensagem carrega informação nova, como no caso de um segredo revelado ou uma revelação inesperada.

Além disso, a veracidade da informação referencial é uma característica essencial. Para que a informação referencial seja válida, ela deve corresponder à realidade. Se um sinal é enviado e o conteúdo que ele carrega não corresponde à verdade, como no caso de uma mentira, então o sinal não transmite uma informação referencial verdadeira. Isso está relacionado à tese da veracidade da informação, que defende que a informação referencial deve ser verdadeira para que tenha valor como informação.

Portanto, compreender a diferença entre os aspectos intrínsecos e extrínsecos da medição da informação, bem como a distinção entre significado e informação referencial, é fundamental para entender como a informação é processada e transmitida em sistemas de comunicação. Isso nos ajuda a perceber que a informação não é apenas um conjunto de símbolos, mas uma relação dinâmica entre sinais, contexto e interpretação.

O Problema da Desinformação e o Problema da Indeterminação do Conteúdo

Com a teoria dinâmica da fisicalidade da informação proposta por Deacon, abordamos o status metafísico da informação e localizamos a base natural para a informação referencial ou representação. Como as restrições e a propagação das restrições são onipresentes, alguns argumentam que isso constitui informação, que permeia a natureza e pode até ser fundamental para o universo. Essa é a ideia do fundamentalismo, apresentada na introdução. Nesta seção, argumentarei que o fundamentalismo sobre informação e significado é falho, devido à normatividade da informação e, consequentemente, ao problema da desinformação e ao problema da indeterminação do conteúdo.

Paul Grice (1957) distingue entre dois tipos de significado: o significado natural e o significado não natural. A principal diferença é que o significado não natural pode ser falso, enquanto o significado natural não pode. Por exemplo, um sinal que tem o poder de ser falso significa algo que não é o caso. Um menino pode gritar “O lobo está aqui!” quando não há lobo, enquanto uma nuvem escura não indica chuva a menos que realmente chova. Isso demonstra que a representação tem o poder de se representar erroneamente, enquanto as correlações na natureza, por si mesmas, não podem. A natureza, tal como é, não pode estar errada.

Contudo, alguns podem argumentar que, quando se vê uma nuvem escura e a interpreta como um sinal natural de chuva, mas a chuva não se manifesta, a nuvem, como um sinal natural, pode ser falsa. Nesse caso, a nuvem é interpretada como um sinal de chuva, mas não se correlaciona com a chuva em si. O poder de se representar erroneamente é essencial para entender a intencionalidade, porque a intencionalidade envolve a capacidade de errar. Como coloca Dretske (1986, 65), “Qualquer palavra que usamos para descrever a relação de interesse (representação? significado?) é o poder de se representar erroneamente, a capacidade de errar, de dizer coisas que não são verdadeiras, que ajuda a definir a relação de interesse.” Esse é o aspecto normativo da representação ou sobre o que ela se refere. Apenas com normatividade é que uma representação pode ser verdadeira ou falsa, precisa ou imprecisa. A normatividade é um conceito teleológico — algo só pode ser considerado verdadeiro ou falso em relação a um propósito. As correlações na natureza são simplesmente o que são; elas não são teleológicas e, portanto, não são normativas. Assim, não podemos equiparar a base natural da representação, ou a correlação localmente recorrente, à própria representação. Além disso, para entender a intencionalidade ou o significado, devemos explorar a origem do aspecto normativo da representação.

Outro desafio enfrentado pelo fundamentalismo é o problema da indeterminação do conteúdo (Dretske 1981; 1986; 1988; Fodor 1984; Neander 1995). Uma representação normalmente tem um conteúdo definido — as coisas representadas — mas esse conteúdo não pode ser determinado apenas pela correlação em si. Especificamente, para qualquer dado sinal e seu correspondente ente representado, parece haver mais de uma maneira de descrever o representado (Neander 1995, 113). Isso é conhecido como o problema da disjunção. Para ilustrar, tomemos o exemplo proposto por Dretske (1981; 1986).

Suponha que você ouça o som de uma campainha, que informa que há um visitante do lado de fora da porta. Em outras palavras, o som da campainha indica a presença do visitante. Indicar a presença do visitante é a função definitiva da campainha. O sistema da campainha é um sistema de comunicação realizado através de uma sequência de eventos físicos: pressionar o botão da campainha por um visitante ativa um circuito elétrico, que aciona um eletroímã, gerando um campo magnético, que aciona um mecanismo que cria um som, o que causa vibrações no tímpano de alguém dentro da casa, resultando em sinais neurais enviados ao cérebro e assim por diante. Se pensarmos nesse processo em termos de propagação de restrições, poderíamos dizer que a restrição produzida pela pressão do botão da campainha é propagada através dos sinais neurais. Através dessa comunicação de restrições, a informação sobre o visitante do lado de fora da porta é transmitida à pessoa que ouve o som. No entanto, quando uma pessoa ouve o som, ele poderia carregar informações sobre qualquer evento dessa sequência, já que cada evento na sequência se correlaciona de forma confiável com os outros, e as restrições de um evento são propagadas para os demais. Assim, não podemos determinar o conteúdo do som simplesmente examinando os processos físicos que realizam a campainha. Além disso, considerando a proximidade dos eventos: o visitante pressionando o botão é um evento distal em comparação com a vibração do tímpano do receptor. Então, por que o sinal sonoro se refere ao evento distal, o visitante do lado de fora da porta, em vez do evento proximal? Essa pergunta não pode ser respondida apenas pela propagação das restrições. Este é um caso em que diferentes eventos se relacionam causalmente dentro da mesma sequência de eventos (Neander 2017). Dado um sinal M recebido por um receptor através de uma sequência de eventos E1, E2, E3, ..., En, M poderia indicar qualquer evento nesta sequência, já que qualquer correlação entre M e um evento é um processo de propagação de restrições. Então, por que M se refere ao evento distal, em vez de a um evento proximal? A propagação das restrições por si só não pode determinar a referência de M — ela simplesmente ocorre.

Há também casos em que diferentes eventos ocorrem simultaneamente dentro do mesmo contexto local. Dretske (1986; 1988) imagina bactérias marinhas que vivem no hemisfério norte e possuem imãs internos. Esses imãs alinham as bactérias com o campo magnético da Terra, que inclina para baixo no hemisfério norte. Como resultado, as bactérias se movem em direção ao norte geomagnético, afastando-se da água da superfície e indo para as profundezas oceânicas sem oxigênio, pois elas só podem sobreviver na ausência de oxigênio. Nesse caso, o movimento em direção às profundezas oceânicas e o ambiente sem oxigênio ocorrem ao mesmo tempo e no mesmo lugar. Mas a que se referem essas linhas magnéticas — ao norte geomagnético ou ao ambiente sem oxigênio? Formalmente, dado um sinal N, as probabilidades de uma série de eventos, E1, E2, E3, são as mesmas. Ou seja, N se correlaciona de forma confiável com cada um dos eventos dessa gama. Então, qual evento N representa? Ou por que N representa um evento em vez dos outros? As correlações localmente recorrentes simplesmente acontecem e não selecionam um evento em detrimento de outro. Elas não podem fixar a que um sinal se refere. Para resolver isso, deve haver uma relação de interesse que determine o conteúdo de um sinal. Portanto, as correlações na natureza ou a propagação de restrições não são suficientes para definir o significado. O fundamentalismo está equivocado. Seguindo Millikan (2017), podemos ver a propagação de restrições como uma possibilidade para as relações referenciais, mas não como algo que determina o significado por si só. Para entender completamente o significado, precisamos investigar de onde vem o aspecto normativo dele.

Como o Fluxo de Informação Genética Pode Ser Entendido em Termos Semióticos e Interpretativos?

O princípio fundamental da biologia molecular, consagrado pelo dogma central, estabelece que a informação genética é inicialmente codificada pela estrutura sequencial do DNA. Durante a replicação, essa informação é transcrita e codificada pelo RNA mensageiro (mRNA), por meio de um processo de correspondência de templos (transcrição). O mRNA, agora portador da informação genética, forma um complexo com ribossomos e RNA de transferência (tRNA), que servem de molde para a síntese de proteínas. Esse processo assegura que as proteínas se dobram nas estruturas corretas com base nas informações genéticas representadas pelo mRNA. Embora haja transferências de informação genética que fogem ao alcance do dogma central, ele continua a ter um papel significativo na biologia molecular.

Contudo, a questão que se coloca não diz respeito à capacidade do dogma de se manter válido, mas sim à sua natureza puramente mecanicista. Ao analisar o processo, é evidente que vários conceitos com conotações teleológicas óbvias, como código, informação, transcrição, tradução e correção, são intrínsecos a ele. Como esses conceitos podem ser reconciliados com uma explicação mecanicista? Uma resposta comum sugere que esses termos são frequentemente usados de forma metafórica, com a crença de que, no final, poderão ser explicados em termos físicos. Por exemplo, biólogos utilizam os termos “código” e “informação” de maneira altamente restrita, em contraste com as noções mais amplas e semânticas que normalmente implicam (Sarkar, 1996; Godfrey-Smith, 2000; Griffiths, 2001).

Há, no entanto, uma questão mais profunda a ser considerada. Embora os genes codifiquem sequências de aminoácidos para a formação de proteínas, isso não justifica a ideia de que os genes codificam o fenótipo de um organismo como um todo. De acordo com Godfrey-Smith e Sterelny (2016), a relação entre os genes e as proteínas é limitada à sequência de aminoácidos, sem se estender ao fenótipo completo do organismo. A percepção de que o código genético é arbitrário, em grande parte, é superficial, resultado das lacunas em nosso entendimento sobre as complexas interações entre os tripletos de bases do DNA e os aminoácidos. Como apontam esses autores, a própria noção de arbitrariedade do código genético é difícil de sustentar.

Em um trabalho inovador, Hoffmeyer e Emmeche (1991) argumentam que o fluxo de informação genética durante a síntese de proteínas deve ser entendido como um ato interpretativo, ou semiótico. Eles propõem que o conceito de informação precisa ser redefinido dentro da semiótica peirceana. Se a informação genética for vista simplesmente como a determinação de sequência, ela se tornará indistinguível de outras formas de organização na natureza. O que distingue a informação genética de outras formas de informação biológica durante o desenvolvimento ontogenético é sua natureza semiótica: ela funciona como signos que representam algo dentro de sistemas interpretativos. Embora as sequências genéticas sejam relativamente independentes e estáveis dentro das células, elas não devem ser compreendidas isoladamente. A informação de sequência deve ser considerada dentro do contexto mais amplo do desenvolvimento ontogenético e da reprodução, onde é interpretada.

Hoffmeyer e Emmeche descreveram a semiose no nível do organismo da seguinte maneira: "No processo epigenético, o DNA, ou seja, o genoma, pode ser visto como apenas um fragmento de um fluxo evolutivo de signos transmitidos pelas gerações. O interpretante que seleciona esses signos, entre as inúmeras diferenças internas no citoplasma, é o óvulo fertilizado, o zigoto. O zigoto, o 'verdadeiro' sujeito da biologia, consegue decifrar a mensagem elaborada contida no DNA, utilizando-a para dominar o processo epigenético, ou seja, a construção do fenótipo, o organismo real." (Hoffmeyer e Emmeche, 1991, 143)

Neste contexto de semiose, o zigoto inicia o processo de decifração da mensagem do DNA, transformando-se gradualmente em embrião em resposta à interpretação dessa mensagem. Ao contrário da biologia molecular, que vê o desenvolvimento ontogenético como um processo bioquímico guiado pela informação genética, a biosemiótica o compreende como uma forma de semiose. Esse ponto de vista enfatiza que o processo só pode ocorrer dentro de um sistema interpretativo, como o zigoto. Como o zigoto atua como um sistema interpretativo, a normatividade do código genético (informação) deixa de ser um mistério. Porém, assim como outras teorias que apelam à interpretação, ainda é necessário um entendimento mais profundo sobre como essas interpretações funcionam. Devemos compreender, então, em que sentido esses processos podem ser considerados interpretativos.

Hoffmeyer e Emmeche (1991) usam o conceito de "dupla codificação" para explicar como a semiose opera na síntese de proteínas. A dupla codificação refere-se à transmissão recursiva de informação por meio das interações entre códigos digitais e analógicos. Códigos digitais são aqueles em que os componentes são símbolos discretos, conectados por relações arbitrárias, enquanto os códigos analógicos dependem de semelhanças espaciais-temporais, de parte para o todo ou de continuidade causal. Códigos digitais são usados para o armazenamento de memória, enquanto os códigos analógicos facilitam o processo de decodificação e instrução para a realização física. De acordo com o conceito de dupla codificação, os códigos genéticos funcionam como códigos digitais, enquanto os processos de transcrição e tradução operam como códigos analógicos. A semiose no nível dos autógenos, ou sistemas auto-organizados, também segue esse princípio, mas de uma maneira distinta.

Em contraste com a dupla codificação observada na síntese de proteínas, os autógenos não apresentam diferenciação física. Os dois processos auto-organizadores nos autógenos fornecem mutuamente as condições críticas para a manutenção do sistema. A preservação dessas condições garante a continuidade do autogen, assegurando que os mesmos limites sejam mantidos e reproduzidos. Isso significa que as condições críticas de limite são armazenadas na sequência informacional do próprio autogen, representando e reproduzindo as condições necessárias para sua existência (Deacon, 2021).

As condições de limite nos autógenos são digitais, pois arbitrárias, mas também analógicas, pois se realizam por continuidade espaço-temporal e causal. O comportamento autossustentável e autorreprodutivo de um autogen reflete uma forma primitiva de semiose. O autogen codifica informações sobre seus próprios limites, e quando danificado, os componentes restantes iniciam um processo de autossuperação e autoreprodução, conforme as condições ambientais. Esse código autoreferencial implementa uma forma primitiva de interpretação semiótica.

Como Medir o Conteúdo Informativo: Teorias e Desafios

As teorias sobre como medir o conteúdo informativo têm se diversificado ao longo do tempo, partindo da análise quantitativa de sequências de sinais até abordagens mais complexas que envolvem a semântica e o contexto de quem recebe a informação. As discussões sobre o que constitui uma medida adequada para o conteúdo informativo revelam um campo cheio de questões não resolvidas e paradoxos lógicos que merecem uma análise mais profunda.

Embora as fórmulas de Shannon sobre a quantidade de informação se refiram especificamente a sequências de sinais e não ao aspecto semântico da informação, elas ainda fornecem uma base para formulações gerais sobre o conteúdo informativo. Bar-Hillel e Carnap, por exemplo, tentaram superar essa limitação utilizando a probabilidade indutiva de afirmações dentro de um conjunto de todas as possíveis descrições dos estados do universo. Para esses teóricos, a quantidade de conteúdo informativo de uma afirmação é medida pelo número de afirmações que ela exclui. Quanto mais afirmações uma determinada proposição exclui, maior é o seu conteúdo informativo. Formalmente, o método de medir a quantidade de conteúdo informativo é idêntico às fórmulas na teoria de Shannon, embora não seja o foco aqui detalhar essa relação.

Contudo, esse projeto, embora significativo, enfrenta várias questões não resolvidas. Uma delas, apontada por Floridi (2004) e reconhecida por Bar-Hillel e Carnap desde o início, é a contradição lógica que surge quando se considera que uma tautologia carrega zero conteúdo informativo. Uma tautologia, sendo autossuficiente, não exclui nenhuma outra afirmação. Por outro lado, uma sentença contraditória carrega o máximo de conteúdo informativo, pois exclui todas as outras afirmações devido à sua inconsistência. Essa conclusão é contraintuitiva. Muitas provas em matemática podem ser vistas como tautologias, pois suas inferências são dedutivas, e, empiricamente, ao descobrirmos uma nova prova, ganhamos de fato informação. Quanto à segunda dificuldade, é amplamente aceito que sentenças contraditórias não carregam informação útil, um ponto que Floridi aborda como o "paradoxo Bar-Hillel-Carnap".

Além disso, alguns dos pressupostos dessa teoria são questionáveis. A teoria formal utilizada por Bar-Hillel e Carnap baseia-se em uma lógica proposicional de primeira ordem e na indução de Carnap. O problema central está no pressuposto de que o número de proposições que descrevem todos os possíveis estados do universo seja finito. Essa suposição é duvidosa, pois seria possível oferecer descrições semânticas quase infinitas dos estados do universo, dada a infinidade de combinações de propriedades. Como resultado, qualquer sinal poderia teoricamente carregar uma quantidade infinita de informação sem uma classe de referência adequada, gerando um paradoxo infinito na teoria. No entanto, o esforço de Bar-Hillel e Carnap ilustra que a relação entre a teoria de Shannon e o conteúdo informativo é mais complexa do que os primeiros pesquisadores imaginaram.

A teoria semântica de Dretske sobre a informação oferece uma abordagem significativa, especialmente na tentativa de naturalizar o significado e a intencionalidade. Dretske define o conteúdo informativo de forma precisa: um sinal r carrega a informação de que s é F se a probabilidade condicional de s ser F, dado r (e k), for 1, mas dado k sozinho, for menor que 1. Nesse sentido, a relação entre o sinal e o estado de F deve ser necessária e regular, sendo uma relação nomicamente regular. Em outras palavras, a ocorrência do sinal r deve ser uma consequência direta do fato de que s é F, e vice-versa.

Um aspecto importante dessa definição é que o conteúdo informativo é relativo ao conhecimento prévio do receptor, ou seja, ao que ele já sabe sobre os possíveis estados na origem. Dretske argumenta que "quanto mais informação um sinal carrega, mais depende do que o receptor já sabe sobre as possibilidades que existem na fonte". Isso introduz o aspecto relativo da informação, que depende do conhecimento de fundo dos receptores potenciais. No entanto, essa afirmação parece entrar em conflito com a sua visão de que a informação é objetiva, mas relativa, assim como o peso ou a altura de um objeto.

Além disso, Dretske introduz o conceito de relações de conteúdo informativo aninhadas. Por exemplo, "João é homem" está analiticamente aninhado em "João é solteiro", porque a definição de "solteiro" implica que a pessoa é um homem. Já as relações nomicamente aninhadas são garantidas por leis naturais. Isso significa que um sinal carrega várias camadas de informação, que podem ser extraídas em diferentes níveis de análise, dependendo do interesse e da perspectiva do receptor.

A teoria de Dretske, embora influente, enfrenta críticas, como a questão da força do critério condicional de probabilidade, que exige que ele seja igual a 1. Esse critério é excessivamente rígido, especialmente quando se leva em conta que a frequência estatística, e não a necessidade natural, é o que organismos vivos geralmente dependem ao usar sinais naturais para fins específicos. Por exemplo, um coelho pode perceber um sinal de aviso sobre a presença de um predador, mas a probabilidade de um predador realmente aparecer, dado o sinal, pode ser muito inferior a 1. Mesmo assim, para o coelho, essa informação é valiosa, porque pode ser uma questão de vida ou morte.

Ao combinar o conhecimento de fundo dos receptores com o princípio de informações aninhadas, podemos distinguir entre a informação que o receptor está interessado em extrair dos sinais e a informação realmente presente neles. Contudo, essa combinação cria uma tensão, pois as informações que um receptor pode extrair de um sinal nem sempre correspondem exatamente ao conteúdo informativo que o sinal possui de fato. Isso traz à tona a complexidade de se medir e entender a informação em seus diferentes contextos e dimensões.