A teoria da informação natural de Millikan apresenta uma abordagem robusta sobre como os signos naturais, ou infosigns, podem servir como indicadores para organismos, refletindo uma relação informacional enraizada no contexto local. Diferente das abordagens de Stampe e Dretske, que discutem a correlação entre eventos de maneira mais rígida e contextual, Millikan argumenta que uma correlação estatística é suficiente para estabelecer uma relação informacional natural. Para que um evento A seja um infosign de outro evento B, a correlação entre A e B precisa ser recorrente e fundamentada por uma razão específica, dentro de um domínio local.

A ideia central é que as correlações não precisam ser perfeitas ou absolutas, mas devem ser persistentes e não acidentais, indicando uma dependência entre os eventos na natureza. Ou seja, um evento pode ser considerado um infosign desde que essa correlação estatística exista e seja relevante para um determinado domínio local. Este entendimento permite que a teoria de Millikan se afaste das limitações de teorias como a de Dretske, que não levam em conta as condições de canal ou o contexto local das correlações.

Para que um infosign tenha sentido, é necessário que sua correlação com o evento significado seja mais do que uma simples associação estatística; ela deve seguir um princípio de mapeamento semântico. Ou seja, a relação entre o infosign e seu significado é uma função que traduz as propriedades do primeiro nas propriedades do segundo. Isso implica que a significação de um signo é uma função de variáveis significativas ou determináveis exibidas pelo signo, e essas variáveis devem ser passíveis de transformação matemática. A função de mapeamento semântico que conecta um infosign ao seu significado permite que o sistema de signos seja produtivo, ou seja, que ele seja capaz de gerar novas informações a partir de sua estrutura e funcionamento.

Millikan também aborda como a informação natural pode ser incorporada em múltiplos níveis, no conceito de "infosign de infosign". Ou seja, signos podem ser compostos por outros signos que, por sua vez, carregam sua própria informação natural. Esse empilhamento de signos, que depende de funções semânticas encadeadas, é o que permite que a informação natural seja transmitida de forma contínua e escalável.

No entanto, Millikan se distingue ao afirmar que, ao contrário dos signos intencionais, os infosigns não carregam significado no sentido de informações não-naturais. Esses signos não são falsos, pois são ancorados diretamente na natureza, ao contrário dos signos intencionais, que dependem de um contexto cultural ou convencional para sua interpretação. A significação não-natural está associada aos signos intencionais, que têm uma função estabilizada, mantida por sua utilização contínua dentro de uma prática cultural ou evolutiva. Nesse contexto, a normatividade dos signos intencionais surge da história evolutiva ou do aprendizado, onde seu uso persiste ou se estabiliza por sua eficácia no cumprimento de uma função.

A relação entre signos e o mundo real também é abordada por Shea, que amplia a teoria de Millikan ao introduzir a noção de "informação correlacional explorável". Shea argumenta que, para que o conteúdo representacional de um signo seja compreendido, é necessário considerar a organização interna do sistema que explora relações entre estados internos e o mundo. Ele introduz ainda o conceito de "função-tarefa", explicando que uma função de saída de um sistema é uma função robusta e estabilizada, que resulta de interações dinâmicas de aprendizado ou evolução. Esse desenvolvimento teórico de Shea é uma extensão do trabalho de Millikan, destacando a importância da função e da organização para entender como os signos podem representar a realidade.

Apesar de sua força explicativa, a teoria de Millikan enfrenta desafios significativos. Um deles é a possibilidade de que qualquer evento possa se correlacionar com qualquer outro, dependendo da classe de referência utilizada. Isso cria o paradoxo de que um infosign poderia teoricamente ser sobre qualquer coisa, o que pode diluir seu conteúdo semântico. Além disso, a noção de "embutimento" de signos, que pode ser contínuo, levanta a questão de como determinar a profundidade e os limites dessas correlações. Quando os signos se tornam infinitos, surge o problema de como definir seu conteúdo de forma não ambígua.

Ainda assim, a teoria de Millikan oferece uma base sólida para a compreensão de como os organismos interpretam o mundo através de signos naturais. Ela oferece uma explicação mais flexível e realista em relação ao papel da informação natural no comportamento dos seres vivos, mostrando como esses signos podem ser tanto ferramentas evolutivas quanto formas de comunicação eficazes dentro de contextos locais.

Além disso, a conexão entre signos naturais e intencionais sugere que, embora os signos naturais possam ser universais e não falaciosos, os signos intencionais possuem uma qualidade normativa, ancorada em convenções evolutivas ou culturais, o que agrega uma camada de complexidade à sua interpretação.

Como a Informação é Físico: A Relação Entre Entropia e Trabalho Externo no Processamento de Dados

A interação entre um sistema e um evento externo pode ser vista como um canal de comunicação através do qual as restrições impostas pelo evento são transmitidas ao sistema, alterando-o e criando novas limitações. Esse processo físico pode ser descrito como um acoplamento entre os estados ou dinâmicas de dois sistemas, de modo que o comportamento de um refletirá parcialmente os aspectos da regularidade ou das restrições exibidas pelo outro, no que diz respeito aos modos de interação possíveis (Deacon, 2007). Esse vínculo físico forma uma base natural para a correlação de informações, sendo essencial para a compreensão de como a informação pode ser representada fisicamente.

O conceito de que "informação é física" pode ser explorado mais profundamente através da análise das mudanças de entropia, tanto de Shannon quanto de Boltzmann. A entropia de Shannon, por exemplo, mede a incerteza de uma mensagem recebida, ou seja, a redução da incerteza do sinal, enquanto a entropia de Boltzmann, ligada à termodinâmica, reflete a variedade estatística dos estados físicos possíveis de um sistema. Embora as duas entropias não sejam equivalentes, é importante notar que qualquer alteração na entropia de Shannon de um meio de sinal também implica uma mudança na entropia de Boltzmann desse meio, mas nem sempre o contrário é verdadeiro. A entropia de Shannon geralmente representa apenas um subconjunto restrito das possíveis variações físicas de um meio.

Quando um sistema físico recebe uma mensagem, o processo de redução da entropia de Shannon reflete uma diminuição da incerteza sobre o estado do sistema. No entanto, isso exige que o meio de informação (como um sinal ou um sistema de comunicação) passe por um trabalho físico. Esse trabalho deve ser fornecido por uma fonte externa, visto que a redução da entropia de Boltzmann de um meio passivo exige uma intervenção externa. A mudança na entropia de Shannon, portanto, não é apenas uma transformação abstracta de dados, mas um reflexo direto de um trabalho físico que impõe restrições ao sistema.

Por exemplo, em um sistema passivo, a diminuição da entropia de Boltzmann é exibida como uma restrição aos possíveis estados ou trajetórias dinâmicas do sistema. Essa restrição é uma consequência do trabalho físico que foi necessário para movê-lo para um estado de menor entropia, conforme determinado pela segunda lei da termodinâmica. A produção dessa restrição física implica um esforço ativo para diminuir a entropia, evidenciando a relação entre a informação e a energia envolvida no processo.

Esse conceito é ainda mais relevante quando consideramos meios dinâmicos e sistemas longe do equilíbrio, como os organismos vivos ou sistemas tecnológicos avançados. Em tais sistemas, o trabalho físico necessário para manter o sistema em um estado de baixa entropia não é apenas momentâneo, mas contínuo. Portanto, a capacidade de um sistema de manter a baixa entropia (ou de permanecer longe do equilíbrio termodinâmico) é um indicativo da quantidade de trabalho físico que está sendo aplicado para preservar esse estado.

Num sistema dinâmico e longe do equilíbrio, a interação com um fator externo pode causar um aumento na entropia de Shannon, indicando uma perturbação no trabalho que mantém o sistema em um estado de baixa entropia. Por exemplo, a intervenção de um fator passivo externo, como uma mudança ambiental, pode perturbar a estabilidade do sistema e causar um aumento na entropia do sistema, o que "representa" a interação com o fator externo.

A "entropia referencial" de um meio, portanto, é uma função das dimensões das modificações físicas possíveis que esse meio pode sofrer. Essas modificações podem incluir deformações físicas, modificações eletromagnéticas, entre outras. A capacidade do sistema de exibir essas modificações, de reagir a um trabalho externo, é o que permite a ele "referir" o que está acontecendo no seu ambiente. Em sistemas vivos, isso pode ser visto na adaptação constante do organismo a mudanças ambientais, que exigem trabalho físico para evitar a degradação. De forma análoga, em contextos sociais e culturais mais complexos, também há uma constante necessidade de "trabalho" para manter uma ordem preferencial, para garantir a continuidade de certos padrões de comportamento ou organização.

Em suma, a informação em um sistema físico não é apenas uma abstração numérica ou matemática, mas uma manifestação concreta das condições físicas que envolvem o sistema. Cada mudança na entropia do sistema, cada modificação do estado do meio de informação, reflete um processo físico profundo, no qual o trabalho externo tem um papel central. A capacidade de um sistema de representar, processar e transmitir informação depende diretamente das interações físicas que alteram seu estado e a forma como ele se adapta a essas mudanças. A compreensão dessa dinâmica física é crucial para entender como os sistemas, sejam biológicos, tecnológicos ou sociais, mantêm a ordem e processam a informação.

Qual é a natureza do Signo segundo Peirce e sua relação com a semiótica biológica?

A concepção de signo de Charles Sanders Peirce estabelece um modelo triádico fundamental para a semiótica. Um signo, ou "Representamen", é definido como um primeiro elemento que mantém uma relação genuína com um segundo, denominado objeto, de modo que seja capaz de determinar um terceiro, o interpretante, a adotar a mesma relação triádica com o objeto. Esta relação triádica é genuína, ou seja, seus três membros estão ligados de uma forma que não consiste apenas em uma complexidade de relações diádicas. Essa estrutura fundamental define o signo como algo que se constrói no âmbito da interação entre a representação, o objeto e a interpretação, sem uma redução simplista a apenas uma conexão direta entre um sinal e um objeto.

Peirce detalha a sua teoria do signo com quatro condições essenciais, como sintetizado por Liszka (1996): (1) A condição representativa, que afirma que todos os signos são dirigidos a objetos, ou pelo menos pretendem ser; (2) A condição apresentativa, que requer que o signo represente ou se correlacione com o objeto em algum aspecto ou capacidade; (3) A condição interpretativa, onde o signo deve determinar, de forma potencial ou efetiva, um interpretante — compreendido como um signo que traduz ou desenvolve os signos originais; (4) A condição triádica, que sustenta que a relação entre signo, objeto e interpretante deve ser triádica, formando uma inter-relação irredutível onde cada componente obtém seu significado a partir dos outros.

A semiótica peirceana se distingue significativamente de abordagens como a teleosemântica, por sua natureza interna. Em seu trabalho, Deacon (2021) sintetiza o papel central da interpretação no processo semiótico: "Qualquer propriedade de um meio físico pode servir como um veículo de signo de qualquer tipo (ícone, índice ou símbolo) referindo-se a qualquer objeto de referência, para qualquer função ou propósito, porque essas propriedades são geradas por e dependem inteiramente do processo interpretativo particular em que são incorporadas". Assim, o que torna algo um signo não são suas propriedades intrínsecas, mas sim como uma propriedade relevante é incorporada a um processo interpretativo. A interpretação é o que realmente importa, não as qualidades objetivas do signo. Esse princípio reflete uma visão em que os signos não são "dados" ou "fixos", mas sim processados interpretativamente.

Essa ideia ressoa com a perspectiva de Millikan sobre sinais intencionais, embora ela recorra à convenção cooperativa para explicar o aspecto normativo da intencionalidade, enquanto Peirce enfoca a interpretação. Em Peirce, não existem "signos no estado selvagem", todos os signos envolvem um processo interpretativo. Essa distinção é central para a compreensão da semiótica peirceana: ela oferece uma explicação dinâmica e interativa dos processos de significação.

A semiótica biológica, um campo recente, expande a teoria peirceana ao sugerir que a significação é uma característica essencial dos fenômenos biológicos. Para entender a vida, precisamos compreender os processos de produção de significados nos sistemas biológicos. Esses processos são formas de transmissão de informações, que podem ser entendidas como semiose, ou o processo de signos. A noção de "informação" em Peirce é compreendida como a comunicação de forma, ou hábitos, de um objeto para um interpretante através de um signo, que, por sua vez, restringe o comportamento do interpretante. Em outras palavras, um signo serve como meio para comunicar uma forma, que é um poder, uma possibilidade que pode se realizar sob certas condições, sem se reduzir a um objeto existente.

Essa perspectiva revive o significado etimológico da palavra "informação", como ação de trazer forma ao material. Ela também explica a relação unidirecional entre objeto, signo e interpretante, onde o objeto determina o signo, que por sua vez determina o interpretante, e não o contrário. Em termos de teoria da informação, as questões centrais tornam-se: O que é forma? Onde a forma existe na natureza? E como a forma adquire significado dentro da semiótica? Essas questões são cruciais para compreender a informação biológica.

A semiótica biológica, como proposta por Hoffmeyer e Emmeche (1991), se combina com a cibernética de segunda ordem para explicar como a informação biológica emerge da habilidade única dos organismos vivos em responder a diferenças selecionadas em seu ambiente, a fim de manter a sua própria existência. A informação é produzida nesse processo, e para compreendê-la, devemos entender essa habilidade distintiva. "Para um sistema ser vivo, ele deve criar a si mesmo, ou seja, deve conter as distinções necessárias para sua identificação como um sistema." Isso leva ao conceito de "dupla codificação": a capacidade de um sistema de se representar em dois códigos diferentes, um digital e um analógico, e de transformar um no outro.

Por fim, é necessário entender como uma forma pode se referir a outra. Em vez de ver a relação referencial de "sobre" como algo monótono, Peirce classifica três tipos de signos: ícone, índice e símbolo. O ícone correlaciona-se com seu objeto por semelhança; o índice por contiguidade, causal ou espacial-temporal; e o símbolo por uma relação convencional e habitual. Além disso, esses tipos de signos são hierarquicamente organizados, sendo o símbolo fundamentado no índice, que por sua vez se baseia no ícone. Essa classificação oferece uma nova perspectiva para problemas clássicos da filosofia linguística, como a questão do sentido e da referência, o problema da ficção/misrepresentação e o problema da fundamentação do símbolo.

Embora a semiótica peirceana seja uma teoria sofisticada da intencionalidade, muitos filósofos negligenciam sua importância. A explicação da normatividade da intencionalidade, com base na interpretação, pode ser vista como uma forma de adiar a verdadeira questão. Além disso, a teoria peirceana deixa em aberto a explicação das competências interpretativas e da naturalização da interpretação, o que limita sua aplicação a explicações naturalistas sobre o significado. Portanto, há a necessidade de uma teoria que integre a semiótica com a naturalização da intencionalidade e a interpretação.

A Relação de Informação e o Desafio da Teoria de Dretske: Uma Abordagem Filosófica e Semântica

A teoria de Dretske sobre o conteúdo informacional, embora intuitivamente coerente em muitos aspectos, apresenta complexidades que revelam a profundidade e as limitações do conceito de informação, principalmente no que diz respeito à sua relação com o conhecimento do receptor e a natureza objetiva da informação. Dretske sugere que a informação é objetiva e pode ser compreendida como um conteúdo inserido dentro de uma rede de relações, onde o significado de um sinal depende, em grande parte, do contexto em que ele é analisado. Contudo, essa abordagem levanta questões fundamentais sobre a relatividade da informação, que não a torna subjetiva, mas sim dependente do conhecimento prévio que o receptor possui sobre o sistema em questão.

Um dos principais pontos críticos de sua teoria é a divergência entre a informação embutida em um estado de coisas e a informação percebida por um receptor específico. Essa distinção não é clara na teoria de Dretske, o que acaba sugerindo implicitamente a existência de dois tipos de informação, ainda que ele não faça essa separação de maneira explícita. Ao mesmo tempo, a relação de hierarquias de conteúdo informacional, tal como proposta, pode ser paradoxal, como no caso das inferências dedutivas. Quando um teorema, como o Último Teorema de Fermat, é provado, ainda que sua verdade estivesse implícita no sistema dos números naturais, a demonstração de Andrew Wiles em 1994 forneceu uma nova informação valiosa. Isso sugere que a simples estrutura lógica de um enunciado não é suficiente para capturar toda a riqueza informacional que ele pode conter, sendo necessária a análise do contexto em que a informação é extraída.

Esse tipo de paradoxo aparece quando se considera que qualquer evento ou frase poderia conter uma quantidade infinita de informações, já que uma simples afirmação como "Lucky é um cachorro" implica uma infinidade de outras afirmações ("Lucky não é um gato", "Lucky não é uma vaca", "Lucky não é uma árvore" etc.). Se cada sentença contiver um número infinito de implicações, isso gera um dilema filosófico: como podemos medir a informação de forma objetiva sem cair em uma infinidade paradoxal de possibilidades?

Floridi, em sua proposta de teoria semântica fortemente fundamentada, busca resolver esse impasse ao redefinir o conteúdo informacional dentro de um cálculo mais preciso dos valores alethicos — ou seja, dos valores de verdade e sua relação com o contexto específico de análise. Diferente da abordagem probabilística da teoria de Bar-Hillel e Carnap, Floridi introduz a noção de "distância semântica", que mede a discrepância entre o conteúdo informacional de uma mensagem e o estado ideal ou referência de um sistema. Para Floridi, a quantidade de informação é determinada pela magnitude dessa discrepância, onde mensagens com menor discrepância carregam maior conteúdo informativo. Essa distinção evita a formação de paradoxos, como o de Bar-Hillel-Carnap, e torna possível lidar com tautologias e contradições de forma intuitiva: uma tautologia é verdadeira em qualquer situação, mas não contém um conteúdo informacional significativo; uma sentença contraditória, por outro lado, carrega zero de conteúdo informacional, pois sua discrepância é máxima e ela é inconsistente com qualquer realidade.

Porém, a teoria de Floridi também enfrenta desafios significativos. Um dos principais problemas é a tensão interna entre a concepção de que a informação é verdadeira por natureza e a possibilidade de que uma mensagem falsa ainda contenha algum tipo de informação. Esse dilema surge porque, segundo Floridi, mesmo mensagens falsas podem carregar algum grau de erro informacional, mas a teoria tende a contradizer o princípio de que a informação deve ser essencialmente verdadeira. Essa questão foi amplamente debatida, sendo apelidada de "Tese da Veracidade", que levanta dúvidas sobre a coerência da teoria floridiana.

Além disso, a teoria de Floridi se afasta da fórmula original de Shannon sobre a quantidade de informação, que depende da comparação entre sinais possíveis. Para Floridi, a quantidade de conteúdo informacional é independente da comparação com outras mensagens possíveis, o que a torna desconectada de aspectos fundamentais da teoria da informação e da prática científica. Isso é considerado uma falha significativa, pois limita a capacidade de sua teoria de lidar com processos cognitivos e a forma como o cérebro humano processa a informação, independentemente de ela ser verdadeira ou falsa.

A medida da informação, portanto, não pode ser desvinculada do contexto mais amplo em que os sinais são trocados. A forma como um receptor lida com os sinais, sua capacidade de extrair a informação a partir de seu próprio conhecimento de fundo, e o tipo de inferências que pode fazer, são fatores que não podem ser ignorados ao se considerar o verdadeiro valor informacional de um sinal.

A crítica mais profunda à teoria de Floridi é que ela desconsidera aspectos fundamentais da teoria da informação de Shannon, que observa que a quantidade de informação de um sinal é determinada não apenas pelo sinal em si, mas pela relação com outras possibilidades de sinal. Esse ponto de vista permite uma análise mais precisa da forma como a informação é processada no cérebro e como ela se conecta ao conhecimento humano, algo que a teoria de Floridi não consegue captar com a mesma profundidade. Portanto, qualquer teoria que busque oferecer uma visão completa sobre o que é a informação e como ela se manifesta no mundo físico e mental deve ser capaz de integrar as descobertas da teoria da informação com os mecanismos cognitivos de processamento.

Como as Teorias da Informação Explicam o Significado e a Representação

A ideia de que as representações possuem uma natureza normativa tem sido um tema central nas teorias da semântica. Embora as relações causais possam fornecer um significado natural, elas em si mesmas não possuem aspecto normativo; não podem ser precisas ou imprecisas, corretas ou incorretas. É por meio da interpretação e da intenção do falante que um determinado estado de coisas é identificado como aquele que causaria a produção de uma representação, supondo que determinadas condições causais governem esse processo. Segundo Stampe, “saber que R representa O como sendo F é saber que, se R for produzido sob condições de fidelidade, então seria o caso de que o fato de O ser F explicaria (etc.) a ocorrência de R” (Stampe, 1977, p. 50). Isso significa que, dadas as condições de fidelidade sob as quais um estado de coisas causa a produção de outro (como uma representação), espera-se que a representação transmita informações sobre o estado original das coisas.

Stampe utiliza o conceito de “função” para explicar o aspecto normativo da representação. Uma função deve alcançar um objetivo específico, mas isso não significa que ela sempre tenha sucesso em fazê-lo. Uma função pode falhar. Da mesma forma, uma representação pode ser falsa. Filósofos posteriores criticaram a teoria de Stampe por diversas razões. Primeiro, a teoria sugere que o falante deve identificar as condições de fidelidade de uma representação ao usá-la. Isso não corresponde às circunstâncias do mundo real, onde os falantes geralmente não conhecem essas condições. Por exemplo, quando um coelho percebe o farfalhar de um arbusto como sinal de um possível predador, ele não identifica conscientemente as condições de fidelidade dessa representação (e, de fato, não tem competência para isso). Em segundo lugar, a dependência de Stampe da interpretação e intenção do falante para explicar o aspecto normativo da representação levanta outras preocupações. Embora seja verdade que os indivíduos possam atribuir propósitos a objetos, como no caso dos artefatos projetados para desempenharem funções específicas, essa abordagem enfrenta desafios. Empiricamente, a maioria das representações—sejam linguísticas ou sinais animais—não têm designers identificáveis. Além disso, as intenções e interpretações dos indivíduos sobre as representações muitas vezes divergem dos significados pretendidos por outros. Se a interpretação é a fonte da normatividade da representação, explicações adicionais são necessárias para lidar com essas discrepâncias. Além disso, a teoria deve esclarecer como um ouvinte pode interpretar com precisão as intenções do falante ao receber uma representação.

Em terceiro lugar, as relações causais são rígidas demais para explicarem muitas formas de representação. Como discutido na crítica à teoria de Dretske, as correlações estatísticas parecem ser suficientes para estabelecer relações representacionais. Além disso, muitas representações convencionais não são determinadas por relações causais. Uma representação pode não ter nenhuma conexão física com o objeto que ela representa. Na ficção, os objetos representados podem não existir fisicamente.

Embora filósofos posteriores tenham abandonado as relações causais como explicação do significado natural, eles mantiveram a ideia da função como uma explicação para o aspecto normativo do significado não natural e buscaram alternativas para explicar o conceito de função. Um novo candidato para o significado natural que os filósofos adotaram foi a informação. Para explicar a normatividade da representação, eles apelam para as funções biológicas. Essas duas linhas de raciocínio formam um conjunto de teorias conhecido como teleosemantics. Nesse contexto, para fornecer uma teoria naturalista da intencionalidade, do significado ou da representação, os filósofos devem enfrentar duas questões principais: (1) Explicar o que é informação natural e (2) explicar como a normatividade da representação emerge da informação natural. Especificamente, eles precisam abordar questões como: Que tipo de relações podem contar como informação natural? Uma relação informacional precisa ser mantida por algum motivo? Nem toda informação natural é usada como significado não natural ou representação; como isso é determinado? Este problema é conhecido como o problema da determinação de conteúdo. Além disso, como a normatividade pode surgir independentemente da intenção e interpretação individuais? Isso é conhecido como o problema da má representação.

Com base na distinção de Grice e na teoria causal de representação de Stampe, Dretske (1981; 1986; 1988) refina a classificação dos sistemas representacionais em três tipos. O primeiro tipo, os símbolos, não possui poder representacional intrínseco. Em vez disso, seu poder é derivado de seus criadores ou usuários. Os símbolos são atribuídos funções indicativas que não podem ser executadas intrinsecamente. O segundo tipo de sistema representacional adquire seu poder representacional dos seus elementos constituintes, que são considerados informação natural. Como definido na seção anterior, informação natural desempenha o papel de significado natural. Para Dretske, a informação natural existe na natureza e não funciona intrinsecamente como uma representação. É apenas quando os usuários empregam essa informação natural que atribuem a ela uma função representacional. A diferença entre esses dois sistemas é que, no primeiro tipo, a função vem primeiro, enquanto no segundo tipo, o poder dos elementos de indicar vem primeiro (Dretske, 1988, p. 61). Para ambos os tipos, sua normatividade deriva de seus criadores ou usuários, dependendo dos interesses, propósitos e capacidades de outros sistemas interpretativos. Dretske se refere a esses sistemas como sistemas convencionais de representação. O tipo mais interessante de sistemas representacionais, segundo Dretske, são os sistemas naturais de representação. “Os sistemas naturais de representação… são aqueles que possuem suas próprias funções intrínsecas de indicação, funções que derivam da maneira como os indicadores são desenvolvidos e utilizados pelo sistema do qual fazem parte” (Dretske, 1988, p. 62). Sua função de indicação é independente de outros sistemas. Então, de onde os sistemas naturais adquirem sua função de indicação? Em vez de recorrer à evolução por seleção natural, Dretske argumenta que ela vem do desenvolvimento do indivíduo (Dretske, 1988, p. 95–106).

A formulação da informação natural de Dretske baseada em regularidades nomológicas é forte demais para ser aplicável universalmente, e nenhuma lei natural trata especificamente dos indivíduos. Além disso, a informação natural de Dretske é livre de contexto, negligenciando as condições de canal que também são cruciais para que um sinal carregue informações de forma eficaz. Isso cria um problema: como devemos definir o contexto em que a informação natural está situada? Millikan (2004, p. 37–38; 2017, p. 143–144) chama isso de problema da classe de referência. Enquanto Dretske apela ao desenvolvimento do indivíduo como a fonte da normatividade da representação, assim como Stampe, uma explicação adicional é necessária para esclarecer como a normatividade emerge desse desenvolvimento.

Ruth Millikan (1984; 1989; 2004; 2017) oferece uma abordagem diferente para as questões que envolvem o significado e a representação. Como Dretske, ela acredita que o significado não natural carregado por sinais intencionais depende da informação natural, que é carregada por sinais naturais localmente recorrentes (2004) ou infossinais (2017), mas ela resolve muitas das falhas da teoria de Dretske. Sua abordagem é mais amigável ao organismo. Para entender o que é a informação natural, ela sugere que a consideremos do ponto de vista dos organismos que a utilizam para desempenhar funções específicas (Millikan, 2004, p. 44). Para que um organismo use sinais naturais, ele deve ser capaz de detectar o sinal portador de informação, identificar a presença de um canal informacional e compreender a função de mapeamento que traduz os sinais naturais para...