Szpieg świadomie rozpowszechnia fałszywe informacje, czyli dezinformację, aby wprowadzić w błąd przeciwnika. Z kolei nieświadomy strażnik myli nieznajomego z dowódcą, co stanowi przykład dezinformacji wynikającej z błędu — misinformation. Intuicyjnie nie uznajemy tych sytuacji za przekazywanie prawdziwej informacji. Pytanie brzmi: czy informacja musi być prawdziwa, by nią być? Zgodnie z klasyczną teorią komunikacji Shannona, informacja to redukcja niepewności odbiorcy względem jakiegoś zagadnienia przez wyeliminowanie alternatywnych możliwości. Fałszywe informacje, będąc niezgodne z rzeczywistością, nie eliminują prawdziwych alternatyw, nie zmniejszają realnej niepewności.

Przykład ilustruje to w relacji emocjonalnej: B kocha A, ale nie wie, czy uczucie jest odwzajemnione. Gdy A wysyła wiadomość miłości, B może poczuć się pewny i przekonany o wzajemności, choć w rzeczywistości A nie darzy go uczuciem. Taka wiadomość jest dezinformacją – pozornie zmniejsza niepewność, lecz jest wprowadzająca w błąd. Z tego powodu prawdziwość (werydyczność) jawi się jako wewnętrzna cecha informacji. W konsekwencji ani misinformation, ani disinformation nie są prawdziwą informacją, lecz jedynie jej naśladownictwem. Jednak w potocznym języku nadal je nazywamy informacją, co można porównać do nazywania wabików kaczek prawdziwymi kaczkami.

Rozróżnienie to prowadzi do problemu referencji (Ref), czyli związku pomiędzy sygnałem (Str) a jego odniesieniem. Ref nie determinuje prawdziwości informacji, bo cokolwiek może być powiązane z czymkolwiek. Dźwięk dzwonka do drzwi może oznaczać różne zdarzenia w łańcuchu przyczynowym – dopiero intencja projektanta nadaje mu konkretne znaczenie. Stąd problem normatywnego wymiaru informacji — pytanie, dlaczego dany sygnał ma być dedykowany konkretnemu referentowi.

Kwestia mierzalności referencji była przedmiotem wielu dyskusji. Niektórzy autorzy usiłowali ilościowo określić Ref, inni zaś, jak Dretske, podkreślali, że sygnał niesie informację o właściwości s tylko wtedy, gdy jest ona pewna. Jednak takie stanowisko bywa nieintuicyjne — np. wiadomość „Luciano Floridi jest włoskim filozofem informacji” niesie więcej informacji niż „Luciano Floridi jest filozofem”, choć obie są prawdziwe. Różne teorie starają się rozstrzygnąć tę sprzeczność, proponując pluralistyczne podejście, w którym miara Ref zależy od celu i kontekstu jej zastosowania.

Kluczowym aspektem informacji jest jej wymiar normatywny — czyli użyteczność dla odbiorcy. Informacja staje się wartościowa nie tylko wtedy, gdy jest prawdziwa, ale gdy spełnia określoną funkcję w kontekście czasowym i sytuacyjnym. Przykład z kochankami A i B pokazuje, że nawet prawdziwa wiadomość może być bezużyteczna, jeśli dotrze zbyt późno. Informacja jest zawsze kontekstowa — wartość tej samej wiadomości różni się w zależności od odbiorcy i sytuacji.

Symbole używane w komunikacji mają znaczenie tylko wtedy, gdy nadawca i odbiorca podzielają ich semantykę. Znaczenie i wartość informacji zależą od intencji i efektu, jaki sygnał wywołuje u odbiorcy. Aspekt ten nazywamy informacją normatywną (Nor). Nor jest użyteczna i stabilna, zależy od, ale nie jest w pełni zdeterminowana przez referencję. To, co czyni Nor szczególną, to jej czułość na kontekst oraz to, że jest „różnicą, która robi różnicę” — innymi słowy, zmienia epistemiczny lub praktyczny stan odbiorcy. Informacja, która nie wpływa na stan wiedzy lub działania, traci swą normatywną wartość, nawet jeśli pozostaje prawdziwa.

Warto rozumieć, że informacja nie jest jednowymiarowym pojęciem. Wyróżnia się jej wymiar werydyczny — prawdziwość oraz wymiar normatywny — przydatność i znaczenie dla użytkownika. Odbiorca i kontekst decydują o wartości przekazu, co nadaje komunikacji złożoność i dynamikę. W świecie informacji nie wystarcza więc stwierdzić, czy coś jest prawdziwe — trzeba rozważyć, czy i jak ta prawda zmienia sytuację odbiorcy, jakie decyzje umożliwia i jakie różnice wprowadza.

Czym jest znak według Peirce’a i jak rozumieć proces interpretacji w semiotyce?

Znak, czy też reprezentamen, w definicji Charlesa Sandersa Peirce’a stanowi pierwsze ogniwo w autentycznej relacji triadycznej z drugim elementem – obiektem – na tyle ścisłej, że jest w stanie wywołać trzecie ogniwo, interpretanta, który z kolei wchodzi w tę samą triadyczną relację z obiektem, co sam znak. Ta triada nie jest sumą prostych relacji dwuelementowych, lecz tworzy nierozerwalną i fundamentalną jedność. Peirce w ten sposób odrzuca dychotomiczne spojrzenie na znaczenie i stawia znak w centrum dynamicznego procesu, gdzie relacja między znakiem, obiektem i interpretantem jest wzajemna i konstytutywna.

Liszka (1996) precyzuje tę definicję, wskazując na cztery podstawowe warunki: znak musi być skierowany ku obiektowi (warunek reprezentatywności), musi reprezentować obiekt w jakimś aspekcie (warunek prezentacji), powinien wywoływać interpretanta, czyli nowy znak będący interpretacją oryginału (warunek interpretacji), oraz relacja znak–obiekt–interpretant musi być triadyczna i nieredukowalna (warunek triadyczności). To ostatnie podkreśla, że znaczenie znaku nie może być rozumiane bez odniesienia do jego obiektu i interpretanta, tworząc dynamiczny i interakcyjny proces.

Semiotyka Peirce’a odróżnia się również od teleosemantyki, która podkreśla znaczenie funkcji i celowości w zewnętrznym świecie. W semiotyce natomiast interpretacja jest podstawą nadawania znaczenia. Deacon formułuje „centralny dogmat semiotyki”, podkreślając, że dowolna właściwość medium fizycznego może stać się nośnikiem znaku (ikony, indeksu lub symbolu), ale istotą znaku jest to, jak ta właściwość jest włączona w proces interpretacyjny. To właśnie interpretacja nadaje właściwościom medialnym ich znaczenie, a nie ich własności inherentne. Nie istnieją więc znaki „w naturze” poza procesem interpretacji.

Biosemiotyka rozwija to podejście, postulując, że procesy nadawania znaczenia są fundamentalne dla życia. Żywe organizmy wytwarzają informację poprzez zdolność reagowania na wybrane różnice w środowisku, utrzymując swoją tożsamość. Ta samo-referencyjność, którą nazywa się kodową dualnością, polega na reprezentacji siebie w dwóch różnych kodach – cyfrowym i analogowym – oraz na możliwości transformacji między nimi. Przekształcenie kodu analogowego w cyfrowy to proces nadawania znaczenia, gdzie forma fizyczna zyskuje relewantność dla organizmu, a odwrotna transformacja pozwala na fizyczne oddziaływanie intencji na świat. Dzięki temu semioza łączy żywe i nieożywione, a normatywność intencjonalności bierze swój początek właśnie z tej kodowej dwoistości.

Peirce rozróżnia trzy podstawowe typy znaków w zależności od relacji z obiektem: ikonę, która jest podobieństwem; indeks, który ma z obiektem związek przyczynowo-przestrzenny; oraz symbol, oparty na konwencji lub nawyku. Te typy są hierarchicznie powiązane: symbol opiera się na indeksie, a indeks na ikonie. To rozróżnienie daje nowe światło na klasyczne problemy filozofii języka, takie jak kwestia sensu i odniesienia, czy problem reprezentacji błędnej.

Mimo że semiotyka Peirce’a oferuje wyrafinowaną teorię intencjonalności, pozostaje ona stosunkowo mało doceniona w filozofii. Powodem jest między innymi to, że odwołanie do interpretacji jako źródła normatywności przesuwa problem na wyższy poziom bez pełnego wyjaśnienia kompetencji interpretacyjnej. Ponadto interpretacja ma charakter subiektywny, co komplikuje wyjaśnienie konwencjonalności i obiektywności znaczenia. Model triadyczny jest też trudny do zastosowania w naturalistycznych teoriach znaczenia z powodu swojej złożoności.

By semiotyka mogła skutecznie przyczynić się do naturalizacji intencjonalności, potrzebne jest zatem rozwinięcie teorii interpretacji i typów semiozy. Prace Deacona dotyczące teorii emergentnej dynamiki i biosemiotyki wskazują kierunki rozwiązania tych problemów.

Ważne jest, by czytelnik rozumiał, że znak nie jest statycznym obiektem ani prostym nośnikiem informacji, lecz dynamicznym ogniwem procesu znaczeniowego, który angażuje zarówno obiekt, jak i interpretanta w nieredukowalną relację. Znaczenie nie istnieje poza interpretacją, a sam proces interpretacji wymaga złożonych zdolności poznawczych, których mechanizmy pozostają wciąż przedmiotem badań. W biologicznym wymiarze życia semioza wyraża fundamentalną zdolność organizmów do tworzenia i utrzymywania swojej tożsamości poprzez przetwarzanie informacji. Zrozumienie tych procesów wymaga odejścia od prostych modeli symbolicznych i przyjęcia perspektywy triadycznej, która pozwala objąć złożoność zjawisk znaczeniowych w świecie przyrody i kultury.

Czy kod genetyczny jest tylko mechanizmem? Semiotyczne aspekty informacji genetycznej

Zasada centralnego dogmatu molekularnej biologii, sformułowana przez Cricka w 1958 roku, zakłada, że informacja sekwencyjna jest pierwotnie zakodowana w strukturze DNA. Podczas replikacji ta informacja jest transkrybowana na mRNA, które z kolei tworzy kompleks z rybosomami i tRNA, służąc jako matryca do syntezy białek. Proces ten zapewnia poprawne fałdowanie białek zgodnie z genetyczną informacją zawartą w mRNA. Choć istnieją transfery informacji genetycznej wykraczające poza zakres dogmatu centralnego, jego znaczenie w biologii molekularnej pozostaje fundamentalne.

Pytanie jednak brzmi, czy wyjaśnienie tego procesu może ograniczać się jedynie do mechanistycznych modeli? W procesie tym pojawiają się bowiem pojęcia o wyraźnych konotacjach teleologicznych: kod, informacja, transkrypcja, translacja czy poprawność. Jak można pogodzić takie pojęcia z wyłącznie mechanistycznym podejściem? Częstą odpowiedzią jest traktowanie tych terminów jako metafor, które ostatecznie można wyjaśnić fizycznie. Jednakże biolodzy często używają tych pojęć w ograniczonym, specyficznym sensie, różnym od ich bogatszych, semantycznych znaczeń. Na przykład geny mają jedyną w swoim rodzaju właściwość informacyjną: kodują sekwencje aminokwasów w białkach, ale nie kodują fenotypów całych organizmów, co wyklucza pełne stosowanie języka semantycznego w biologii (Godfrey-Smith i Sterelny 2016).

Niektórzy badacze wskazują na rzekomą arbitralność kodu genetycznego, argumentując, że wiele innych odwzorowań pomiędzy tripletami DNA a aminokwasami byłoby biologicznie możliwych. Jednak arbitralność ta jest powierzchowna i wynika raczej z luk w zrozumieniu złożonych zależności pomiędzy sekwencjami nukleotydów a strukturą białek. W rzeczywistości pojęcie arbitralności w kontekście kodu genetycznego okazuje się ulotne i problematyczne.

Hoffmeyer i Emmeche (1991) wprowadzają kluczową perspektywę semiotyczną, traktując przepływ informacji genetycznej w syntezie białek jako akt interpretacji, czyli semiozę. Proponują redefinicję pojęcia informacji poprzez semiotykę Peirce’a. Genetyczna informacja nie jest jedynie określeniem sekwencji, ale funkcjonuje jako znak, który odnosi się do czegoś w systemie interpretującym. Sekwencje genetyczne, choć relatywnie stabilne i niezależne wewnątrz komórki, nie powinny być rozpatrywane w oderwaniu. Należy je rozumieć w kontekście rozwoju ontogenetycznego i reprodukcji, w których są interpretowane. W tym ujęciu zygota, jako system interpretujący, jest podmiotem procesu – ona inicjuje odszyfrowanie wiadomości DNA, przekształcając się stopniowo w zarodek pod wpływem tej interpretacji.

Perspektywa biosemiotyczna różni się od tradycyjnego ujęcia molekularnego, które traktuje rozwój ontogenetyczny jako procesy biochemiczne kierowane informacją genetyczną. Biosemiotyka wskazuje, że semioza może zachodzić jedynie w systemie interpretującym, takim jak zygota. W ten sposób normatywność kodu genetycznego przestaje być tajemnicą, jednak wymaga to dalszego wyjaśnienia natury samej interpretacji.

Koncepcja kodualności kodu, zaproponowana przez Hoffmeyera, pozwala wyjaśnić mechanizm semiozy w syntezie białek. Odnosi się ona do rekurencyjnego przekazu informacji poprzez interakcje między kodami cyfrowymi a analogowymi. Kody cyfrowe operują na dyskretnych znakach połączonych arbitralnymi relacjami i służą do przechowywania pamięci, natomiast kody analogowe wykorzystują ciągłości przestrzenno-czasowe lub przyczynowe do dekodowania i realizacji fizycznej. Genetyczne kody to cyfrowe, a procesy transkrypcji i translacji są analogowe. Podobny mechanizm działa w tzw. autogenach – systemach samopodtrzymujących się i samoreprodukujących się, które wykorzystują sprzężenie zwrotne między dwiema procesami, tworząc ramy ograniczeń, analogiczne do kodu cyfrowo-analogowego.

Ograniczenia te są cyfrowe, ponieważ są arbitralne – gdyby procesy samokatalizy i samoskładania były niezależne, mogłyby zachodzić na wiele innych sposobów. Ich sprzężenie ogranicza możliwe warianty, co podtrzymuje istnienie autogenu. Z drugiej strony, ograniczenia te są analogowe, bo realizują się przez ciągłość czasowo-przestrzenną i przyczynową. Dynamiczna struktura autogenu reprezentuje swoje warunki brzegowe, a ich uszkodzenie uruchamia procesy samonaprawy lub reprodukcji. Ta autoreferencyjna kodualność stanowi najprostszy przykład interpretacji, realizując pierwotną formę semiozy.

Informacja genetyczna jest więc czymś więcej niż tylko mechaniczną sekwencją molekularną. Jest złożonym zjawiskiem semiotycznym, gdzie geny i ich produkty są znakami interpretowanymi przez systemy żywe, a ich normatywność i celowość nie wynikają wyłącznie z fizycznych właściwości, ale z funkcji w kontekście ontogenetycznego rozwoju i samoregulacji organizmu.

Ważne jest, aby czytelnik zrozumiał, że pojmowanie informacji genetycznej wyłącznie jako mechanizmu chemicznego nie oddaje pełni jej znaczenia. Informacja w biologii funkcjonuje jako element systemu znaków, wymagający obecności interpretującego podmiotu, co stanowi fundamentalne rozszerzenie klasycznego paradygmatu molekularnego. Ponadto, procesy zachodzące w żywych organizmach są złożonymi interakcjami cyfrowych i analogowych mechanizmów, które nie tylko przechowują i przekazują informację, ale również ją interpretują i realizują w formie fenotypowej, czyniąc z biologii naukę o żywych systemach znakowych, a nie tylko o związkach chemicznych.

Jak interpretować relacje informacji i ich treść? Krytyka i rozwinięcia teorii Dretske’a i Floridiego

Relacja zagnieżdżona treści informacyjnej, którą proponuje Dretske, podkreśla, że informacja jest obiektywna, jednak jej ilość i rodzaj zależą częściowo od wiedzy tła odbiorcy na temat możliwych stanów źródła sygnału. To rozróżnienie wskazuje na istnienie dwóch poziomów informacji: tej zawartej w stanie rzeczy samym w sobie oraz tej, którą odnajduje w nim konkretny odbiorca. Mimo że relatywność informacji nie czyni jej subiektywną, ten dualizm pozostaje w teorii Dretske’a jedynie implikowany, a nie wyraźnie wyartykułowany.

Trzecia krytyka teorii Dretske’a dotyczy zasady zagnieżdżonych relacji treści informacyjnej, która jest przeciwintuicyjna i może prowadzić do paradoksu nieskończoności. Przykładem jest tu wniosek dedukcyjny, jak dowód Wielkiego Twierdzenia Fermata – mimo iż jest ono zawarte w systemie liczb naturalnych, sam dowód przyniósł nową, wartościową informację. Dretske rozróżnia tu informacje osadzone obiektywnie w zdarzeniu od informacji faktycznie wyekstrahowanej przez odbiorcę. Jednak jeśli każde zdanie implikuje nieskończoną liczbę zaprzeczeń (np. „Lucky jest psem” implikuje „Lucky nie jest kotem”, „nie jest drzewem” itd.), to oznaczałoby to, że każde zdanie niesie nieskończoną ilość informacji, co jest problematyczne.

Floridi, wychodząc naprzeciw paradoksowi Bar-Hillela i Carnapa, proponuje alternatywną teorię informacji semantycznej, unikającą problemu nieskończoności i sprzeczności. Jego teoria opiera się na kalkulacji wartości prawdziwościowych i rozbieżności semantycznej względem ustalonej sytuacji odniesienia. Informacja semantyczna jest tu definiowana jako funkcja stopnia rozbieżności (odległości semantycznej) od punktu odniesienia – im mniejsza rozbieżność, tym większa wartość informacyjna przekazu. To podejście pozwala na pomiar informacji bez odwoływania się do prawdopodobieństwa, co rozwiązuje wiele problemów klasycznej teorii Bar-Hillela i Carnapa.

W ramach tej teorii tautologie mają zerową wartość informacyjną, gdyż są prawdziwe w każdym kontekście, natomiast sprzeczności samoreferencyjnych – maksymalną rozbieżność, czyli brak informacji. Floridi podkreśla, że teoria Bar-Hillela i Carnapa mierzy ilość danych, a nie prawdziwą informację semantyczną, skupiając się na liczbie wykluczanych zdań, a nie na treści.

Jednak teoria Floridiego również nie jest wolna od problemów. Istnieje wewnętrzne napięcie pomiędzy definicją informacji jako prawdziwych danych a jednoczesnym mierzeniem jej poprzez rozbieżność semantyczną, która dopuszcza zarówno pozytywną, jak i negatywną informatywność (stopień błędu). Krytycy zwracają uwagę, że twierdzenie o inherentnej prawdziwości informacji prowadzi do paradoksu: jak fałszywa wiadomość może zawierać prawdę? Ponadto teoria ta rezygnuje z kluczowego wniosku Shannona, że ilość informacji sygnału zależy od innych możliwych sygnałów. Floridi traktuje informację jako niezależną od alternatywnych przekazów, co według niektórych autorów jest powrotem do klasycznej epistemologii, nie do końca odnoszącym się do współczesnych problemów filozofii informacji.

Z tego względu teoria Floridiego nie pozwala na pełne zrozumienie procesów przetwarzania informacji w poznaniu, gdzie mechanizmy poznawcze operują na informacjach bez względu na ich prawdziwość. To wskazuje, że aby teoria informacji była w pełni użyteczna, musi integrować zarówno aspekty semantyczne, jak i kontekst probabilistyczny oraz poznawczy.

Ważne jest, aby zrozumieć, że informacja nie jest jednorodnym bytem – jej rozumienie zależy od relacji między sygnałem, odbiorcą i kontekstem. Nie można sprowadzać informacji do samej treści lub samego sygnału bez uwzględnienia wiedzy odbiorcy i warunków, w których informacja jest przekazywana i przetwarzana. Równie istotne jest rozróżnienie między ilością danych a wartością informacyjną – nie każda ilość danych przekłada się na wzrost wiedzy czy zrozumienia. Paradoksy i napięcia w klasycznych teoriach wskazują na konieczność dalszego rozwijania modeli, które uwzględniają dynamiczny, interaktywny charakter informacji, jej kontekst oraz sposób, w jaki jest interpretowana i wykorzystywana przez poznawcze systemy.