W klasycznym scenariuszu komunikacyjnym, który można nazwać „A ♥ B”, mamy nadawcę A, odbiorcę B oraz kanał transmisji, w którym przekazywana jest informacja. A zapisuje na kartce „Kocham cię” i chce, by B, znajdujące się tysiące kilometrów dalej, dowiedziało się o treści wiadomości szybko, bez zniekształceń i po niskim koszcie. Gdy wiadomość zostaje zniekształcona, opóźniona lub całkowicie nieodpowiednia, A jest niezadowolony. To właśnie w tym przykładzie można zauważyć trzy fundamentalne aspekty informacji: sygnały, znaczenie i użyteczność.

Komunikacja to przesyłanie informacji od źródła do odbiorcy za pośrednictwem systemu przekazu, gdzie informacja sama w sobie jest czymś więcej niż tylko słowami czy symbolami. Choć często utożsamiamy informację z treścią wiadomości, to w rzeczywistości informacja jest pojęciem bardziej złożonym i wielowarstwowym. Sama transmisja symboli (sygnałów) nie gwarantuje przekazania informacji, jeśli symbole zostaną zniekształcone lub ich znaczenie zostanie zmienione. Przekaz musi więc zachować swoją integralność syntaktyczną (poprawność symboli), semantyczną (zgodność znaczenia z intencją nadawcy) oraz pragmatyczną (użyteczność dla odbiorcy).

Warto zwrócić uwagę, że informacja nie jest tożsama z samym znaczeniem przekazu. Na przykład, jeśli A żartuje, mówiąc „Kocham cię”, ale tak naprawdę nie darzy B uczuciem, B otrzymuje dezinformację, a nie prawdziwą informację. Podobnie, jeśli B już zna tę wiadomość, jej przekazanie nie dostarcza nowej informacji. A jeszcze inaczej, jeśli wiadomość przypadkowo trafi do osoby D, to informacja przekazywana jest inna, bo dotyczy D, nie B. Te sytuacje podkreślają, że informacja jest relacją między nadawcą, treścią i odbiorcą, a nie jedynie samą treścią.

Proces informacyjny w komunikacji ludzkiej jest najwyżej rozwiniętą formą przekazywania informacji, ale nie jedyną w przyrodzie. Istnieją także inne formy sygnalizacji – chemiczne, hormonalne, genetyczne, a nawet naturalne znaki, jak dym świadczący o ogniu czy pierścienie drzewa mówiące o jego wieku. Wszelkie te procesy łączy pewna informacyjna intencjonalność i przekaz, choć różnią się one od ludzkiego języka.

Istotne jest rozróżnienie informacji naturalnej (np. dym oznacza ogień) od informacji intencjonalnej, którą tworzy nadawca z celem przekazania czegoś odbiorcy. W tym kontekście informacja jest towarem obiektywnym, który może być przechowywany, przesyłany i odbierany niezależnie od interpretacji, choć jej użyteczność zależy od zgodności z intencjami i potrzebami odbiorcy.

Model „A ♥ B” wskazuje na hierarchiczne zależności między trzema aspektami informacji. Sygnały muszą być nienaruszone, aby mogły prawidłowo reprezentować znaczenie (aboutness), a dopiero prawidłowe znaczenie przekłada się na użyteczność (forness) informacji dla odbiorcy. To uporządkowanie odzwierciedla różne podejścia do informacji, znane m.in. z teorii Shannona i Weavera, którzy wyróżnili aspekty syntaktyczne, semantyczne i pragmatyczne.

Zrozumienie tych trzech wymiarów jest kluczowe, aby odróżnić samą wiadomość od informacji, którą ona niesie. Informacja nie jest po prostu treścią komunikatu, lecz efektem interakcji między przesyłanymi symbolami, ich znaczeniem i kontekstem odbioru. Nie każdy przesłany komunikat to informacja — może to być dezinformacja, powtórka tego, co już wiadomo, lub przekaz skierowany do niewłaściwego odbiorcy.

Ważne jest także, aby uświadomić sobie, że pojęcie informacji nie jest jednorodne i uniwersalne w zastosowaniu do wszystkich procesów przekazu i sygnalizacji. Wymaga ono jednak spójnej teorii, która uwzględnia zarówno aspekty komunikacyjne, jak i biologiczne oraz naturalne formy informacji. Takie podejście pozwala na lepsze zrozumienie ewolucyjnego rozwoju zdolności informacyjnych, od prostych sygnałów biologicznych po złożone systemy językowe człowieka.

Informacja to zjawisko dynamiczne, które nie może być ograniczone do jednego, sztywnego modelu. Kluczową rolę odgrywa kontekst i cel komunikacji, które determinują, czy przekaz zostanie uznany za informację. W efekcie informacja jest zawsze relacyjna i sytuacyjna, a jej prawdziwa wartość zależy od skuteczności przekazu i interpretacji w określonym układzie komunikacyjnym.

Czy forma istnieje w świecie, czy jedynie w umyśle obserwatora?

Problem formy i różnicy jako podstawowych kategorii poznawczych oraz ontologicznych prowadzi do zasadniczej trudności: czy te pojęcia mają fundament w samej naturze, czy są jedynie wytworami umysłu obserwującego? Bateson, podobnie jak Millikan, konfrontuje się z tym dylematem, poszukując odpowiedzi na pytanie o to, jak zakorzenić intencjonalność i odniesienie w świecie fizycznym, nie odwołując się przy tym do arbitralnych konstruktów mentalnych.

Według Batesona, forma i różnica nie są właściwościami świata jako takiego, lecz pochodzą z aktu interpretacji. To umysł poznający nadaje znaczenie zmianom w stanach rzeczy, dostrzegając w nich formy i różnice. Tym samym forma staje się pojęciem zależnym od obserwatora, a nie elementem samej rzeczywistości. Taka konkluzja, choć unikająca nadmiarowego realizmu ontologicznego w stylu platońskim, prowadzi z kolei do błędnego koła: by dostrzec regularność, umysł musi już operować pewnym schematem, „nawykiem” interpretacyjnym, który sam wymaga wyjaśnienia.

Deacon proponuje, że forma może istnieć w naturze, ale w sposób negatywny – jako ograniczenie, a nie jako obecność. Przykład wiru wodnego pozwala to zobaczyć: nie możemy zdefiniować indywidualności wiru na podstawie cząsteczek wody, które go tworzą, bo te nieustannie się zmieniają. Nie zdefiniujemy jej też przez konkretną trajektorię cząsteczek, bo te są chaotyczne i nieprzewidywalne. Mimo to rozpoznajemy wir jako coś odrębnego – właśnie dzięki pewnemu abstrakcyjnemu podobieństwu, które ignoruje drobne różnice i skupia się na ogólnym ruchu spiralnym. To podobieństwo nie jest jednak wieczną formą platońską, lecz rezultatem uogólniającej operacji poznawczej.

Forma zatem nie jest redukowalna do właściwości swoich składników, ale też nie jest niezmienną ideą. Nie istnieje jako esencja, lecz jako funkcja wykluczenia – jako efekt ograniczenia przestrzeni możliwych stanów. Tu pojawia się pojęcie constraint, czyli ograniczenia, które w fizyce oznacza redukcję stopni swobody systemu. Wosk może przybrać nieskończenie wiele kształtów, dopóki nie zostanie odciśnięty pieczęcią. Wówczas jego możliwe stany zostają drastycznie zawężone – pozostał tylko jeden. Nie chodzi o to, co zostało dodane (forma pieczęci), lecz o to, co zostało wykluczone (wszystkie inne możliwe kształty).

Taka negatywna logika pozwala uniknąć pułapki zależności od zewnętrznego obserwatora. Forma nie musi być rozpoznana jako wartość estetyczna czy porządek — wystarczy, że ogranicza zmienność. Co więcej, ograniczenia są konkretne: mają swoją rozciągłość w czasie i przestrzeni, ponieważ określają, które stany się nie zrealizowały, mimo że mogłyby. W ten sposób constraint staje się realną, fizyczną kategorią, choć definiowaną poprzez nieobecność.

Ujęcie to pozwala również zreinterpretować klasyczne rozumienie informacji jako komunikacji formy czy różnicy, która czyni różnicę. Komunikacja formy staje się wtedy propagacją ograniczenia. Jeżeli coś nie zawiera różnicy, nie może tej różnicy przenieść dalej. To, co nie występuje, nie może wpływać na nic innego poprzez interakcję. Informacja jest więc funkcją tego, co wykluczone: nie przez to, co jest, lecz przez to, czego nie ma.

Istotne jest zrozumienie, że taka koncepcja pozwala przekroczyć zarówno mentalizm, jak i platonizm. Forma jako constraint nie jest ani subiektywną projekcją, ani wieczną ideą – jest konkretnym, dynamicznym ograniczeniem możliwości, obecnym w świecie jako negatywna struktura. W tym sensie struktura nie jest czymś, co należy zidentyfikować poprzez jej obecność, ale raczej poprzez analizę tego, co zostało wykluczone. Pozwala to mówić o informacji i formie bez potrzeby zakładania istnienia zewnętrznego obserwatora, czy uprzywilejowanego punktu widzenia.

W tym ujęciu istotne jest dostrzeżenie, że percepcja regularności i przekaz informacji nie wymagają wcześniejszego istnienia niezmiennych wzorców. Wystarczy, że istnieje system możliwych stanów i mechanizm ich ograniczania. To właśnie ten mechanizm — constraint — jest nośnikiem informacji, formy i różnicy, rozumianych nie jako pozytywne treści, lecz jako różnice, które już się nie wydarzą. W ten sposób znika potrzeba zakładania nieobserwowalnych bytów, a sama forma staje się dynamiczna, zależna od procesów, a nie od esencji.

Czy informacja ma treść semantyczną, czy jest jedynie ilościowa?

Współczesna teoria informacji rozwija się na przecięciu logiki, biologii, epistemologii i semiotyki. Problem semantycznej treści informacji pozostaje jednym z najbardziej spornych i filozoficznie złożonych. Yehoshua Bar-Hillel i Rudolf Carnap w połowie XX wieku rozpoczęli próbę skonstruowania teorii semantycznej informacji, odróżniającej się od podejścia czysto ilościowego, zaproponowanego przez Shannona. Ich celem było połączenie pojęć logicznych i językowych z informatyką, przy założeniu, że informacja może zawierać znaczenie, a nie tylko niepewność lub redundancję.

W ujęciu Bar-Hillela i Carnapa, informacja semantyczna to nie tylko sygnał, ale treść, która może być prawdziwa lub fałszywa. Różnica między przekazaniem wiadomości „dzisiaj pada deszcz” a ciągiem bitów bez przypisanego znaczenia jest fundamentalna — pierwsze posiada wartość logiczną, drugie jest jedynie surowym sygnałem. Ich teoria opierała się na analizie logicznych zdań, ich spełnialności w danych modelach i odniesieniach do rzeczywistości. Wprowadzili również pojęcie „semantycznej ilości informacji”, która miała być mierzalna poprzez eliminację możliwych światów, w których zdanie byłoby fałszywe.

Jednak już na tym poziomie ujawniają się trudności. Informacja prawdziwa, ale banalna, zawiera więcej informacji według tej definicji niż informacja fałszywa lub niepewna. Krytycy, jak Dretske czy Floridi, wskazywali na problem „paradoksu trywialności”: zdania zawsze prawdziwe mają maksymalną wartość informacyjną w teorii Bar-Hillela-Carnapa, mimo że nie wnoszą żadnej wiedzy.

Dalsze rozwinięcia teorii informacji prowadzą do ujęć ewolucyjnych i biologicznych. Jeffrey Barrett analizował rozwój systemów kodowania w grach sygnałowych, pokazując, że znaczenie może wyłaniać się z interakcji agentów i ustalania konwencji. Z kolei prace Barbieriego, Deacona i Hoffmeyera, rozwijające biosemiotykę i kodową biologię, sugerują, że informacja w systemach żywych nie jest redukowalna do formy fizycznej — wymaga znaku, interpretanta i kontekstu.

Terrence Deacon łączy koncepcje informacji z dynamiką systemów biologicznych, wprowadzając pojęcia takie jak teleodynamika i semiotyczne samoorganizowanie. Informacja staje się u niego procesem osadzonym w biologicznej intencjonalności. Molekuła staje się znakiem nie przez swoją strukturę, lecz przez funkcję w systemie relacji, regulacji i reprodukcji.

Mark Burgin i S. Brier wskazują, że informacja nie może być opisana wyłącznie w kategoriach przekazu — jej źródło, struktura i oddziaływanie muszą być rozpatrywane w sposób wielopoziomowy: syntaktyczny, semantyczny i pragmatyczny. Szczególnie w systemach poznawczych i biologicznych, gdzie informacja działa nie jako sygnał, ale jako przyczyna działania.

Gregory Bateson proponuje, że „informacja to różnica, która robi różnicę” — a więc ma znaczenie tylko wtedy, gdy wpływa na organizację systemu odbiorczego. W biologii informacja zyskuje znaczenie dopiero w kontekście funkcji i działania, nie jako oderwana treść.

Z kolei semiotyka Peirce’a, w interpretacji De Tienne’a, rozwija teorię znaku jako triady: znak – przedmiot – interpretant. W tym ujęciu informacja nie istnieje jako byt fizyczny, lecz jako relacja między reprezentacją a interpretacją. Znaczenie nie jest nadane raz na zawsze, lecz powstaje w procesie interpretacyjnym — i ten proces nie może zostać uchwycony w klasycznych teoriach informacji.

Istotne jest zatem zrozumienie, że informacja nie jest bytem obiektywnym ani neutralnym. Jest konstruktem dynamicznym, który zależy od struktury systemu, jego historii ewolucyjnej, zdolności interpretacyjnych oraz kontekstu działania. W biologii, jak pokazują relacyjne modele Rosen’a, nie da się oddzielić informacji od organizacji systemu — informacja nie przepływa jak płyn, lecz uczestniczy w tworzeniu relacji, które same są informacyjne.

Czy możliwe jest zatem stworzenie uniwersalnej teorii informacji, która byłaby jednocześnie ilościowa i semantyczna? Próby takie, jak teoria Burgina czy ujęcie biosemiotyczne Barbieriego, pokazują, że konieczne jest wyjście poza paradygmat shannonowski. Informacja musi być pojmowana nie tylko jako sygnał czy entropia, ale jako forma organizacji, relacja i funkcja.

Ważne jest także odróżnienie między informacją a wiedzą. Informacja nie staje się wiedzą automatycznie — potrzebuje interpretacji, integracji i działania. Dlatego też informacja nie istnieje poza systemem, który ją przetwarza, i który jest zdolny do semantycznego różnicowania.