Informacja jest często rozpatrywana jako wynik eliminacji możliwych wariantów, które mogłyby wystąpić, ale zostały wykluczone przez konkretne procesy lub zdarzenia. W tym sensie informacja musi mieć rozciągłość, czyli musi być mierzalna. Mierzalność informacji można rozumieć na dwa sposoby: wewnętrznie (intrinsic) i zewnętrznie (extrinsic). Przykładowo, ciąg znaków „I love you” składa się z dziesięciu elementów — ośmiu liter oraz dwóch spacji. W kontekście transmisji wiadomości, np. przez firmę telekomunikacyjną, kluczowe jest znalezienie najkrótszego sposobu kodowania tego ciągu, aby zoptymalizować koszty przesyłu. Stąd potrzeba mierzenia „ilości informacji” w wiadomości, co określa złożoność ciągu znaków.

Złożoność tę mierzy się za pomocą tzw. złożoności Kolmogorowa, niezależnie ustalonej przez Kolmogorowa, Solmonoffa i Chaitina. Istotne jest, że złożoność sygnału jest określona przez niego samego, bez odwołania do kontekstu czy alternatyw, co oznacza, że informacja jest mierzalna wewnętrznie. W przeciwieństwie do tego, klasyczna teoria komunikacji Shannona definiuje informację jako redukcję niepewności, którą mierzy się w kontekście alternatyw, czyli innych możliwych sygnałów, które mogły zostać wysłane. W tym podejściu ilość informacji jest determinowana zewnętrznie, przez kontekst możliwych stanów źródła informacji, a nie przez sam sygnał.

Kolejnym istotnym aspektem jest rozróżnienie między samym ciągiem symboli (strukturą sygnału, Str) a informacją referencyjną. Przykładowo, wiadomość „I love you” oraz jej odpowiednik w języku francuskim „Je t’aime” mają odmienne wzory znaków, ale podobną treść. Oznacza to, że treść referencyjna informacji nie jest tożsama z samym wzorem sygnału. Informacja referencyjna polega na relacji sygnału do obiektu lub zdarzenia, do którego sygnał się odnosi.

Ta relacja referencyjna nie jest właściwością samego sygnału, lecz zależy od kontekstu i odniesienia. Informacja referencyjna jest więc neutralna pod względem prawdziwości (alethicznie neutralna), co oznacza, że nie jest zawarta w samym wzorze sygnału, ale jest z nim powiązana hierarchicznie. Może być wyrażana w różnych formach fizycznych czy językowych i jest realizowalna na wiele sposobów, co podkreśla jej wieloraką realizowalność (multiple realizability).

Ważne jest także odróżnienie informacji referencyjnej od znaczenia. Znaczenie jest pojęciem bardziej złożonym i wieloznacznym, często powiązanym z językiem i semantyką, natomiast informacja referencyjna jest bardziej podstawowym pojęciem odnoszącym się do relacji między sygnałem a tym, co on opisuje. Co więcej, symbol może nieść znaczenie konwencjonalne, ale nie musi koniecznie przekazywać informacji referencyjnej. Informacja jest bowiem prawdziwa — musi odzwierciedlać fakty, co podkreśla tzw. teza werydykalności (veridicality thesis).

Przykłady naturalnych znaków, jak ślady zwierząt czy pierścienie drzewa, pokazują, że informacja referencyjna nie jest zarezerwowana tylko dla językowych znaków konwencjonalnych. Z kolei komunikaty pozbawione prawdy, np. kłamstwa, nie przekazują informacji referencyjnej, mimo iż formalnie mogą mieć znaczenie lub wzór sygnału.

Ważne jest, by zrozumieć, że informacja, mimo że mierzona i analizowana jako złożoność sygnału, w rzeczywistości jest bardziej skomplikowana. Złożoność ta jest tylko jednym wymiarem, podczas gdy informacja referencyjna wymaga uwzględnienia kontekstu, prawdziwości i odniesienia do rzeczywistości. Dlatego analiza informacji musi łączyć oba te podejścia: mierzalność struktury sygnału oraz relację sygnału z jego referentem.

Czy informacja może być fizycznie „o czymś”?

Interakcja pomiędzy systemem a zdarzeniem zewnętrznym może działać jako kanał komunikacyjny – ograniczenia narzucane przez zdarzenie są przekazywane systemowi, zmieniają go i generują nowe ograniczenia. Fizycznie można to ująć jako sprzężenie dwóch systemów, których dynamika zostaje częściowo zsynchronizowana, tak że zachowanie jednego systemu zaczyna odwzorowywać regularność drugiego – przez możliwe tryby ich wzajemnego oddziaływania. Taka fizyczna relacja stanowi naturalną podstawę dla informacji korelacyjnej.

Informacja nie istnieje w próżni – nie jest czysto abstrakcyjnym bytem. Informacja jest fizyczna. Co więcej, informacja w fizycznym medium pasywnym – takim jak skała, zapis danych, ślady na miejscu zbrodni – to wyraz zmian w jego stanie fizycznym, wywołanych wcześniejszą ingerencją zewnętrzną. Zmiana entropii w sensie informacyjnym (Shannona) musi korelować ze zmianą entropii termodynamicznej (Boltzmanna), chociaż odwrotność tej zależności nie zawsze zachodzi. Wynika to z tego, że informacja Shannona operuje na wyselekcjonowanym podzbiorze możliwych stanów fizycznych medium, natomiast entropia Boltzmanna obejmuje ich pełne spektrum.

Redukcja niepewności sygnału – a więc redukcja entropii Shannona – odpowiada fizycznej pracy wykonanej na medium. Ta praca zmienia jego entropię Boltzmanna, czyli zmniejsza liczbę możliwych stanów, jakie medium może przyjąć. Takie zawężenie możliwości fizycznych jest równoznaczne z pojawieniem się ograniczenia. A każde ograniczenie – fizycznie rzecz ujmując – to ślad pracy: energii włożonej przez czynnik zewnętrzny, który odkształcił, spolaryzował lub w inny sposób zmodyfikował medium informacyjne.

Co istotne, forma tego ograniczenia nie jest przypadkowa. Jest ona wynikiem specyfiki pracy, która je spowodowała, wrażliwości medium na tę pracę oraz możliwych interakcji fizycznych między medium a kontekstem zewnętrznym. To właśnie dlatego medium może „re-prezentować” – czyli fizycznie ucieleśniać – relację, która do tej zmiany doprowadziła. Innymi słowy: forma ograniczenia odzwierciedla formę pracy, a zatem niesie informację o kontekście, który tę pracę wykonał.

To prowadzi do wniosku, że możliwość referencji w medium informacyjnym – czyli tego, by coś „znaczyło” lub „było o czymś” – jest bezpośrednim efektem fizycznej interakcji między medium a zewnętrznym czynnikiem. Zakres możliwych treści, które medium może referować, jest określony przez formę ograniczenia narzuconego przez tę interakcję. Moc informacyjna medium jest więc funkcją jego zdolności do materialnego przechowywania efektów pracy wykonanej przez czynnik zewnętrzny.

Referencyjna entropia medium – czyli jego potencjał informacyjny – wynika z liczby niezależnych wymiarów, w których może ono zostać zmodyfikowane (np. mechanicznie, elektromagnetycznie), pomnożonej przez liczbę rozróżnialnych stanów w obrębie każdego z tych wymiarów. Co istotne, nawet brak zmiany – jak np. nieaktywowany alarm – również może być informacyjnie znaczący. Odnosi się on wtedy do braku ingerencji, a więc jest referencją do faktu, że żadne działanie nie zostało podjęte.

Nie wszystkie media informacyjne są jednak strukturami pasywnymi bliskimi równowagi termodynamicznej. Istnieją także media aktywne, utrzymywane w stanie dalekim od równowagi – jak zmysły organizmu czy detektory. Ich stan jest celowo podtrzymywany w sposób energetycznie kosztowny, co oznacza, że zmiana ich entropii (czyli rozmycie ich uporządkowania) to zawsze efekt zakłócenia tej aktywnej pracy.

W takim systemie wzrost entropii Shannona – np. nagłe zwiększenie niepewności sygnału – może wskazywać na ingerencję zewnętrzną, która zakłóca podtrzymywanie stanu uporządkowanego. Utrata ograniczenia w takim systemie staje się odniesieniem do czynnika, który tę stratę spowodował. Tym samym nawet medium aktywne, dynamiczne, może posiadać wartość referencyjną.

Co więcej, układy żywe – które aktywnie pracują, by unikać entropii, rozpadu, chaosu – również można postrzegać jako media informacyjne. Ich adaptacje, struktury i działania są fizycznymi ograniczeniami wymuszonymi przez kontekst – biologiczny, środowiskowy czy społeczny. Te układy „re-prezentują” warunki, wobec których zostały ukształtowane, tak samo jak pasywne medium rejestruje ingerencję poprzez zmianę swojej entropii. Informacja w żywym systemie to nie metafora – to efekt fizycznej pracy.

Zrozumienie informacji jako fizycznej relacji, a nie abstrakcyjnego symbolu, wymaga odrzucenia dualizmu między formą a znaczeniem. Znaczenie jest ugruntowane fizycznie – jako korelacja pomiędzy strukturą medium a zewnętrznym kontekstem. Uporządkowanie, struktura, ograniczenie – wszystko to jest nośnikiem odniesienia. Informacja „jest o czymś”, ponieważ jest ucieleśnieniem pracy, która została wykonana, by w danym medium powstała konkretna forma.

Z tej perspektywy, informacja nie jest tym, co reprezentuje rzeczywistość, lecz tym, co rzeczywistość fizycznie odciska w strukturze medium. Informacja to materialna forma referencji, fizyczne „o” – nie symbol, lecz rezultat interakcji.

Ważne jest zrozumienie, że forma informacji nigdy nie jest samodzielna. To nie medium samo z siebie „niesie znaczenie”, lecz jego fizyczna podatność na modyfikację przez kontekst oraz struktura narzuconego ograniczenia. Znaczenie rodzi się w różnicy, w zakłóceniu, w zmianie – ale zawsze w obrębie konkretnego fizycznego układu, nie poza nim. Referencja nie jest wyabstrahowaną intencją, lecz skutkiem oddziaływania. To czyni informację zjawiskiem w pełni materialnym, a zarazem głęboko osadzonym w dynamice relacyjnej.

Czy reprezentacja może być fałszywa? O normatywności informacji i funkcji znaku

Reprezentacja nie jest wyłącznie mechanizmem przekazywania formy. Choć fizyczne rozprzestrzenianie się ograniczeń (constraint propagation) może stanowić jej podstawę, nie wystarcza ono, by wyjaśnić jej normatywny charakter. W przeciwieństwie do naturalnych korelacji, które są czysto kauzalne i niepodważalne w swojej aktualności, reprezentacje mogą być błędne, mogą zawodzić, mogą "nie trafiać" — a to oznacza, że podlegają normatywnym ocenom. Znaczenie nie jest więc determinowane jedynie przez fizykę, lecz zakorzenione jest w funkcjonalnym i normatywnym porządku.

Informacja, jak zauważyli Peirce i Bateson, nie polega jedynie na różnicy ani na formie przekazanej — chodzi o różnicę, która czyni różnicę, o formę, która zostaje rozpoznana jako mająca znaczenie. Fizyczna korelacja staje się reprezentacją dopiero wtedy, gdy uznajemy ją za mającą funkcję, a więc gdy oceniamy ją względem jej celu, a nie wyłącznie względem skutku.

Teleosemantyka, jako dominujący nurt w naturalistycznych teoriach znaczenia, stara się wyjaśnić ten aspekt przez odniesienie do funkcji. Funkcja nie jest tu rozumiana jako aktualny efekt działania, ani jako subiektywna intencja użytkownika, lecz jako tzw. funkcja właściwa — efekt, do którego dane zjawisko zostało wyselekcjonowane. To selekcyjna historia nadaje przedmiotowi jego funkcję, niezależnie od tego, czy aktualnie ją realizuje.

Na przykład, detektor metalu może wytwarzać pole elektromagnetyczne i jednocześnie odstraszać owady, ale jego funkcją nie jest odstraszanie owadów, lecz wykrywanie metalu — bo właśnie do tego został zaprojektowany. Podobnie, serce może wytwarzać dźwięki, ale jego funkcją jest pompowanie krwi. Funkcja jako taka nie poddaje się redukcji do sumy skutków — jest efektem selektywnej intencjonalności biologicznej, a nie statystyczną średnią.

Reprezentacje dzielą tę samą logikę funkcjonalną. Sygnał nie staje się reprezentacją dlatego, że coś wywołuje, ale dlatego, że został wyselekcjonowany, by coś reprezentować. Taniec pszczół nie oznacza po prostu aktywności tanecznej, lecz wskazuje lokalizację nektaru. Jego właściwą funkcją nie jest wyrażenie energii, lecz przekazanie informacji przestrzennej. Podobnie, słowo „kot” nie oznacza przypadkowego zbioru fonemów, lecz odnosi się do konkretnego gatunku zwierzęcia. To odniesienie ma charakter stabilny, mimo że może być używane w kontekstach improwizowanych lub ironicznych.

Co więcej, normatywność reprezentacji ujawnia się właśnie wtedy, gdy reprezentacja zawodzi. Detektor, który nie wykrywa metalu, mimo że powinien — jest błędny. Tak samo znak, który nie wskazuje właściwego referenta, nie spełnia swojej funkcji. To odróżnia reprezentacje od czysto naturalnych korelacji, które nie mogą być „błędne” — są po prostu aktualnymi związkami przyczynowymi, bez normatywnego odniesienia.

Zatem, choć znaczenie ma podstawę fizyczną w propagacji ograniczeń, nie jest przez nią determinowane. Reprezentacja — w przeciwieństwie do zwykłej korelacji — zakłada odniesienie do czegoś, co może być nieobecne, odległe, nieaktualne. To, co reprezentowane, nie musi być obecne tu i teraz, lecz może odnosić się do zdarzenia dystalnego. W tym tkwi podstawowy paradoks intencjonalności: jak system fizyczny może zawierać odniesienie do czegoś, co nie jest bezpośrednio dane?

Pewnym rozwiązaniem jest przyjęcie, że to nie sam sygnał „niesie” znaczenie, lecz że znaczenie powstaje w ramach relacji interpretacyjnych. W tym kontekście semiotyka Peirce’a oferuje ujęcie, w którym znak, obiekt i interpretant tworzą triadę — proces semioz

Czy sygnalizacja może funkcjonować bez wspólnych interesów między graczami?

Badania wykazały, że sygnalizacja jest możliwa nawet wtedy, gdy gracze dzielą jedynie częściowe lub wręcz żadne wspólne interesy (Godfrey-Smith i Martínez 2013; Martínez i Godfrey-Smith 2016). W tych sytuacjach równowagi Nasha w grach sygnalizacyjnych okazują się być równowagami sygnalizacji, co oznacza, że gracze mogą wypracować stabilne systemy komunikacji nawet bez pełnej zgodności celów.

Różne podejścia do wyjaśniania powstawania i utrzymywania równowag, takie jak teoria racjonalnego wyboru czy dynamika ewolucyjna, dostarczają odmiennych perspektyw, lecz wszystkie koncentrują się na tym samym zjawisku: interakcje między graczami prowadzą do ustabilizowanego stanu, w którym komunikacja może funkcjonować. Natomiast argument oparty na wzajemnym niezrozumieniu podważa, czy samo osiągnięcie równowagi sygnalizacyjnej wystarcza do rzeczywistej komunikacji.

Gry koordynacyjne Lewis-Skyrmsa to gry typu stan–czyn, w których celem jest zsynchronizowanie działań odbiorcy z określonym stanem świata. Istnieje jednak inny typ koordynacji — koordynacja czynność–czynność, gdzie celem jest uzgodnienie działań obu graczy, np. dwóch wioślarzy koordynujących ruchy poprzez sygnały z bębna. W odróżnieniu od koordynacji stan–czyn, w koordynacji czynność–czynność stan nie jest zewnętrzny i niezależny od graczy, lecz jest działaniem jednego z nich. Choć rozróżnienie to bywa płynne i wiele przypadków jest mieszanych, model Lewis-Skyrmsa dobrze radzi sobie z reprezentacją koordynacji czynność–czynność.

Załóżmy grę koordynacyjną między dwoma graczami – nadawcą i odbiorcą. Nadawca może wykonać jedną z dwóch czynności i wysłać jeden z dwóch sygnałów (M1, M2). Odbiorca, po odebraniu sygnału, podejmuje swoją czynność. Brak jest ustalonego związku między czynnościami nadawcy, sygnałami i czynnościami odbiorcy. Co istotne, nadawca i odbiorca mają różne przekonania epistemiczne dotyczące gry, którą grają. Nadawca sądzi, że gra przypomina „polowanie na jelenia” (stag hunt), a odbiorca myśli, że gra jest „bitwą płci” (battle of sexes). Nie mają wspólnej wiedzy o wypłatach i nie istnieje system komunikacji uzgodniony z góry.

W grze „polowanie na jelenia” gracz wybierający strategię zająca (hare) zawsze otrzymuje jedną jednostkę wypłaty, niezależnie od decyzji drugiego gracza. Gracz wybierający jelenia (stag) otrzymuje 2 jednostki, jeśli drugi gracz również wybierze jelenia, i 0, jeśli drugi wybierze zająca. Zasada ta pokazuje, że współpraca przynosi lepsze efekty, ale wymaga koordynacji. Nadawca, widząc występowanie zająca lub jelenia, wysyła sygnał do odbiorcy, który decyduje, jaką strategię przyjąć. Nadawca może wybrać jedną z czterech strategii, podobnie odbiorca ma cztery możliwe reakcje. Analiza pokazuje, że istnieją dwie równowagi Nasha, które odpowiadają dwóm możliwym systemom sygnalizacji, do których nadawca może dojść poprzez proces uczenia się opartego na wzmacnianiu.

Z kolei odbiorca, wyobrażając sobie grę jako „bitwę płci”, interpretuje sygnały w inny sposób. Przykładowo, mąż i żona chcą spędzić razem weekend, ale mają różne preferencje co do aktywności (piłka nożna versus film). Najważniejsze jest jednak, by być razem — brak wspólnego spędzania czasu nie daje żadnej wypłaty. Odbiorca wierzy, że nadawca zawsze wysyła sygnał po dokonaniu wyboru, a na tej podstawie podejmuje własną decyzję. Tutaj również występują dwie równowagi Nasha, dające dwa możliwe systemy sygnalizacji.

Podczas rzeczywistej interakcji, pomimo różnic w przekonaniach obu graczy, ich wzajemne oddziaływania prowadzą do ustabilizowania się jednego z systemów sygnalizacji, które z punktu widzenia obu są najlepszą odpowiedzią. Warto podkreślić, że nie chodzi o stany świata, które nadawca postrzega, lecz o jego działania jako element sygnału dla odbiorcy.

Należy zrozumieć, że w takich sytuacjach komunikacja powstaje i utrzymuje się nie dzięki wspólnej wiedzy czy interesom, ale w wyniku adaptacji, uczenia się oraz wzajemnego dostosowywania się do sygnałów i działań. Równowaga sygnalizacyjna jest procesem dynamicznym, a nie jednorazowym zdarzeniem. Odbiorca i nadawca mogą mieć odmienne mentalne modele gry, a mimo to komunikacja jest możliwa, o ile procesy uczenia się i koordynacji pozwalają na wypracowanie skutecznego systemu sygnalizacji.

To, co jest ważne, to zrozumienie, że w komunikacji sygnalizacyjnej kluczowa jest adaptacja oraz dynamiczne dopasowanie strategii, które nie zawsze wymaga pełnej zgodności interesów czy uprzedniej umowy. W praktyce oznacza to, że sygnały są nośnikami znaczenia dopiero w kontekście interakcji, które same nadają im sens poprzez wzajemne uczenie się i korekty zachowań. Komunikacja to zatem proces, a nie jednorazowe działanie.