Informacja jest zjawiskiem, które można rozpatrywać z różnych perspektyw, jednak kluczowe jest zrozumienie jej trójaspektowej natury: strukturalnego, referencyjnego i normatywnego. Te trzy aspekty nie stanowią jedynie odrębnych ujęć, ale są ze sobą ściśle powiązane hierarchicznie — normatywny zależy od referencyjnego, a ten z kolei od strukturalnego. Strukturalna informacja to różnica, wynikająca z przerwania symetrii, jest obiektywna i możliwa do zmierzenia, zarówno wewnętrznie, jak i zewnętrznie. Od niej zaczyna się rozumienie informacji, ponieważ bez istnienia strukturalnej różnicy nie ma sygnału ani treści.

Referencyjny aspekt informacji dotyczy relacji pomiędzy sygnałem a jego źródłem, co jest bardziej fundamentalne niż znaczenie, które bywa mylone z informacją. Informacja referencyjna jest neutralna względem prawdy i fałszu (alethicznie neutralna), co odróżnia ją od znaczenia językowego. Oznacza to, że informacja nie jest równoznaczna z interpretacją czy zrozumieniem — jest to relacja bardziej podstawowa, obejmująca różnorodne formy komunikacji i przekazu, nie tylko językowe.

Normatywny aspekt informacji to jej funkcja i użyteczność, którą można rozumieć na dwóch poziomach: typowym (stabilizowanym) oraz indywidualnym, wynikającym z intencji lub faktycznego wykorzystania. Ten poziom dopiero osadza informację w kontekście praktycznym, społecznym i kognitywnym, pokazując, że informacja służy celom, które wykraczają poza sam fakt przekazu danych.

Hierarchiczna zależność tych aspektów oznacza, że analiza informacji na poziomie strukturalnym może być prowadzona bez uwzględniania pozostałych, ale rozpatrywanie aspektu referencyjnego wymaga włączenia strukturalnego, a normatywnego — obu pozostałych. Ta struktura tłumaczy, dlaczego teoretyczne podejścia skoncentrowane wyłącznie na mierzeniu ilości informacji, jak teoria Shannona, pomijają jej znaczenie i funkcję, co prowadzi do utraty istotnych wymiarów pojęcia informacji.

Współczesne badania nad informacją powinny więc zmierzać do przywrócenia roli aspektów referencyjnego i normatywnego w teorii informacji. Jest to niezbędne, aby pojęcie informacji odzyskało pełnię swojego znaczenia, zwłaszcza w kontekście komunikacji międzyludzkiej, nauki i technologii. Konceptualna analiza informacji, która ujawnia jej złożoną i hierarchiczną strukturę, stanowi fundament do tworzenia bardziej wszechstronnych teorii.

Informacja nie jest tożsama z danymi, wiadomościami, kodami czy znaczeniem — jest pojęciem bardziej złożonym, którego zrozumienie wymaga uwzględnienia zarówno struktury, odniesienia, jak i funkcji. Pomijanie któregokolwiek z tych elementów prowadzi do uproszczeń i nieporozumień w dyskursie naukowym i praktyce.

Ważne jest również rozróżnienie między relacją przyczynową a informacyjną. Nie każda relacja przyczynowa musi być relacją informacyjną, jednak w szerszym ujęciu fizycznych relacji, które obejmują także procesy prawdopodobne i wielokierunkowe, informacja może istnieć tam, gdzie tradycyjne ujęcie przyczynowości jej nie przewiduje. To rozszerzenie pomaga wyjaśnić złożone zjawiska komunikacyjne i poznawcze, gdzie informacja jest nośnikiem wiedzy i zmian w stanie umysłu.

Ponadto, zrozumienie informacji jako zjawiska hierarchicznego umożliwia jej stosowanie na różnych poziomach abstrakcji i w różnych dziedzinach, od nauk przyrodniczych, przez technologie informacyjne, aż po nauki społeczne. Pozwala to na bardziej precyzyjne definiowanie i mierzenie informacji w kontekstach, które wymagają odmiennego podejścia i innej wrażliwości na jej aspekty.

Czy informacja jest częścią świata fizycznego, czy czymś ponad nim?

Aby zrozumieć, czym jest informacja w sensie metafizycznym, filozofowie musieli sięgnąć do problemu tzw. intencjonalności – zdolności jednych rzeczy do bycia „o” innych rzeczach. Ugruntowanie intencjonalności w świecie naturalnym wymaga pokazania, że relacja „o czymś” nie jest czysto mentalna, lecz zakorzeniona w realnych korelacjach w przyrodzie. Od czasów Grice’a (1957) wielu badaczy uznaje naturalną informację za możliwy fundament tej relacji.

Według Millikan, jedna z najbardziej rozwiniętych koncepcji tzw. informacji korelacyjnej opiera się na pojęciu infosign-infosigned – para elementów, z których pierwszy (znak) występuje w nieprzypadkowej korelacji z drugim (stanem rzeczy) w ramach lokalnego układu reguł projekcyjnych. Oznacza to, że pewna forma obecna w jednej strukturze świata odpowiada formie w drugiej – istnienie izomorficznego odwzorowania pozwala znakom „reprezentować” swoje referenty. Przykład ciemnej chmury jako znaku deszczu (Millikan 2004) ilustruje ten mechanizm: chmura nie jest samym deszczem, ale jej struktura odzwierciedla strukturę zjawiska deszczu. Obserwując chmurę, obserwator odbiera zakodowaną formę deszczu, zgodnie z regułami odwzorowania.

Millikanowska koncepcja informacji jako komunikacji form przypomina model Shannona, w którym to nie treść, lecz forma jest tym, co przemieszcza się od nadawcy do odbiorcy. Jednak takie ujęcie rodzi poważne pytanie metafizyczne: gdzie mieści się abstrakcyjna forma w świecie fizycznym? Jak coś niematerialnego może mieć efekty materialne?

W odpowiedzi na to pytanie Norbert Wiener stwierdził, że informacja to „informacja, nie materia ani energia”. Jego intuicja była prosta: mimo że przetwarzanie informacji wymaga energii (zgodnie z zasadą Landauera, każde przetworzenie bitu kosztuje co najmniej kT ln2 energii), sama informacja nie może być utożsamiona z fizycznym nośnikiem. Otwiera to fundamentalny problem – jak coś niefizycznego może wpływać na świat fizyczny?

Dyskusje te mają długą tradycję sięgającą Platona i Arystotelesa. Współcześnie pojawiają się dwa dominujące stanowiska. Pierwsze, fizykalizm redukcyjny, utrzymuje, że forma to tylko organizacja stanów fizycznych – nie jest czymś ponadmaterialnym, lecz sposobem ich uporządkowania. W tej tradycji mieszczą się teorie informacyjne Dretskego, Millikan, Shea i innych, które próbują wyjaśnić znaczenie jako funkcję naturalnych korelacji.

Drugie stanowisko, zwane fundamentalizmem informacyjnym, uznaje informację za własność podstawową, obok materii i energii. Dla przedstawicieli tej szkoły, takich jak Chalmers, Schmidhuber czy Wheeler, wszechświat jest z natury informacyjny i obliczalny – wszystko, co istnieje, to informacja, różnica, struktura. Idea It from bit Wheelera zakłada, że nie energia i nie materia, ale informacja jest pierwotną substancją rzeczywistości. W takim ujęciu nie próbujemy wyjaśniać informacji, lecz używamy jej do wyjaśniania innych zjawisk, jak percepcja, świadomość, a nawet istnienie materii.

Jednak ten pogląd spotyka się z krytyką. Metodologicznie oskarża się go o unikanie problemu – przyjmując informację jako dane pierwotne, nie wyjaśnia się niczego. Epistemologicznie miesza poziomy wyjaśniania: fakt, że coś da się obliczyć, nie oznacza, że jest to z natury cyfrowe. Floridi podkreśla, że brakuje tu precyzyjnych warunków zastosowania – bez nich pojęcie informacji staje się puste. Ontologicznie zaś fundamentalizm przypomina realizm platoński, powielając klasyczne problemy metafizyczne.

Oba stanowiska – mimo różnic – traktują formę jako coś pozytywnego, dodanego do fizyczności. I tu pojawia się wspólny błąd: zakładają istnienie formy jako realnej substancji, którą trzeba osadzić w świecie fizycznym lub uznać za jego podstawę. Tymczasem możliwe jest podejście odwrotne – uznanie informacji za relację negatywną, opartą na różnicy, nie na obecności.

To, co kluczowe, to zrozumienie, że informacja nie musi być „czymś” dodatkowym. Może być po prostu sposobem, w jaki system odróżnia jedno od drugiego. Nie forma jako byt, lecz różnica jako funkcja. Informacja nie istnieje sama w sobie – istnieje tylko względem układu, który jest zdolny rozpoznać różnicę. W tym sensie informacja jest negatywnie fizyczna – nie jako materia, lecz jako relacja między stanami materii.

Ważne jest, by czytelnik zrozumiał, że problem informacji nie sprowadza się do znalezienia jej substancjalnej „natury”. Informacja nie istnieje jak elektron czy cząstka – nie ma lokalizacji w przestrzeni. Jest funkcją odróżnialności, projekcją formy na formę, efektem struktury, która sama nie jest rzeczą. Myślenie o informacji jako o czymś fizycznym nie oznacza utożsamiania jej z nośnikiem, lecz z zasadą działania systemów zdolnych do przetwarzania różnicy. To podejście nie tylko unika metafizycznych trudności, lecz pozwala też myśleć o świadomości, poznaniu i języku jako o systemach różnicy – nie reprezentacji.

Jak ewolucja i interpretacja kształtują normatywność reprezentacji?

Reprezentacja znaków w systemie interpretacyjnym powinna być rozumiana dwuaspektowo: przez pryzmat ewolucji oraz samej interpretacji. Deacon (2008) wskazuje, że ewolucyjny mechanizm ogranicza dynamikę możliwych interpretacji, lecz ich nie determinuje. Każda chwila interpretacji albo wspiera, albo zakłóca samo-podtrzymujący się trend dynamiki systemu. To oznacza, że normatywność procesu interpretacyjnego ma swoje źródło zarówno historyczne, jak i natychmiastowe, ahistoryczne oddziaływanie normatywne.

Ta naturalistyczna koncepcja semiotyczna przewyższa teleosemantykę, która tłumaczy normatywność reprezentacji przez ewolucję przez dobór naturalny. Ewolucja jest procesem mechanistycznym, więc normatywność wydaje się powierzchowna. Jednocześnie jednak teleosemantyka przyjmuje istnienie systemu żywego, zamiast je wyjaśniać. Z kolei ujęcie Deacona wyjaśnia podstawy systemów żywych, rozumiejąc normatywność jako związane z samo-podtrzymaniem tych systemów.

Problemy dezinformacji i określenia treści reprezentacji zostają rozwiązane: jeśli reprezentacja dotyczy czegoś niezwiązanego z jej historycznym rozwojem i nie spełnia funkcji związanej z samo-podtrzymaniem systemu interpretacyjnego, to funkcjonuje błędnie, przekazując nieprawdziwą informację. Aspekt obiektu reprezentowanego, który stanowi podstawę reprezentacji, jest określany przez historię reprezentacji oraz właściwości aktualnie przyczyniające się do samo-podtrzymania systemu interpretacyjnego. Dzięki temu ujęciu normatywność nie jest arbitralna i nie sprowadza się do indywidualnej interpretacji, gdyż jest stabilizowana przez kontekst historyczny.

Ponadto wyjaśnia ono, jak reprezentacja ustalona przez przeszłe warunki nadal może odnosić się do warunków aktualnych. Teleosemantyka przypisuje stabilizującą funkcję reprezentacji czynnikom przeszłym, co stwarza problem, gdy reprezentacja ma odnosić się do teraźniejszości. Naturalistyczne ujęcie akcentuje, że reprezentacja w systemie interpretacyjnym odnosi się do warunków bieżących, lecz jest przez nie ograniczona przez swoją przeszłość.

Koncepcja ta także rozwiązuje napięcie między otwartością reprezentacji a jej stabilizacją. Teleosemantyka zamyka możliwość rozwoju znaczenia reprezentacji, podczas gdy żywe systemy nieustannie adaptują i wykorzystują reprezentacje w różnych warunkach. Perspektywa negatywnej logiki ewolucji pozwala wyjaśnić stabilizację reprezentacji oraz jej ewolucyjne możliwości zmiany i rozwoju.

W tym naturalistycznym ujęciu informacja strukturalna ujmowana jest jako ograniczenia (constraints), a informacja referencyjna wynika z propagacji tych ograniczeń w dynamicznych interakcjach procesów. Propagacja ograniczeń staje się znacząca dopiero w kontekście systemu interpretacyjnego – to jest kluczowy dogmat semiotyki. Deacon podkreśla, że funkcja i reprezentacja są możliwe dzięki organizacji procesów żywych wokół brakujących i zewnętrznych czynników, a proces darwinowski generuje coraz bardziej złożone formy zależności od nieobecności. Informacja jest właściwością relacyjną, wynikającą z nakładania się różnych poziomów ograniczeń: od prawdopodobieństwa sygnału (Shannon), przez dynamikę generowania sygnału (Boltzmann), po ograniczenia niezbędne do samo-podtrzymania daleko od równowagi dynamiki celowej (Darwin).

Ta naturalistyczna teoria informacji i reprezentacji tłumaczy tylko najprostsze i najbardziej idealne formy reprezentacji. Jednak reprezentacje mogą być znacznie bardziej złożone, szczególnie w języku. Przykładem są liczne przypadki fikcji, jak „Harry Potter” czy „francuski król w 2025 roku”. Proste wyjaśnianie fikcji jako błędnej reprezentacji lub pozorowania reprezentacji jest niewystarczające i nieprzekonujące. Kompleksowa teoria powinna też umieć wyjaśnić te złożone przypadki, które są przedmiotem dalszych badań.

Ważne jest zrozumienie, że normatywność reprezentacji nie jest arbitralna, lecz wynika z interakcji historycznych i dynamicznych procesów biologicznych. Reprezentacje są z jednej strony uwarunkowane przeszłością, z drugiej – otwarte na nowe interpretacje i adaptacje, co pozwala żywym systemom efektywnie reagować na zmienne środowisko. Ta perspektywa łączy mechanizmy ewolucyjne z funkcjonalnością systemów żywych, tworząc ramy, które pozwalają rozumieć zarówno trwałość, jak i zmienność znaczeń.

Jak odniesienie symboliczne zależy od odniesienia indeksalnego i ikonicznego?

Pojęcie odniesienia w semiotyce i językoznawstwie ma hierarchiczną strukturę, w której trzy typy znaków — ikoniczne, indeksalne i symboliczne — współistnieją i wzajemnie się warunkują. Ikoniczne znaki opierają się na podobieństwie do swojego referenta, indeksalne natomiast wskazują na coś poprzez bezpośrednią korelację czy związek kontekstowy. Symboliczne odniesienie natomiast nie ma bezpośredniego fizycznego powiązania z obiektem, do którego się odnosi, lecz opiera się na konwencji i umowie społecznej.

Przykład zaczerpnięty z archeologii doskonale ilustruje tę hierarchię. Archeolog odkrywa gliniane tabliczki z wyrytymi znakami, które na pierwszy rzut oka przypominają symbole językowe. Bez znajomości kontekstu językowego pozostają one jednak tylko ikonami lub indeksami — mogą wskazywać na towary lub miejsce ich pochodzenia. Dopiero gdy zostaną znalezione regularności i powiązania między tymi znakami a rzeczywistymi przedmiotami, archeolog może zacząć odczytywać je symbolicznie. Hierarchia interpretacji pokazuje, że umiejętność odczytu znaków symbolicznych jest zbudowana na wcześniejszej kompetencji rozumienia znaków indeksalnych, które z kolei opierają się na rozpoznawaniu ikon.

To, co odróżnia odniesienie symboliczne, to przede wszystkim jego konwencjonalność i autonomiczność wobec bezpośredniego świata. Symbol nie musi mieć fizycznej relacji z tym, do czego się odnosi — może reprezentować obiekty abstrakcyjne, fikcyjne czy uogólnione. Dlatego symbol może funkcjonować niezależnie od konkretnego kontekstu, jednak aby zyskać pełnię znaczenia, musi być osadzony w określonej sytuacji. Słowo „pies” samo w sobie jest abstrakcyjnym symbolem, który definiuje kategorię, lecz dopiero w sytuacji, gdy ktoś widzi konkretnego psa i wypowiada to słowo, nabiera ono mocy odniesienia indeksalnego.

Problem symbolicznego „odkładu” (symbol grounding problem) opisany przez Stevana Harnada wskazuje na trudność, jaką mają sztuczne systemy symboliczne w nadawaniu sensu formalnym symbolom, które z natury są arbitralne i pozbawione bezpośredniego odniesienia do świata. To odróżnia symbole naturalnego języka od symboli używanych w sztucznej inteligencji, gdzie brakuje im osadzenia w realnym kontekście. Zrozumienie tego problemu jest kluczowe dla wyjaśnienia, jak symboliczne znaczenia powstają z bardziej podstawowych form odniesienia, a także dla wyjaśnienia działania języka w realnych sytuacjach komunikacyjnych.

Warto zauważyć, że w obrębie samego języka symbolicznego odniesienia często towarzyszą elementy indeksalne i ikoniczne — na przykład w składni czy semantyce, gdzie pewne formy zachowują ślady podobieństwa lub bezpośrednich związków z rzeczywistością. To wskazuje, że hierarchia odniesienia nie jest jedynie liniowym wzrostem złożoności, ale także strukturalnym powiązaniem różnych poziomów interpretacji.

Zrozumienie hierarchii odniesienia i sposobu, w jaki symbole są „uzasadniane” poprzez odniesienia indeksalne i ikoniczne, pomaga nie tylko w teorii języka, lecz także w praktycznych dziedzinach, takich jak interpretacja tekstów, tłumaczenie czy sztuczna inteligencja. W kontekście języka kluczowe jest uświadomienie sobie, że symboliczne znaczenie nigdy nie funkcjonuje w próżni — zawsze jest zakorzenione w doświadczeniu, kontekście i wcześniejszych formach odniesienia, które nadają mu realne znaczenie.

Jak rozumieć zawartość informacyjną sygnału?

Tradycyjna teoria informacji, zapoczątkowana przez Shannona, skupia się wyłącznie na ilości informacji przekazywanej przez sygnał, mierzonej jako zmiana prawdopodobieństwa konkretnego stanu źródła. Tego rodzaju podejście ujmuje informację jako wielkość scalarową – dotyczącą jednego stanu i jego zmiany. Jednak taka perspektywa pomija wieloaspektowy charakter treści informacyjnej, ponieważ nie uwzględnia wpływu sygnału na prawdopodobieństwa wszystkich możliwych stanów, które może przyjmować źródło informacji.

Alternatywą dla tego podejścia jest ujęcie wektorowe, zgodnie z którym zawartość informacyjna sygnału jest rozkładana na szereg komponentów – po jednym dla każdego możliwego stanu rzeczy. Każdy z tych komponentów mierzy, w jakim stopniu prawdopodobieństwo danego stanu uległo zmianie pod wpływem sygnału. Sygnał nie tylko informuje o jednym stanie, ale rekonfiguruje całą matrycę epistemiczną odbiorcy względem źródła. Wektor zawartości informacyjnej sygnału można więc wyrazić jako zestaw logarytmicznych zmian prawdopodobieństw warunkowych względem bazowych, tj. pierwotnych, rozkładów prawdopodobieństwa każdego stanu.

Rozwijając teorię Skyrmsa, Scarantino wskazuje na niedostateczność samego ujęcia inkrementalnego – czyli skupionego na samych zmianach. Jego teoria, nazwana Probabilistic Difference Maker Theory, wprowadza dwuczłonową strukturę zawartości informacyjnej: z jednej strony mamy inkrementalną informację (czyli miarę zmiany), z drugiej – stopień ogólnego wsparcia, jaki sygnał zapewnia dla danego stanu rzeczy na tle danych kontekstowych. Sygnał nie tylko zmienia rozkład przekonań, ale też rekonfiguruje końcowy stan epistemiczny odbiorcy względem wszystkich możliwych opcji, uwzględniając dane wcześniej dostępne (czyli background data).

Z tej perspektywy pełna zawartość informacyjna sygnału obejmuje trzy aspekty: (1) które stany rzeczy zmieniły swoje prawdopodobieństwa, (2) w jakim stopniu te prawdopodobieństwa się zmieniły, oraz (3) jakie są końcowe, czyli posteriori, prawdopodobieństwa dla każdego ze stanów. Takie ujęcie informacji wychodzi poza ramy czysto ilościowe – pozwala lepiej uchwycić relację sygnału z rzeczywistością, której on dotyczy.

To rozróżnienie między zmianą a wsparciem pozwala też uniknąć pewnych paradoksów klasycznych teorii informacji, jak np. paradoks Bar-Hillela-Carnapa. Ten ostatni polegał na tym, że zdania sprzeczne – mimo swej fałszywości – według logiki teorii mogły nieść maksymalną ilość informacji, ponieważ wykluczają wszystkie alternatywy. Scarantino, za Fresco i Michaelem, pokazuje, że ten paradoks zanika, gdy oddzielimy informativeness (czyli inkrementalność) od samej zawartości informacyjnej rozumianej jako wsparcie epistemiczne. Zdanie wewnętrznie sprzeczne, choć formalnie „wyklucza” wszystko, w praktyce nie wnosi nic, bo jego końcowy poziom wsparcia jest zerowy.

Teoria ta unika także tzw. paradoksu nieskończonej informacji, który pojawiał się w innych ujęciach semantycznych. Kluczem do rozwiązania tego problemu okazuje się rezygnacja z założeń o nomicznych (czyli koniecznych przyrodniczo) zależnościach między sygnałami a stanami rzeczy. Wystarczy korelacja, by informacja mogła zostać zakotwiczona – nie potrzeba przyczynowej determinacji ani prawa natury, by sygnał mógł spełniać funkcję informacyjną.

Zasadniczą zaletą Probabilistic Difference Maker Theory jest jej zgodność z intuicją: informacja redukuje niepewność, ale nie w oderwaniu od treści, lecz względem konkretnej rzeczywistości. Redukcja niepewności dotyczy tego, o czym informacja jest. Sygnał staje się w ten sposób znaczący – nie tylko jako miara zmiany, ale jako nośnik kierunkowej treści.

To prowadzi do głębszego pytania o zakorzenienie znaczenia w informacji. Jak dane mogą stać się znaczące? Jak informacja może nieść prawdę? Jak powstaje relacja „o czymś” – czyli tzw. aboutness – z czysto probabilistycznych struktur? W tym celu filozofowie informacji muszą odpowiedzieć na dwa zasadnicze pytania: w jaki sposób informacja może nabywać aspekt semantyczny oraz czy relacje informacyjne mogą rzeczywiście stanowić fundament znaczenia.

Znaczenie, zwłaszcza to, które ma charakter intencjonalny, zawiera w sobie komponent normatywny – odnosi się do tego, co powinno być, a nie tylko do tego, co jest. Oznacza to, że sygnały mogą być błędne, fałszywe lub niewłaściwe – co nie dotyczy znaków naturalnych (jak np. dym jako znak ognia). Dlatego tak ważne staje się pytanie, jak z naturalnych korelacji (np. statystycznych współwystąpień) może wyłonić się normatywność semantyczna.

Istotne jest, aby czytelnik zrozumiał, że zawartość informacyjna sygnału nie jest własnością absolutną, lecz relacyjną – zależną od danych kontekstowych, wcześniejszej wiedzy odbiorcy, struktury możliwych stanów świata oraz zdolności do przekształcenia epistemicznej konfiguracji systemu odbiorczego. W tym ujęciu informacja nie jest czymś przekazywanym w sposób mechanicystyczny, lecz dynamicznym procesem rekonfiguracji relacji poznawczych między odbiorcą a światem. Tylko w tej dynamice może wyłonić się znaczenie, które nie tylko opisuje, ale i zobowiązuje.