För att undersöka detta behöver vi först klargöra vad termodynamisk entropi innebär. Termodynamisk entropi mäter oordningen i ett system. Den kan även förstås ur perspektivet av begränsning, vilket diskuterades i föregående avsnitt. Enligt termodynamikens andra lag tenderar ett termodynamiskt system att söka mot jämvikt. När det gäller entropi innebär detta att systemet blir mer oordnat, där dess element blir allt mer orelaterade tills de når en jämn fördelning – maximal entropi. Som ett resultat blir varje element mindre begränsat, vilket ger det mer frihet. Detta innebär att systemet kan vara i vilket möjligt tillstånd som helst, men sannolikheten att vara i ett specifikt tillstånd är astronomiskt låg eftersom elementen är jämnt fördelade och orelaterade. När denna tendens hindras eller vänds i ett system – det vill säga när elementen tenderar att korrelera lokalt – antyder det att något externt stör systemet.

Negativt sett, när ett mycket sannolikt tillstånd inte inträffar, tyder det vanligtvis på extern påverkan. Med andra ord, den probabilistiska fördelningen av alla möjliga tillstånd förändras på grund av externa influenser. Detta kopplar samman termodynamisk entropi med information. Interaktionerna mellan systemet och den externa världen kan ses som ett kommunikationssystem. De möjliga tillstånden i systemet kan användas som signaler, vilket ger information om de världshändelser som verkar på det. Förändringen i den probabilistiska fördelningen kan mätas som inkrementell information. Vidare, som jag tidigare argumenterade, har informationsentropi inte en naturlig tendens att öka på samma sätt som termodynamisk entropi. Däremot, när man beaktar det fysiska mediet som informationen förkroppsligar, förändras situationen. Eftersom informationsstatena realiseras av och mappas på de fysiska tillstånden i ett termodynamiskt system, tenderar ökningen av entropi att spontant korrumpera kanalen och signalerna, vilket minskar systemets informationskapacitet och gör kanalen mindre pålitlig.

Nu när vi har artikulerat relationen mellan termodynamiska och informationsentropier, låt oss undersöka hur denna relation hjälper till att förtydliga den naturliga förankringen av representation.

Enligt många naturalistiska filosofer fungerar korrelationerna mellan händelser i naturen som den naturliga grunden för representation. När en världshändelse återkommande korrelerar med en annan (i statistisk bemärkelse) inom ett lokalt område, överförs den naturliga informationen från den första till den andra. I termer av begränsning, sprider de första begränsningarna begränsningar i den andra. Detta ger en formell karaktärisering av naturlig information. Men hur förstår vi dess fysikalitet? Vi kan närma oss denna fråga genom att följa Shannons arbete och bygga vidare på Deacons idéer (2007; 2017).

En viktig lärdom från Shannon är att den information som en signal förmedlar inte bestäms av signalens inneboende egenskaper. Snarare är det de fysiska egenskaperna som gör representation eller referens möjlig. Men hur kan de fysiska egenskaperna hos signalerna besitta denna kapacitet? En ledtråd gavs i föregående avsnitt: Signaler, som fysiska medier, kan analyseras i två dimensioner – formell och fysisk – där den formella aspekten beror på den fysiska. Detta antyder att informationsöverföring måste vara en fysisk process och därför är den underkastad termodynamikens lagar.

Så, grunden för samvariation mellan Shannons och Boltzmanns entropi kan enkelt uttryckas så här: en minskning av antingen Shannon- eller Boltzmann-entropi sker inte spontant, så när det sker är det ett tecken på att en extern påverkan är inblandad.

Låt oss överväga ett termodynamiskt system, T. När det inte finns någon extern påverkan ökar T:s entropi spontant tills den når sitt maximum. När entropin slutar öka eller till och med reverseras, med elementen som tenderar att korrelera med varandra – vilket bildar struktur eller ordning ur kaos – måste något externt påverka det och ändra denna tendens. Därför, när T är i ett spontant osannolikt tillstånd, är det ett tecken på en yttre störning. Detta är en naturlig grund för informationsentropi. Enligt Shannons teori är information en minskning av osäkerhet. Ju mer osäker en signal är, desto mer informationsentropi bär den. Osäkerheten hos en signal mäts av antalet möjliga signaler. De möjliga signalerna motsvarar de möjliga tillstånden hos en världshändelse. Ett system med högre termodynamisk entropi bär också mer informationsentropi. Med andra ord, det är mer osäkert om systemet kan vara i ett specifikt tillstånd. Därför är informationsentropi begränsad av termodynamisk entropi. När det sker en minskning i osäkerheten hos en signal, eller informationsentropi, betyder det att någon extern begränsning har applicerats på signalmediet. Signalen bär då korrelerad information om den världshändelse som ålade den externa begränsningen. Denna logik gäller även för motsatt fall i termodynamik.

Anta nu att ett system är i ett starkt begränsat tillstånd långt från jämvikt, som i en metalldetektor (Deacon 2017). När en metalldetektor är i drift, bildar en konstant elektrisk ström genom en spole ett stabilt elektromagnetiskt fält. Stabiliteten i fältet innebär att dess starkt begränsade tillstånd spontant bibehålls om detektorn är påslagen och det inte finns någon störning. Systemets entropi är mycket låg. Om detektorn däremot vidrör något ledande, störs fältet lätt när den elektriska strömmen påverkas. Detta innebär att fältet blir mindre begränsat, får fler frihetsgrader och systemets entropi ökar. I detta fall har detektorns system ett mycket lågt entropitillstånd. När detta låg- entropitillstånd går förlorat, indikerar det påverkan från något externt. Denna dynamiska interaktion kan även grunda informationsentropi. Det elektromagnetiska fältet används som signalmedium. När systemet är påslaget är informationsentropin låg eftersom de möjliga tillstånden som kan fungera som signaler och kanaler är få. När ett ledande objekt stör fältet, läggs nya möjliga tillstånd till, vilket skapar nya kanaler. Detta indikerar extern påverkan som utför arbete på systemet. Vidare ser vi att informationen som överförs av en signal inte bestäms av signalens inneboende egenskaper.

I båda fallen, om vi skulle stöta på en sådan signal, skulle den peka oss mot sannolikheten att denna signal är informativ om något annat än själva signaldetekteringskretsen, något som inte finns närvarande i systemet självt utan något utanför som förändrar och därmed påtvingar icke-spontana begränsningar på det annars okorrelerade virrvarret av signaler.

Denna analys visar att inte bara termodynamisk entropi grundar informationsentropi, utan också de fysiska dynamikerna – beroende på det fysiska sammanhanget – grundar representation eller referentiell information.

Vad kännetecknar autogenes och dess semiotiska processer?

Autogenes innebär en självregenererande process där en autogen, när den blir skadad, initierar en själv-reparation eller reproduktion. Detta leder till skapandet av en ny autogen som fungerar som ett tolkande element i systemet. De relationer som uppstår mellan autogenen (objektet), den dynamiska strukturen (signalen) och den regenererade autogenen (tolkningen) bildar en genuin triadisk relation som inte kan reduceras till någon dyadisk relation mellan två av dessa element. Sådana relationer mellan objekt, tecken och tolkning är en grundläggande princip för autogenes och uppfyller Peirces fyra formella villkor för tecken.

En viktig aspekt av autogenes är att den skapar en semiosis som involverar återetablering av distinktionen mellan själv och icke-själv. Eftersom denna process innebär en upprepning av självreferens och distinktionen mellan systemets inre och yttre, bör den betraktas som en ikonisk semiosis. Denna primitiva form av semiosis har flera distinkta egenskaper jämfört med mer komplexa semiotiska system. För det första refererar den till sig själv, vilket gör den självreferentiell i sin kärna. För det andra existerar objektet, signalen och tolkningen inte som separata entiteter, utan som en enhetlig process: autogenes. Detta innebär att semiosen inte är ett tillstånd av stabila representationer, utan en dynamisk och fortlöpande struktur. För det tredje manifesterar denna primitiva semiosis sig i ett diachroniskt (tidsberoende) flöde, där betydelse förändras och utvecklas över tid, till skillnad från den synkrona semiosen som inte är förankrad i tidsmässiga förändringar. För det fjärde är dynamiken hos autogenen fysiskt betingad, vilket innebär att den är mekanistisk och kan studeras med moderna vetenskapliga metoder. På grund av dessa distinkta egenskaper kan denna form av semiosis kallas för "operativ tolkning."

Operativ tolkning är inte samma sak som mer komplexa semioser, som de som är kopplade till mänskliga språk eller avancerade kommunikationssystem. Den operativa tolkningen fokuserar på hur information som relaterar till systemets funktion överförs och hur systemet självt strukturerar sina funktioner baserat på denna information. När en process misslyckas att bidra till autogenens självunderhåll och självproduktion, innebär det att systemet genererar felaktig information. Informationen, som tidigare var referentiell och normativ, blir nu förvrängd, vilket leder till att systemet inte längre fungerar på ett självregenererande sätt.

Autogenens anpassning till omgivningen kan illustreras genom ett exempel på en känslig autogen med en yta som binder till ett specifikt substrat. När mängden substrat ökar i omgivningen, minskar strukturell stabilitet, vilket gör att containmenten (det inneslutna systemet) oftare öppnas. Detta skapar förutsättningar för att autogenen ska kunna reproducera sig själv. När ett stort antal autogener har replikerats, kommer substraten att förbrukas, vilket leder till att containmenten stängs och stabiliteten återställs. Här får den känsliga autogenen ett adaptivt försprång framför den ursprungliga versionen, som inte är lika känslig för miljöförändringar.

Denna adaptiva fördel grundar sig i den känsliga autogenens förmåga att skapa indexikal representation. I semiotiska termer innebär detta att tecknet, som är bindningen mellan substratet och autogenens yta, är direkt kontinuerligt med sitt referent. På så sätt blir det ett index som indikerar lämpligheten i omgivningen. När substratet binder till ytan, aktiverar det autogenens självregenererande funktioner. I detta fall är processen mer än en kemisk reaktion – den är en semios.

För att förstå hur autogenes fungerar i relation till semios, måste vi förstå att substraten i omgivningen inte bara är potentiella semiotiska tillgångar; de måste vara relevanta för systemets självunderhåll och självproduktion. Endast de egenskaper av substratet som påverkar autogenens funktion är involverade i semiosen. Detta innebär att signifikansen hos substraten bestäms av deras relevans för autogenens självskapande och reproducerande processer.

En annan aspekt av autogenes är att substratens egenskaper fungerar som den dynamiska objektet som tecknet representerar, medan den övergripande lämpligheten hos omgivningen för autogenens självproduktion utgör det omedelbara objektet. Lämpligheten förstås här som frånvaron av förhållanden som skulle hindra självproduktionen av autogenen, och detta är en negativ egenskap – den beskriver frånvaron av hinder snarare än närvaron av något specifikt. Detta skapar en mångfacetterad förståelse av omgivningens roll som den miljö där autogenens självregenererande funktioner kan manifestera sig.

Hur Förståelsen av Information Kan Förklara Kommunikationen och Medvetandet

Information är inte bara något abstrakt eller tekniskt. Det är själva livets grundläggande byggsten. Denna insikt sträcker sig långt bortom traditionella koncept som endast ser information som data eller signaler som överförs mellan system. För att förstå hur kommunikation och medvetande fungerar i ett biologiskt sammanhang, behöver vi gräva djupare i vad information verkligen är, och på vilket sätt det fungerar inom olika nivåer av livet och medvetandet.

I den filosofiska och vetenskapliga diskursen har förståelsen av information utvecklats från att vara en formell, matematisk konstruktion till att bli något som är intimt förknippat med biologiska och kognitiva processer. En av de viktigaste idéerna som har vuxit fram är att information inte bara handlar om överföring av symboler, utan om att skapa och bibehålla meningsfulla mönster i ett system. När vi tänker på information som en komponent i biologiska system, blir det tydligt att det handlar om något som är både dynamiskt och relationellt. Information är inte bara passivt lagrad; den har funktioner som aktivt formar systemets beteende och utveckling.

Det finns en stor skillnad mellan information som en fysikalisk entitet och information som en semantisk eller meningsbärande enhet. I naturliga system, som de biologiska, är information inte bara relaterad till det fysiska, utan också till hur organismer använder den för att navigera sina miljöer. Här spelar semantik – studiet av betydelse – en viktig roll. Till exempel, i biologiska system, där vi ser naturlig kommunikation i form av signaler mellan organismer, är information alltid relaterad till hur dessa signaler påverkar och förändrar beteendet hos de inblandade enheterna.

En annan central aspekt är den normativitet som information bär med sig. I kommunikationen mellan organismer och system finns det inte bara ett byte av data, utan en sorts implicit normativ förväntan – att signaler ska tolkas på ett visst sätt för att systemet ska kunna upprätthålla sig självt och fortsätta utvecklas. Detta tankesätt gör det möjligt att förstå hur information inte bara handlar om den mängd data som överförs, utan också om hur denna data är strukturerad och vilken funktion den har i det större sammanhanget av systemets livscykel.

En annan viktig aspekt av information är den förmåga som system besitter att skapa och använda information genom självorganisering. Enligt den autopoietiska teorin, som utvecklades av bland andra Varela och Maturana, är livets fundamentala egenskap inte bara dess materiella struktur utan också dess förmåga att skapa sina egna komponenter och bibehålla sin organisation över tid. Detta är en direkt följd av hur information används för att skapa och upprätthålla livets komplexitet. Det är genom denna process som ett biologiskt system får förmågan att inte bara reagera på sin omgivning utan också att aktivt forma och anpassa sig till den.

Med dessa grundläggande insikter i åtanke är det viktigt att förstå att information inte kan reduceras till en enkel överföring av signaler eller data. Den måste förstås som en dynamisk process som är inbäddad i systemens fysiska och biologiska strukturer. Detta synsätt öppnar upp för en mer holistisk förståelse av medvetande och kognition, där informationsflödet inte bara är något som överförs, utan något som gör systemet levande och intelligent.

För att kunna applicera denna förståelse på kommunikation, är det avgörande att förstå att medvetande och kommunikation är processer som inte bara handlar om att dela information, utan om att skapa mening och samstämmighet mellan de inblandade enheterna. Det handlar om att förstå hur system reagerar på och påverkas av information, och på vilket sätt detta inverkar på deras förmåga att agera och interagera med omvärlden. En betydelsefull aspekt här är den så kallade "dubbla kontingensens teorem", där kommunikation aldrig är helt förutsägbar och alltid beroende av både avsändarens och mottagarens kontext och tolkning.

I denna kontext blir det också tydligt att information har en värderande aspekt. När vi pratar om informationssystem som en del av det biologiska eller kognitiva livet, måste vi förstå att information inte bara är objektiv eller neutral. Det är bärare av betydelse, och dessa betydelser är inte bara påverkade av den fysiska världen utan också av de sociala och kulturella sammanhang där de tolkas och används.

Således handlar en djupare förståelse av information om mycket mer än bara att definiera signaler och meddelanden. Den handlar om att se information som en grundläggande aspekt av både liv och medvetande, som en dynamisk och normativ kraft som formar alla aspekter av vårt existens. Det är genom information som vi inte bara interagerar med vår omgivning utan också skapar och omformar våra egna identiteter och medvetanden.

Hur kan vi mäta och förstå informationsinnehåll i signaler?

Skyrms teori om informationsinnehåll börjar där Shannon lämnar oss: med förståelsen att information minskar osäkerhet. Men Skyrms gör ett viktigt tillägg. Istället för att se informationsinnehåll som ett enda mått, menar han att det måste uttryckas som en vektor. En signal påverkar inte bara sannolikheten för ett enskilt tillstånd, utan omfördelar sannolikheterna över hela spektrumet av möjliga tillstånd. Det betyder att varje komponent i vektorn representerar hur mycket sannolikheten för ett visst tillstånd har förändrats i relation till dess ursprungliga sannolikhet.

Denna syn på information ger oss ett mer nyanserat sätt att förstå vad en signal faktiskt gör. Den visar inte bara att något har blivit mer eller mindre sannolikt, utan exakt hur hela sannolikhetsfördelningen har förskjutits. Detta är centralt för att förstå vad det innebär att en signal är informativ, inte bara i kvantitet utan i innehåll. Två signaler kan ha exakt samma informationsmängd i Shannons mening, men hänvisa till helt olika verkligheter. Det är denna aspekt som Skyrms teori fångar upp.

Scarantino utvecklar denna idé ytterligare genom att skilja mellan två dimensioner av informationsinnehåll: den inkrementella informationen och graden av totalt stöd. Den förra visar hur sannolikheter förändras på marginalen; den senare hur den slutliga fördelningen ser ut efter att signalen mottagits. En signal påverkar inte bara vad som förändras, utan också hur vi bör fördela vår övertygelse efteråt. Det är inte tillräckligt att veta att sannolikheten för tillstånd A ökat; vi måste också veta hur den står i relation till de andra möjliga tillstånden efter signalen.

Enligt Scarantino bör därför varje signal analyseras i två steg: först dess inkrementella effekt på sannolikheterna (vilket representerar ny information), och sedan dess slutliga effekt på vår uppfattning om verkligheten (vilket representerar det epistemiska stödet). Tillsammans utgör dessa två komponenter det fullständiga informationsinnehållet hos en signal.

Detta ger oss inte bara en bättre förståelse för hur information fungerar i praktiken, utan också ett sätt att undvika de klassiska paradoxer som andra teorier faller i. Till exempel undviker Scarantinos teori Bar-Hillel-Carnap-paradoxen, där en självmotsägande sats paradoxalt nog innehåller maximal information. Här differentieras mellan "informationsinnehåll" och "informativitet", där det förstnämnda kräver att informationen också kan tas emot och användas av mottagaren. En självmotsägelse kan i teorin utesluta alla alternativ, men eftersom den är falsk erbjuder den inget faktiskt stöd för något tillstånd – dess grad av totalt stöd är noll.

På liknande sätt undviks även den oändliga paradoxen, där vissa semantiska teorier tvingas tillskriva oändligt informationsinnehåll till vissa data. Genom att definiera informationsrelationer relativt till bakgrundsdata, snarare än genom nomiska (lagbundna) relationer, behöver inte Scarantinos teori denna typ av semantisk inflation.

En annan viktig poäng i teorin är att information måste vara om något. Shannon kunde visa hur mycket osäkerhet som reducerades, men inte vad osäkerheten handlade om. Skyrms och Scarantino lyckas däremot formulera detta: information reducerar inte bara osäkerhet, utan osäkerhet om något specifikt. Det är här som deras teorier bättre fångar det vi intuitivt förstår som ”information”.

Men detta är bara ena sidan av frågan. Vad som återstår är en djupare utmaning inom informationsfilosofin: Hur uppstår mening ur information? Många filosofer har försökt närma sig detta genom att knyta an till distinktionen mellan naturlig och icke-naturlig mening – en distinktion som härstammar från Grice. Naturlig mening, som att rök betyder eld, är obestridlig så länge det finns ett faktiskt kausalt samband. Icke-naturlig mening – representation – kan däremot vara sann eller falsk. En skylt kan ljuga, en signal kan missförstås, ett påstående kan motsägas.

Att grunda icke-naturlig mening i naturlig information kräver därför en förklaring av hur normativitet uppstår ur kausalitet. Varför bör en signal tolkas på ett visst sätt? Hur uppstår sanning och felaktighet ur korrelationer? Den probabilistiska synen på information erbjuder här en möjlig bro. Genom att knyta informationsrelationer till sannolikhetsförändringar och mottagarens bakgrundskunskap, skapas ett ramverk där mening, sanning och epistemiskt stöd kan modelleras inom samma teoretiska struktur.

Viktigt att förstå för läsaren är att denna teori inte syftar till att ge en slutgiltig definition av information, utan till att förklara hur information fungerar som ett bärande begrepp i vår förståelse av världen. Den visar hur signaler inte bara informerar oss om hur mycket något förändrats, utan vad som förändrats, hur det påverkar våra uppfattningar, och hur vi bör agera i ljuset av detta. I denna mening är information inte ett passivt objekt, utan en aktiv kraft i meningsskapandet. För att förstå denna kraft behöver vi både kvantitativa och kvalitativa mått – och en teori som erkänner båda.