Om kommunikation ska fungera effektivt måste tre nivåer av problem lösas: tekniska, semantiska och effektivitetsrelaterade. Det tekniska problemet handlar om korrektheten i överföringen av symboler; det semantiska om huruvida mottagaren tolkar budskapets mening på ett tillfredsställande likartat sätt som avsändaren avsåg; och effektivitetsproblemet gäller i vilken utsträckning det tolkade budskapet resulterar i önskat beteende hos mottagaren.
Flera samtida forskare har utvecklat sina egna konceptuella indelningar av information. Bates klassificerar information i tre nivåer: (1) mönster i materia och energi, (2) meningsfulla mönster och (3) kunskap – mentala tillstånd som uppstår när sinnet informeras av dessa mönster. Floridi ser information ur tre perspektiv: som verklighet (fysiska signalmönster), om verklighet (semantisk information) och för verklighet (instruktioner). Deacon använder liknande termer: fysisk, referentiell och normativ information. Harms föreslår tre begrepp: statistisk, semantisk och fysisk information. Gregersen sammanfattar dessa som räkna, mena och forma.
Trots olikheterna finns tydliga strukturella likheter. Det betyder inte att de olika tredelningarna nödvändigtvis överlappar exakt, men de pekar mot ett gemensamt behov: att förstå vad information är i dess kärna, inte bara utifrån dess effekter eller uttrycksformer. Floridis bidrag med kartan över strukturell, referentiell och normativ information visar en hierarki, men samtidigt efterfrågas en ännu djupare begreppsanalys.
Existerande definitioner tenderar att vara otillräckliga. Bates och Linskis syn på kunskap som resultatet av att bli informerad reducerar kunskap till enbart ett mentalt tillstånd – men att bli informerad förändrar också våra handlingar. Harms teori, där statistik ses som en parallell nivå till fysisk information, missar att statistik snarare är en egenskap av fysisk information, inte något separat.
Traditionellt har begreppen syntaktisk, semantisk och pragmatisk information dominerat, vilket härstammar från lingvistiken och Charles Morris. Men detta språkcentrerade synsätt har sina brister. För det första är de lingvistiska termerna filosofiskt laddade och därmed problematiska som utgångspunkt. För det andra är information mer grundläggande än språk; språk är en härledd form av informationsöverföring, inte den generiska formen. Dessutom kan användningen av termer som "syntax" och "semantik" förvirra gränserna mellan konventionella och naturliga tecken, vilket döljer viktiga semiotiska skillnader.
Därför föredras Deacons indelning: strukturell, referentiell och normativ information. Låt oss fokusera på den första – strukturell information.
När A ♥ B, och A är missnöjd med meddelandets form (till exempel förvrängda tecken), handlar det om strukturell information – alltså den fysiska manifestationen av ett informationsmönster. Det kan vara bläck på ett papper, elektriska signaler i en telegraf eller vilken annan fysisk bärare som helst. Det avgörande är att information inte existerar utan fysisk manifestation, men samtidigt är inte den fysiska formen ensam tillräcklig för att definiera informationens struktur. Strukturell information är ett mönster som uppträder i ett medium – men inte är identiskt med det.
Strukturell information karaktäriseras av tre egenskaper: (a) den är ett mönster eller skillnad manifesterad i ett fysiskt medium, (b) den realiseras av det fysiska men är inte beroende av en specifik fysisk bärare, och (c) den är en konkret abstraktion. Den är konkret eftersom den existerar i ett medium, men abstrakt eftersom den inte är reducerbar till just det mediet.
Floridi beskriver detta som "difference de re", en konkret, sinnesoberoende brist på uniformitet. Data, enligt honom, är skillnader mellan två odefinierade variabler. Denna skillnad är resultatet av symmetribrott, som uppstår i alla informationsbärande processer. I exemplet med A ♥ B, är den strukturella informationen helt enkelt den fysiska representationen av ett teckenmönster som "I love you".
Viktigt att förstå här är att strukturell information inte bär någon inneboende mening. Den är nödvändig för kommunikation, men inte tillräcklig för förståelse. Den fungerar som bärare, inte som budskapet
Hur mäts information om inte genom dess innebörd?
Enligt Claude Shannon är kommunikationens kärna inte budskapets mening, utan snarare processen genom vilken signaler överförs från sändare till mottagare. Detta perspektiv reducerar information till ett kvantitativt begrepp: information är en funktion av sannolikheten att en viss signal har valts bland ett antal möjliga. Ju mer osäkerhet som reduceras av en signal, desto mer information anses den bära. Detta blir grunden för vad Shannon kallar informationsmängd.
Sändaren omvandlar budskapet till en signal som kan färdas genom en kanal. Kanalen är det fysiska eller tekniska mediet som förmedlar signalen till mottagaren. Mottagaren rekonstruerar i sin tur signalen till ett budskap. Men budskapets semantiska innehåll — det vill säga dess mening — utelämnas helt från denna modell. Shannon fokuserar uteslutande på signalens strukturella egenskaper och sannolikhetsfördelningen av möjliga meddelanden.
Mängden information som en signal innehåller bestäms alltså inte av signalens inneboende egenskaper, utan av den osäkerhet den eliminerar inom ramen för det möjliga. Om två signaler är lika sannolika bär varje signal 1 bit av information. Om antalet möjliga tillstånd ökar, ökar även informationsmängden. Informationsmängden definieras formellt som , vilket återspeglar hur osannolikt (och därmed informativt) ett visst tillstånd är.
Entropi i detta sammanhang är ett mått på den genomsnittliga osäkerheten i källans tillstånd. Ju mer fördelningen av sannolikheter är spridd, desto högre entropi. Mottagarens möjliga tillstånd har på samma sätt en egen entropi , och den mängd information som faktiskt överförs mellan källan och destinationen definieras som mutual information — ömsesidig information — vilket ges av skillnaden mellan källans entropi och den genomsnittliga oklarheten (equivocation), eller mellan destinationens entropi och brusets påverkan.
Brus är den del av informationen som tas emot men som inte genererats av källan. Equivocation är information som genererats men inte når fram. Den ömsesidiga informationen är därmed ett mått på hur beroende destinationen är av källan. Vid fullständigt oberoende gäller att . Men i praktiken finns alltid brus och förlust, vilket innebär att överföringen sällan är perfekt.
Kanalens kapacitet definieras som den maximala ömsesidiga information som kan överföras pålitligt. Det är alltså ett mått på kanalens effektivitet — hur mycket information som faktiskt kan transporteras utan förlust.
För att beräkna ömsesidig information använder man sannolikhetsfördelningar: . Det handlar om att jämföra sannolikheten för att ett tillstånd inträffar givet ett specifikt tillstånd , med sannolikheten för att inträffar oberoende av . Ju större skillnad mellan dessa sannolikheter, desto mer information överförs i interaktionen mellan och .
Resultatet är att ömsesidig information mäter hur mycket kunskap mottagaren faktiskt får om källan, snarare än hur mycket budskapet "betyder" i en semantisk eller filosofisk mening. Det är just detta som Shannon avsiktligt uteslöt: meningen i informationen. Ändå
Hur mäts information? Från Shannon till Dretske: En filosofisk utforskning av informationsinnehåll
Bar-Hillel och Carnap föreslog en modell för att förstå information som skilde sig från Shannon’s teorier. Enligt deras synsätt handlar information inte om signalers frekvens, utan om sannolikheten för att en viss påstående är sant i relation till andra möjliga tillstånd av världen. Här mäts informationsinnehållet genom hur många möjliga påståenden ett givet uttalande utesluter. Ju fler påståenden det utesluter, desto mer information bär det. Trots att denna metod formellt påminner om Shannon’s teori, finns flera logiska problem som gör den kontroversiell. En av de mest kända är det som Floridi benämner som Bar-Hillel-Carnap-paradoxen. En tautologi, ett påstående som är självklart sant, bär ingen information eftersom den inte utesluter något. Å andra sidan, ett självmotsägande påstående bär maximal information eftersom det utesluter varje annat påstående.
Detta leder till en fundamental fråga: Hur kan vi förstå och mäta information på ett sätt som också stämmer överens med vårt praktiska och empiriska erfarenheter av världen? I denna kontext är Dretskes teori om semantisk information ytterligare ett viktigt bidrag, särskilt när vi försöker förankra betydelse och intention i information.
Dretske definierar informationsinnehåll som en signal r som bär informationen att ett objekt s har egenskapen F, om sannolikheten för att s har egenskapen F, givet r, är 1, medan sannolikheten givet bakgrundsinformation k är mindre än 1. Här kopplas informationsinnehållet direkt till den lagbundna relationen mellan händelser, där en signal (r) på något sätt måste vara lagbunden till händelsen eller objektet (s) som signalen refererar till. Detta innebär att för att en signal ska bära information om något måste den vara relaterad till det på ett sätt som inte är enbart statistiskt.
Dretskes teori tar också hänsyn till bakgrundsinformation, vilket innebär att informationsinnehåll är relativt till vad mottagaren redan vet om de möjliga tillstånden vid källan. Detta ger en dynamisk bild av information där dess betydelse och vikt beror på mottagarens kunskap och kontext.
En viktig implikation av denna syn på information är principen om "nested" relationer av informationsinnehåll. Ett exempel på detta är att informationen att "John är man" är analytiskt inbäddad i påståendet "John är en ogift man", eftersom definitionen av en ogift man innebär att personen är man. Denna typ av relation, som är både analytisk och nomisk, ger en djupare förståelse för hur information fungerar och varför vissa signaler kan bära mer eller mindre information beroende på deras sammanhang och relationer till andra signaler.
Men Dretskes teori har också sina egna problem. Ett av de största är "styrkproblemet", där teorin kräver att den villkorliga sannolikheten ska vara 1, vilket är alltför strikt för många praktiska tillämpningar. Till exempel, om en kanin ser ett varningssignal om ett rovdjur, kan sannolikheten för att ett rovdjur faktiskt är närvarande inte vara 1; det kan vara betydligt mindre än 1. Men även om signalen bara är korrekt en av hundra gånger, är den fortfarande värdefull för kaninen. Detta öppnar upp för diskussioner om vilken styrka av korrelation som krävs för att en signal ska kunna anses bära information.
Detta problem blir ännu mer uppenbart när vi tänker på hur naturliga lagar och statistiska regelbundenheter fungerar i världen. Till exempel, en kanin kan lära sig att en buske som rör sig kan indikera närvaron av ett rovdjur. Denna relation är inte en naturlag, utan en statistisk korrelation. Detta innebär att även om vi kan förstå information genom statistiska mönster, behöver inte dessa mönster vara fullständigt deterministiska eller lagbundna.
Den viktigaste lärdomen här är att informationsinnehåll är både objektivt och relativt. Det är objektivt i den meningen att det bär på ett verkligt innehåll, men det är också relativt i den meningen att dess värde och betydelse beror på mottagarens kunskap och kontext. Information är således inte en statisk entitet utan något som är i ständig interaktion med den miljö och de förhållanden i vilka den tolkas.
För att förstå information på ett djupare sätt är det också viktigt att skilja mellan den information som faktiskt finns i en signal och den information som en mottagare är intresserad av och faktiskt lyckas extrahera. Detta kan vara en viktig aspekt att ha i åtanke, eftersom inte all information i en given signal nödvändigtvis är relevant eller användbar för den som tar emot den.
Hur definieras demokrati och värderingar i dagens samhälle?
Hur RegexBuilder förbättrar hanteringen av reguljära uttryck i Swift
Hur Arietta löste ett mysterium och vad vi kan lära oss av det
Hur väderförhållanden påverkar val av resmål och tidpunkt för din husbilsresa

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский