In de theorie van Millikan wordt een 'infosign' gedefinieerd als een teken dat op natuurlijke wijze informatie overbrengt van de ene gebeurtenis naar een andere. Dit betekent dat voor een gebeurtenis A om een infosign van gebeurtenis B te zijn, A herhaaldelijk moet correleren met B om een specifieke reden, en dit moet plaatsvinden binnen een bepaald lokaal domein. De correlatie is geen toevallige afhankelijkheid; de betekenisvolle relatie tussen A en B ontstaat door een voortdurende en niet-accidentele afhankelijkheid in de natuur.
In tegenstelling tot de theorieën van Stampe en Dretske, die een meer rigide benadering van informatie gebruiken, stelt Millikan dat een statistische correlatie voldoende is om een natuurlijke informatiere relatie vast te stellen. Dit houdt in dat zelfs als de correlatie tussen A en B slechts een statistisch verband is, zolang dit verband in een specifieke context bestaat, A een infosign van B kan zijn. De vereiste dat de correlaties wel degelijk lokaal moeten plaatsvinden, betekent dat ze niet zomaar willekeurig kunnen zijn, maar altijd gedefinieerd moeten worden ten opzichte van een referentieklasse.
Het idee van een referentieklasse is cruciaal in Millikan's benadering. Het stelt ons in staat de context van de correlaties te begrijpen, wat bijdraagt aan de bruikbaarheid van de theorie in de biologie en de evolutiewetenschappen. Een infosign kan alleen effectief zijn als het wordt begrepen binnen de lokale domeinen waarin het bestaat, en de referentieklasse helpt bij het vaststellen van de grenzen van die domeinen. Zonder dit begrip van de referentieklasse zouden de correlaties onduidelijk en moeilijk toepasbaar zijn.
Het concept van betekenis binnen deze theorie is complex en verschilt van traditionele opvattingen. De relatie tussen een infosign en het signified (de betekenis die het teken vertegenwoordigt) is niet toevallig. De betekenis is architecturaal bepaald door de structuur van zowel het teken als zijn signified. De betekenis van het teken wordt bepaald door de waarden van significante variabelen of determinabele eigenschappen die door het teken worden weergegeven. Dit houdt in dat de betekenis systematisch verandert in overeenstemming met de veranderingen in de eigenschappen van het teken zelf.
Millikan maakt een onderscheid tussen natuurlijke en niet-natuurlijke betekenis. Terwijl infosigns natuurlijke informatie dragen, waarbij ze direct correleren met een gebeurtenis of toestand in de wereld, dragen intentionele tekens niet-natuurlijke betekenis. Intentionele tekens, zoals taaltekens, hebben geen directe biologische of ecologische correlatie met hun betekenissen, maar zijn het resultaat van stabilisatie door evolutionaire of leerdynamieken. Ze functioneren doordat ze een bepaald doel dienen voor een organisme, en blijven in stand zolang ze effectief blijken te zijn in het overbrengen van betekenis.
Millikan benadrukt dat de stabilisatie van een teken niet willekeurig is, maar het resultaat is van een langetermijneffect, of het nu evolutionair of cultureel is. In dit opzicht is er een directe link met de theorieën van communicatiedynamieken zoals die van Skyrms, die de evolutionaire oorsprong van signalering en communicatie onderzoekt. De gebruikelijke functie van een teken is dus niet per se het dragen van natuurlijke informatie, maar het overbrengen van een betekenis die door een organisme als nuttig wordt beschouwd.
Daarom kan de normativiteit van betekenis niet volledig worden verklaard door de biologische mechanismen alleen. De normativiteit komt voort uit de specifieke functies die een teken voor een organisme moet vervullen en hoe deze functies zich stabiliseren door de interactie tussen de organismen en hun omgeving.
Het idee van de 'semantische mappingfunctie', die het verband beschrijft tussen een infosign en zijn signified, biedt een mathematisch model voor het begrijpen van de informatiedrager en zijn betekenissen. Dit model maakt het mogelijk om niet alleen de correlaties tussen tekens en betekenissen te begrijpen, maar ook om de dynamiek van deze relaties te verklaren binnen de context van natuurlijke systemen.
Wat belangrijk is om te begrijpen, is dat de relatie tussen een infosign en zijn signified altijd in een historisch, ecologisch en contextueel verband moet worden gezien. Zonder deze context kan een teken zijn betekenis niet volledig vervullen. Dit maakt Millikan's theorie anders dan de meer abstracte theorieën van informatie, zoals die van Dretske, die geen rekening houden met de specifieke contexten waarin tekens en betekenissen ontstaan. Het feit dat betekenis altijd afhankelijk is van de specifieke situatie waarin een teken wordt gebruikt, biedt een meer dynamische en realistische benadering van hoe informatie in de natuur wordt overgedragen.
Wat is informatie? Een conceptuele analyse van communicatieprocessen
In een eenvoudig scenario schrijft persoon A op een vel papier "Ik hou van jou" en hoopt dat persoon B, 3000 mijl verderop, snel en tegen lage kosten de volledige inhoud van dit bericht ontvangt. A zal ontevreden zijn als hij ontdekt dat zijn bericht ofwel verward is (bijvoorbeeld "K bogl pou") of omgezet in een compleet andere betekenis (bijvoorbeeld "een lange boog"). A zal ook teleurgesteld zijn als het bericht op zich goed overkomt, maar te laat bij B aankomt. Dit simpele voorbeeld van communicatie toont aan dat informatie meer is dan louter een boodschap die van A naar B wordt overgedragen. Het bevat de verwachte betekenis, de betrouwbaarheid en de tijdigheid van de overdracht. Dit voorbeeld is het beginpunt van een diepere verkenning van het concept informatie.
In dit scenario zijn er vier essentiële elementen: de informant (A), de boodschap die moet worden gecodeerd, het kanaal dat de boodschap overbrengt, en de ontvanger (B). De kern van communicatie is dus de overdracht van informatie van de ene persoon naar de andere via een gekozen communicatiesysteem. Dit onderscheidt zich van communicatie als een proces: communicatie is de transmissie van informatie, terwijl informatie zelf verwijst naar de inhoud die overgebracht wordt. Het proces van communicatie wordt mogelijk gemaakt door de technologie en mechanismen die de informatie daadwerkelijk verplaatsen van de bron naar de ontvanger. In veel gevallen denken we vaak dat informatie iets is dat objectief bestaat en onafhankelijk van menselijke interpretaties overgedragen kan worden, maar dit is slechts een gedeeltelijke waarheid.
In menselijke communicatie, bijvoorbeeld via taal, komt informatie tot stand door een sociaal geaccepteerd systeem van symbolen en betekenissen. Terwijl menselijke communicatie de meest geavanceerde vorm van informatieverwerking is, zijn er ook veel andere manieren waarop informatie in de natuur wordt overgedragen. Van chemische signalen die door bacteriën en planten worden gebruikt, tot de geluiden of gebaren die dieren inzetten om te communiceren, de diversiteit van informatieprocessen in de levende wereld is immens. Dit leidt tot de vraag: wat maakt al deze fenomenen informatief, en hoe verhouden ze zich tot de communicatie tussen mensen?
Wat belangrijk is om te begrijpen, is dat informatie niet simpelweg een overdracht van symbolen is, maar dat het altijd afhankelijk is van de context en de interpretatie van de ontvanger. Zo kan een bericht weliswaar fysiek worden overgedragen, maar zonder betekenis of in een andere context kan het zelfs misinformatie zijn. Misinformatie ontstaat wanneer een boodschap op een manier wordt overgedragen die niet overeenkomt met de werkelijkheid of de bedoelingen van de zender. Zelfs als de boodschap correct is overgedragen, kan het zijn dat de ontvanger deze al kende en de informatie dus niet als nieuwe kennis wordt ervaren.
Dit maakt het concept informatie complexer dan het lijkt. Dezelfde boodschap kan verschillende niveaus van betekenis en waarde hebben, afhankelijk van hoe het wordt ontvangen, wie het ontvangt, en in welke context het wordt gepresenteerd. In sommige gevallen is de boodschap misschien al bekend bij de ontvanger, en in andere gevallen kan de boodschap misleidend of verwarrend zijn. Daarom kunnen we drie fundamentele aspecten van informatie onderscheiden: signalen, de inhoud (betekenis) en het nut of de bruikbaarheid van de informatie.
Deze drie aspecten zijn hierarchisch met elkaar verbonden. De bruikbaarheid van informatie veronderstelt eerst dat de betekenis correct wordt overgedragen, wat weer veronderstelt dat de signalen (de fysieke dragers van de informatie) niet verstoord zijn. Deze drie aspecten - de signalen, de betekenis en het nut - zijn essentieel voor de effectiviteit van communicatie. Informatie kan dus niet worden gereduceerd tot alleen de inhoud van een bericht; het is de manier waarop de inhoud wordt overgedragen en de context waarin deze wordt ontvangen die de waarde van de informatie bepaalt.
Het is belangrijk te erkennen dat de overdracht van informatie niet altijd perfect of rechtlijnig is. Zelfs wanneer een boodschap fysiek wordt overgebracht zonder verstoring, kan het zijn dat de informatie niet aankomt zoals bedoeld. Dit wordt vaak gezien in situaties van miscommunicatie, waar de boodschap anders wordt geïnterpreteerd dan bedoeld, of in gevallen waarin de boodschap te laat wordt ontvangen om bruikbaar te zijn. In dergelijke gevallen is de informatie die wordt overgedragen niet volledig effectief of waardevol voor de ontvanger.
Wat bovendien interessant is, is dat we in het dagelijks leven vaak impliciet aannemen dat informatie een objectieve, onbetwistbare entiteit is die onafhankelijk van interpretatie kan worden overgedragen. Dit idee wordt echter uitgedaagd door de complexiteit van communicatieprocessen, waarbij de context, de ontvanger en zelfs de geschiedenis van de communicatie allemaal een cruciale rol spelen in hoe informatie wordt ontvangen en begrepen. Deze dynamiek maakt de studie van informatieprocessen niet alleen een technische kwestie van het overdragen van gegevens, maar ook een psychologische en culturele kwestie van betekenis en waarde.
Het is essentieel om te begrijpen dat de concepten die we gebruiken om informatie te beschrijven, zoals "informatiewaarde" of "informatie-inhoud", vaak geen absolute betekenissen hebben. Ze zijn afhankelijk van de context en de specifieke situatie. Dit idee roept vragen op over de aard van kennis en waarheid, en de manieren waarop mensen communiceren. In dit opzicht is informatie meer dan alleen een set van feiten die van A naar B worden overgedragen; het is een dynamisch proces waarin betekenis voortdurend wordt gevormd door interactie, interpretatie en toepassing.
Hoe kunnen we de kwantiteit van informatie meten in communicatiesystemen?
In een communicatiesysteem zijn er verschillende componenten die samenwerken om berichten van een zender naar een ontvanger over te dragen. De informatie die door het systeem wordt overgedragen, wordt gekarakteriseerd door de signalen die van de zender naar de ontvanger gaan, en de betekenis van deze informatie hangt sterk af van hoe deze signalen geformuleerd zijn.
Een belangrijk uitgangspunt in de informatietheorie van Shannon is dat de inhoud van de boodschap zelf niet relevant is voor de technische analyse van het systeem. Shannon richtte zich uitsluitend op de overdracht van signalen en hoe deze kwantitatief gemeten kunnen worden. Het centrale doel van zijn theorie is om de hoeveelheid informatie die door een signaal wordt overgedragen te meten, evenals de capaciteit van het kanaal dat deze signalen draagt.
De hoeveelheid informatie die door een signaal wordt overgedragen, wordt niet bepaald door de intrinsieke eigenschappen van het signaal zelf, maar door de mogelijke set van signalen waaruit het is gekozen. In dit opzicht definieert Shannon informatie als een reductie van onzekerheid, wat formeel kan worden gemeten door middel van de waarschijnlijkheidstheorie.
Stel je voor dat een bepaald signaal wordt geselecteerd uit een set van twee even waarschijnlijk signalen. In dit geval kan de hoeveelheid informatie die door het signaal wordt overgedragen worden gemeten aan de hand van de hoeveelheid onzekerheid die het oplost. Dit kan worden uitgedrukt als 1 bit, berekend met behulp van de logaritmische functie met basis 2.
Wanneer de informatiebron S een systeem is met een reeks van staten (s1, s2, ..., sn), en de waarschijnlijkheid van elke staat gelijk is, wordt de hoeveelheid informatie die door de gebeurtenis van een bepaalde staat si wordt gegenereerd, gedefinieerd als de negatieve logaritme van de waarschijnlijkheid van die staat, p(si). Het concept van entropie, of de informatiedichtheid van een systeem, wordt dan de som van de informatie over alle mogelijke toestanden van het systeem.
Dit idee van entropie wordt uitgebreid naar de bestemming D, die ook een reeks mogelijke staten kan hebben, elk met een bepaalde waarschijnlijkheid. De informatie die door de bestemming wordt ontvangen, kan op een vergelijkbare manier worden gemeten. De hoeveelheid informatie die wordt overgedragen van de bron naar de bestemming kan worden gemeten door middel van wederzijdse informatie.
Wederzijdse informatie meet de gemiddelde hoeveelheid informatie die zowel door de bron wordt gegenereerd als ontvangen door de bestemming. Dit is geen simpele optelsom van de informatie die door beide systemen afzonderlijk wordt gegenereerd, aangezien ruis en onzekerheid (equivocatie) het signaal kunnen vervormen. In een ideaal kanaal zonder ruis zou de hoeveelheid ontvangen informatie aan de bestemming gelijk zijn aan de informatie die door de bron wordt gegenereerd. In de praktijk is dit echter vaak niet het geval.
Ruis (N) vertegenwoordigt de informatie die wel door de bestemming wordt ontvangen, maar niet door de bron wordt gegenereerd, terwijl equivocatie (E) de informatie vertegenwoordigt die door de bron wordt gegenereerd, maar niet door de bestemming wordt ontvangen. Wederzijdse informatie kan dan worden gedefinieerd als de entropie van de bestemming minus de equivocatie, of de entropie van de bron minus de ruis. Dit kwantificeert de hoeveelheid afhankelijkheid tussen de bron en de bestemming.
In het ideale geval, wanneer de bron en de bestemming volledig afhankelijk van elkaar zijn, is de hoeveelheid ruis en equivocatie minimaal. Dit resulteert in de maximale waarde voor wederzijdse informatie, wat de capaciteit van het kanaal vertegenwoordigt. De capaciteit van het kanaal weerspiegelt de betrouwbaarheid en de maximale hoeveelheid informatie die het kanaal kan overdragen zonder vervorming.
Het berekenen van de wederzijdse informatie vereist kennis van de gezamenlijke waarschijnlijkheid van de gebeurtenissen die zich zowel bij de bron als bij de bestemming voordoen. De mutuale informatie kan worden berekend door het verschil tussen de entropie van de bestemming en de conditionele entropie van de bestemming, gegeven de bron. Dit maakt het mogelijk om de mate van afhankelijkheid tussen de bron en de bestemming te kwantificeren.
Hoewel de theorie van Shannon een belangrijk fundament vormt voor het begrijpen van de overdracht van informatie in communicatiekanalen, is het belangrijk te realiseren dat de hoeveelheid informatie die door een signaal wordt overgedragen in wezen de vermindering van onzekerheid betreft, en niet noodzakelijkerwijs de betekenis of inhoud van het signaal zelf. Het begrip ‘informatie’ is immers niet uitsluitend technisch; het bevat ook een semantische dimensie die verder gaat dan de kansverdeling van signalen.
Deze technische benadering van informatie kan echter niet zonder meer worden verward met de betekenis die door de signalen wordt overgedragen. Zoals Bar-Hillel en Carnap opmerkten, hoewel de theorie van Shannon informatie meet in termen van de zending van symbolen, heeft deze theorie niets te maken met de betekenis of inhoud die door deze symbolen wordt uitgedrukt. In communicatie gaat het niet alleen om de overdracht van signalen, maar ook om de betekenis die aan deze signalen wordt gegeven door de ontvanger.
Het is belangrijk voor de lezer om te begrijpen dat, hoewel Shannon’s theorie helpt bij het meten van de hoeveelheid informatie in termen van probabiliteit en entropie, het de meer subjectieve en betekenisvolle aspecten van informatie, zoals context, interpretatie en begrip, buiten beschouwing laat. Dit is van essentieel belang voor de verdere studie van informatica en communicatiewetenschappen, waar de grens tussen technische overdracht en betekenis vaak vervaagt.
Is informatieobjectiviteit mogelijk binnen de context van een ontvanger?
De theorie van Dretske over informatie suggereert een objectieve benadering van informatie, waarbij de inhoud van een signaal kan worden geïnterpreteerd als ‘objectief’, onafhankelijk van de ontvanger. Dit komt overeen met de zogenaamde 'nested' relatie van informatie-inhoud, die afhangt van het achtergrondkennis van de ontvanger. Dit betekent echter niet dat informatie subjectief is; de kennis van de ontvanger is slechts een kader waarbinnen de informatie als relevant wordt gezien. In Dretske’s visie impliceert deze variabiliteit van de kennis echter twee verschillende soorten informatie, hoewel dit niet expliciet in zijn theorie wordt gedifferentieerd. Dit roept de vraag op of er inderdaad een verschil bestaat tussen de informatie die inherent aanwezig is in een situatie en de informatie die door de ontvanger wordt geëxtraheerd.
Dretske stelt dat zelfs als de informatie in een signaal relatief is, dit niet betekent dat informatie subjectief is. De achtergrondkennis van een ontvanger speelt een cruciale rol in het begrijpen van een signaal, maar de informatie zelf blijft objectief gedefinieerd. De paradox ontstaat wanneer we nadenken over deductieve redeneringen, waarin we informatie verkrijgen, zelfs wanneer deze impliciet is in de premissen. Bijvoorbeeld, Fermat’s laatste stelling was al impliciet aanwezig in het getalsysteem, maar de formele bewijzen van Andrew Wiles in 1994 leverden waardevolle nieuwe inzichten op. Dit roept de vraag op of een signaal misschien oneindig veel informatie bevat, omdat het impliciet alles bevat wat ermee in tegenspraak is. Zo zou de eenvoudige uitspraak "Lucky is een hond" niet alleen impliceren dat Lucky geen kat, koe of boom is, maar zou deze uitspraak in feite oneindig veel andere uitspraken impliceren. Dit creëert een paradox die moeilijk te verzoenen is met het idee van de objectiviteit van informatie.
Floridi’s theorie van sterk semantische informatie biedt een oplossing voor deze paradox door een andere benadering van de inhoud van informatie voor te stellen. Floridi stelt dat de paradox ontstaan door de kans-gebaseerde benadering van Bar-Hillel en Carnap, waarin alethische waarden (waarheidswaarde) als irrelevant worden beschouwd voor de kwantitatieve analyse van semantische informatie. Zijn theorie introduceert het concept van "semantische afstand", een maat voor de afwijking van een ideale situatie. In deze theorie wordt informatie gedefinieerd door de mate van discrepantie ten opzichte van een gegeven situatie. Hoe kleiner de discrepantie, hoe groter de informatieve waarde van een bericht. Floridi’s aanpak vermijdt de paradox, omdat hij de hoeveelheid informatie anders meet dan Bar-Hillel en Carnap.
Volgens Floridi kunnen we de hoeveelheid informatieve inhoud van een bericht berekenen door de discrepantie te meten ten opzichte van een vast referentiepunt. Bijvoorbeeld, voor een tautologie is deze discrepantie minimaal, omdat deze consistent is met elke situatie, hoewel de informatie inhoudelijk vacuüm is. In het geval van zelf-tegenstrijdige zinnen is de discrepantie maximaal, omdat de inhoud van de zin in zichzelf tegenstrijdig is, wat betekent dat deze geen informatieve inhoud draagt. Dit stelt dat een zelf-tegenstrijdige zin geen informatie bevat, omdat deze inconsistent is met elke situatie.
Floridi’s theorie staat in contrast met de benadering van Shannon, die de hoeveelheid informatie van een signaal baseerde op de mogelijke variaties van andere signalen. Floridi stelt dat de informatieve inhoud van een bericht onafhankelijk is van andere mogelijke berichten. Dit biedt een interessante uitdaging voor de klassieke informatie theorie, waarbij de kwantiteit van informatie juist werd gemeten door te kijken naar de onzekerheid die werd geëlimineerd door het signaal, met andere woorden, door de variabiliteit van de mogelijke alternatieven.
Er is echter kritiek op Floridi’s theorie, vooral vanwege de veronderstelling dat informatie inherent waar is. Dit heeft geleid tot de zogenaamde 'Veridicality Thesis', die wordt betwist door verschillende auteurs. In de theorie is er een spanning tussen de veronderstelling dat informatie altijd waar is, en het idee dat zelfs onware berichten nog steeds informatie kunnen bevatten. Deze kritiek heeft geleid tot vragen over de consistentie van Floridi’s benadering.
Daarnaast wordt het idee van informatie als ‘semantische divergentie’ verder uitgedaagd door critici die stellen dat Floridi’s theorie de kerninzichten van Shannon’s oorspronkelijke werk mist. Volgens deze critici verwaarloost Floridi een van de fundamenten van de moderne informatiewetenschap: dat de kwantiteit van informatie afhankelijk is van de variabiliteit van alternatieve signalen. Het is deze aanpak die in staat is om cognitie en informatieverwerking te verklaren, zelfs wanneer de informatie die wordt verwerkt onwaar blijkt te zijn.
In tegenstelling tot de theorieën van Dretske en Floridi, die een objectieve benadering van informatie onderzoeken, verschuift de recente discussie in de richting van theorieën die de dynamiek van informatieverwerking binnen cognitieve systemen onderzoeken. Deze benaderingen benadrukken de rol van de ontvanger niet alleen als een passieve ontvanger van informatie, maar als een actieve participant in het proces van betekenisconstructie. Het proces van informatieverwerking is dus niet neutraal; het is gevormd door cognitieve structuren die de manier waarop informatie wordt geïnterpreteerd bepalen. De waarde van informatie kan daarom variëren afhankelijk van de kennis en de context van de ontvanger, maar dit mag de objectiviteit van de informatie zelf niet ontkennen.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский