Objektorienteret programmering opstod som et svar på voksende kompleksitet i programmeringsprojekter, hvor traditionelle procedurale sprog som BASIC og C begyndte at vise deres begrænsninger. Selvom C havde slået igennem i udviklingen af generelle applikationer og operativsystemer, voksede behovet for nye strukturer, som kunne håndtere data og funktionalitet på en mere organiseret og modulær måde. Dette skabte grobunden for en ny måde at tænke programmering på — objektorientering.
Det første sprog, der introducerede denne idé, var SIMULA 67. Det var oprindeligt udviklet til simuleringsformål af Ole-Johan Dahl og Kristen Nygaard i Norge. De arbejdede med komplekse skibssimulationer, hvor mængden af parametre og deres indbyrdes afhængighed gjorde systemet uoverskueligt. Deres løsning blev at behandle hver skibstype som et selvstændigt objekt — et objekt med egne attributter og funktioner, som kunne operere uafhængigt og samtidigt relatere til andre objekter. Konceptet med klasser og objekter blev dermed født.
Dog var objektbegrebet i SIMULA endnu ikke klart adskilt fra dets tekniske implementering. Det var først med udviklingen af SMALLTALK ved Xerox Palo Alto Research Center, at objektorienteret programmering blev forløst i en mere konsekvent og radikal form. SMALLTALK blev frigivet til offentligheden i 1980’erne og adskilte sig fra tidligere sprog ved at være et fuldt dynamisk miljø, hvor objekter kunne skabes og ændres interaktivt. Dette brød med ideen om statiske programmer og åbnede op for en ny interaktiv programmeringsmetode. SMALLTALK introducerede samtidig en innovativ grafisk brugergrænseflade, hvor brugeren kunne interagere direkte med objekterne, hvilket var banebrydende for sin tid.
I Schweiz og Tyskland fulgte Niklaus Wirth en anden sti. Efter sin skuffelse over ALGOL skabte han PASCAL, som fik stor udbredelse i undervisning. Senere udviklede han MODULA-2 med et stærkt modul- og interfacekoncept for at kunne strukturere softwareudvikling i større teams. I mellemtiden eksperimenterede andre med helt nye paradigmer. PROLOG og LISP, to sprog designet til kunstig intelligens, fulgte logisk og funktionel programmering frem for objektorientering. PROLOG baserede sig på fakta og regler, mens LISP, med sin fleksible syntaks og symbolske manipulation, muliggjorde hurtig prototyping af løsninger.
I midten af 1980’erne opstod C++, udviklet af Bjarne Stroustrup som en udvidelse af C med objektorienterede egenskaber. Det markerede en overgang, hvor de klassiske sprog begyndte at integrere objektorienterede elementer. C++ gjorde det muligt at kombinere lavniveau kontrol med højniveau strukturer, hvilket blev tiltrækkende for både systemprogrammering og applikationsudvikling.
Objektorientering kom herefter til at præge næsten alle moderne programmeringssprog. Selv sprog som PASCAL og LISP blev udvidet med objektorienterede funktioner. Konceptet med at samle data og funktioner i en enkelt enhed
Hvordan Informationsteori og Neurale Netværk Formidler Viden og Teknologi
Informationsteori er en matematisk teori, der stammer fra sandsynlighedsteori og statistik. Denne teori beskæftiger sig med begreber som information, entropi, informationsoverførsel, datakompression, kodning og relaterede emner. Udover anvendelsen inden for matematik, datalogi og kommunikationsingeniørkunst, bruges teorien også til at beskrive kommunikationssystemer i andre felter som f.eks. medierne i journalistik, nervesystemer i neurologi, DNA- og proteinkæder i molekylærbiologi, viden i informationsvidenskab og dokumentation.
Shannons teori benytter termen entropi til at karakterisere informationsindholdet (også kaldet informationsdensitet) i beskeder. Jo mere uensartet strukturen i en besked er, desto højere er dens entropi. En teknisk gennembrud opstod i slutningen af 1930'erne, da pulskodemodulation gjorde det muligt at repræsentere en besked, der eksisterer som et kontinuum, diskret og tilstrækkeligt tilnærmet. Med denne metode blev det muligt at telegraferer tale. Shannon, der arbejdede for Bell Telephone Laboratories, var bekendt med den tekniske udvikling.
Den store betydning af hans teori for teknologien ligger i, at han definerede information som en fysisk størrelse med en enhed af måling eller optælling, nemlig bit. Dette gjorde det muligt at kvantificere præcist indsatsen for den tekniske transmission af information i forskellige former (lyde, tegn, billeder), at bestemme effektiviteten af koder samt kapaciteten af informationslagre og transmissionskanaler. Den grundlæggende idé i informationsteorien er, at den informationsværdi, en kommunikeret besked indeholder, afhænger af, hvor overraskende indholdet af beskeden er. Hvis en meget sandsynlig begivenhed sker, bærer beskeden meget lidt information. Derimod, hvis en meget usandsynlig begivenhed sker, er beskeden langt mere informativ.
For eksempel vil viden om, at et bestemt tal ikke vil være vindertallet i et lotteri, give meget lidt information, fordi et hvilket som helst valgt tal næsten med sikkerhed ikke vil vinde. Derimod vil viden om, at et bestemt tal vil vinde lotteriet, have stor informationsværdi, fordi det kommunikerer resultatet af en meget lav sandsynlighedshændelse. Informationsindholdet, også kaldet overraskelsen eller selv-informationen, af en begivenhed E, er en funktion, der stiger, når sandsynligheden p(E) for en begivenhed falder. Når p(E) er tæt på 1, er overraskelsen lav, men når p(E) er tæt på 0, er overraskelsen høj.
Dette forhold beskrives af funktionen I(E) = −log2(p(E)), hvor log er logaritmefunktionen, der giver 0 overraskelse, når sandsynligheden for en begivenhed er 1. Logaritmefunktionen er faktisk den eneste funktion, der opfylder dette specifikke sæt af karakteriseringer. Dermed kan vi definere informationen, eller overraskelsen, af en begivenhed E ved entropi. Shannon kaldte selv sit arbejde en matematisk teori om kommunikation og udelukkede eksplicit de semantiske og pragmatiske aspekter af information, dvs. udsagn om "indholdet" af de transmitterede beskeder samt deres betydning for modtageren. Det betyder, at en meningsfuld besked bliver transmitteret lige så omhyggeligt som en tilfældig sekvens af bogstaver.
I informations-teoretisk forstand gør Shannons teori ikke direkte udsagn om informationsindholdet i de transmitterede beskeder. Hvis man ønsker at sammenfatte al den viden, der er blevet formidlet hidtil, vil man sikkert blive overrasket over, hvor mange faktorer der skulle spille sammen for at nå dette niveau af teknologisk præcision.
Et af de store gennembrud i de seneste årtier er udviklingen af neurale netværk. I kombination med maskinlæring har de ført til enorme fremskridt i mange områder af teknologi og videnskab. Bag disse fremskridt ligger bestræbelserne på at udvikle matematiske modeller, der kan beskrive neuronernes aktivitet og derefter replikere denne aktivitet på computere.
Neurale netværk er matematiske modeller, der efterligner, hvordan den menneskelige hjerne fungerer. Det er denne efterligning af hjernens funktion, der har tiltrukket stor interesse i kunstig intelligens. Allerede i 1943 introducerede matematikere Warren McCulloch og Walter Pitts neuronet som et logisk tærskel-element med flere input og et enkelt output. Det kunne antage sandt- eller falsk-tilstande som booleske variabler og affyrede, når summen af inputsignalerne oversteg en tærskel.
Et neuron består af flere forskellige sektioner: dendritter, soma, axon, axonhillock, myelinskeder og synaptiske terminalknopper. Dendritterne er celleudvidelser, der danner forbindelser med andre celler og modtager de første eksitationssignaler, som de sender videre til cellelegemet. Axonet, som er den lange forlængelse af nervecellen, transmitterer aktionspotentialer til nerve- eller muskelceller. For at sikre, at overførsel af elektriske signaler sker så hurtigt og effektivt som muligt, er axonet isoleret som en elektrisk ledning ved hjælp af myelinskeder.
Denne biologiske opbygning af neuronet giver os et indblik i, hvordan information behandles og overføres i hjernen, og fungerer som fundamentet for de modeller, der anvendes i kunstig intelligens og neurale netværk.
For at forstå de praktiske anvendelser af informationsteori og neurale netværk, er det vigtigt at forstå, at mens Shannon's teori om kommunikation giver en matematisk ramme for transmission af data, giver de neurale netværk os en forståelse af, hvordan information kan bearbejdes og fortolkes i et biologisk system. De samme principper, som styrer den menneskelige hjernes funktioner, kan bruges til at udvikle systemer, der efterligner disse processer i maskiner, hvilket åbner op for en række muligheder inden for maskinlæring, kunstig intelligens og automatisering.
Hvordan har supercomputere ændret vores tilgang til teknologi og videnskab?
Supercomputere, som vi kender dem i dag, er en uundværlig del af vores moderne teknologiske landskab. De repræsenterer ikke bare en imponerende teknologisk præstation, men også en fundamental ændring i, hvordan vi håndterer, bearbejder og analyserer data. Oprindeligt defineret af en række matematiske og fysikalske principper, er supercomputere nu blevet et nødvendigt værktøj inden for videnskab, økonomi og teknologi. Men hvordan er disse maskiner blevet så kraftfulde? Og hvad betyder de for fremtidens samfund?
Moore's lov, som beskriver den konstante fordobling af transistorer på en chip, har været en drivende kraft bag udviklingen af computerkraften i årtier. I takt med at disse fremskridt har fundet sted, har vi set en eksponentiel stigning i supercomputernes kapacitet. Moore's lov gælder dog ikke kun for supercomputere, men er også blevet et centralt element i udviklingen af andre områder, som f.eks. kunstig intelligens, hvor kapaciteten af beregningskraft er essentiel.
En supercomputer består ikke blot af én processor, men af mange processorer, der arbejder parallelt. Denne parallelbehandling giver maskinen mulighed for at løse komplekse opgaver på en brøkdel af den tid, det ville tage en almindelig computer. For eksempel bliver avancerede simuleringer af klimaet, molekylære strukturer eller universets opbygning i dag ofte udført på supercomputere, som kan bearbejde massive mængder data hurtigt og præcist. Det har muliggjort fremskridt i videnskabelige opdagelser, der for blot få årtier siden var umulige at forudse.
Men de teknologiske fremskridt stopper ikke her. Supercomputere har også været med til at drive udviklingen af nye softwareplatforme som Mathematica og Maple, som bruges til avanceret matematik og databehandling. Disse platforme har givet forskere og ingeniører mulighed for at gennemføre beregninger, der tidligere ville have været utænkelige, og har åbnet op for nye niveauer af præcision og hastighed i den videnskabelige metode.
Desuden har supercomputere spillet en afgørende rolle i at forstå kaotiske systemer, såsom vejrfænomener eller aktiemarkedsdynamikker. Denne brug af computere til at modellere ikke-lineære systemer er blevet en central del af vores evne til at forudsige og reagere på komplekse begivenheder. Det er i denne kontekst, at forståelsen af komplekse systemer som "fjederbøjning" og "Lorenz-attractor" bliver relevant. Disse modeller, der stammer fra den matematiske disciplin kaldet kaosteori, viser, hvordan små ændringer i indledende forhold kan have enorme konsekvenser for et systems fremtidige udvikling.
For at forstå supercomputernes indflydelse er det også nødvendigt at dykke ned i de praktiske anvendelser, de har skabt. Tag f.eks. deres rolle i sundhedssektoren, hvor de er blevet brugt til at forudsige sygdomsforløb eller analysere store medicinske datasæt. I landbruget har supercomputere bidraget til at udvikle præcisionslandbrug, der gør det muligt at optimere afgrødernes vækst under hensyntagen til klimaforhold og jordbundens egenskaber.
En anden dimension af supercomputere er deres indflydelse på kunstig intelligens og maskinlæring. Ved at udnytte de enorme beregningsressourcer, som supercomputere tilbyder, har vi været i stand til at træne mere sofistikerede AI-systemer, der kan tackle alt fra billedgenkendelse til naturlig sprogbehandling. Denne udvikling har ikke kun ændret vores forståelse af maskinlæring, men også åbnet op for nye muligheder inden for automatisering og menneske-maskine interaktion.
Selvom de teknologiske fremskridt i supercomputere er imponerende, er der også udfordringer. Den fortsatte miniaturisering af kredsløb og den eksplosive vækst i data kræver konstant innovation for at sikre, at supercomputere kan håndtere de øgede krav. Et af de største problemer, som forskere står overfor, er at finde måder at håndtere den enorme mængde varme, der genereres af disse maskiner. At udvikle mere energieffektive supercomputere er derfor en vigtig del af forskningen.
Supercomputernes udvikling har ikke blot åbnet nye døre for videnskaben, men har også ændret den måde, vi tænker på teknologi og innovation. Vi står overfor et stadigt voksende behov for beregningskapacitet, som kun supercomputere kan levere. Og mens vi ser på fremtidens teknologiske landskab, er det tydeligt, at de vil spille en afgørende rolle i at forme de næste skridt inden for videnskabelig opdagelse, industriel innovation og samfundsmæssige ændringer.
Hvordan billedebehandling påvirker farver og perspektiver i visuelle data
I billedbehandling anvendes forskellige teknikker for at manipulere farver og skabe dybde i billeder. Dette kan gøres ved at justere farveværdierne for hver pixel i et billede. For eksempel, når rød, grøn og blå anvendes med en værdi på 60, resulterer dette i en klarere kontrast, hvor skyggerne forsvinder, og de respektive farver bliver mere distinkte. Når værdien sættes til 90, opstår der ingen skygger, og kontrasten mellem de enkelte farver forstærkes, hvilket giver et mere klart billede.
Et vigtigt aspekt ved billedebehandling er evnen til at ændre størrelsen på billeder ved hjælp af koordinatsystemer. En enkel måde at forstørre et billede på er ved at fordoble koordinaterne for hver pixel, for eksempel ved at erstatte punktet (x, y) med (2 · x, 2 · y). Omvendt kan et billede formindskes ved at halvere koordinaterne. Denne transformation kan også anvendes kun på én af koordinaterne, hvilket kan være nyttigt i tilfælde, hvor man ønsker at ændre størrelsen på et billede asymmetrisk.
Ved hjælp af et kartesisk koordinatsystem kan alle geometriske transformationer udføres, hvilket giver mulighed for at arbejde med både analytisk geometri og polære koordinater. Polære koordinater bruges ofte, når man arbejder med effekter, der starter cirkulært fra et punkt. Et eksempel på dette er fisheye-projektionen, som benytter sig af sfæriske koordinater, hvor hver punkt i rummet bestemmes ved hjælp af radius (r), azimut (ϕ) og polarvinkel (θ). Denne type projektion er nyttig, når man ønsker at vise et objekt, der er placeret på en sfærisks overflade, hvilket skaber en fisheye-effekt.
Fisheye-linser, der anvender sfæriske koordinater, skaber en projektion, hvor billedet vises som et spejlbillede af miljøet. Dette skaber en visuel forvrængning, hvor objekter i billedets periferi fremstår i en anden størrelse sammenlignet med objekter tættere på midten. Dette fænomen kan beskrives ved hjælp af de geometriske funktioner, der styrer, hvordan et objekt vises i billedet i forhold til dets position på den sfæriske overflade.
For at forstå denne type billedbehandling er det vigtigt at vide, hvordan forskellige projektioner påvirker perspektivet. Der findes flere måder at justere parametrene og vinkel funktionerne i en fisheye-linse, hvilket resulterer i en række interessante projektioner, der kan anvendes til forskellige formål. Blandt de praktiske anvendelser af fisheye-linser er det muligt at finde videnskabelige anvendelser såsom i økofysiologi, hvor man kan analysere vegetation ved hjælp af billeder taget med fisheye-linser. Denne teknologi er også nyttig i meteorologi og geografi til at analysere skyggeforhold og bestemme solens indvirkning på jordens overflade.
Billedebehandling med fisheye-linser kan også anvendes i overvågning, hvor kameraer med vidvinkeloptik kan optage hele rum uden døde vinkler. Dette er særligt nyttigt i systemer som overvågningskameraer, hvor et konstant synsfelt er nødvendigt. Derudover bruges fisheye-linser også i filmindustrien og i visuelle simuleringer, som for eksempel i IMAX-systemet, hvor optagelser projiceres på et hemisfærisk lærred. Fotografiske anvendelser inkluderer at fange actionbilleder i situationer, hvor det er nødvendigt at vise både det centrale objekt og dets omgivelser. Eksempler på dette findes i sportsfotografi, hvor skaterens bevægelse fanges tættere på objektet samtidig med at omgivelserne vises.
Der findes også et væld af kreative og kunstneriske anvendelser af fisheye-effekter, som i malerier og kunstværker. Et klassisk eksempel på anvendelsen af visuelle transformationer i malerier er Holbeins "The Envoys", hvor anamorfosis — en form for billedforvrængning, der kun giver mening når man ser på det fra et bestemt perspektiv — benyttes. Anamorfose blev en populær teknik i det 17. århundrede, som en del af en videnskabelig nysgerrighed omkring perspektiv og optik.
Den praktiske og æstetiske anvendelse af fisheye-linser og billedmanipulation er derfor både teknisk udfordrende og visuelt interessant. Det er vigtigt at forstå, hvordan forskellige typer projektioner og transformationer påvirker både æstetik og funktionalitet i billeder. Teknikkerne er ikke kun relevante for professionelle fotografer og videomagere, men spiller også en stor rolle i mange videnskabelige og teknologiske områder.
Hvordan har robotter formet vores forestillinger om menneskelighed og teknologi gennem litteratur, film og kunst?
Robotter har i årtier været både spejlbilleder og projektioner af menneskets egne drømme og frygt – i litteraturen, på lærredet og i de visuelle kunster. Fra 1950’erne og frem udfolder der sig en bred vifte af fortællinger, hvor robotter, både humanoide og ikke-humanoide, optræder som tjenere, trusler, ledsagere og selvstændige væsener. Allerede i 1952 blev der i serien “Wing 4” skabt robotfigurer, der i deres overbeskyttende loyalitet over for menneskeheden blev en begrænsning for menneskelig frihed. Dette tema, hvor teknologiens oprindelige formål med at tjene mennesket udvikler sig til at dominere det, forfinedes i Philip K. Dicks fortællinger “Second Variety” og “Autofac”, hvor evolutionen af automatiserede robotfabrikker munder ud i uønskede nanorobotter, skabt af maskiner og uden menneskelig kontrol.
Stanislaw Lem tog en anden tilgang i sin “Kyberiade”, hvor de robotiske hovedpersoner Trurl og Klapaucius ikke blot er bevidste væsener, men også konstruktører af andre maskiner i en verden næsten udelukkende beboet af robotter. Disse figurer, med evnen til både at føle og tænke, åbner for etikken i konstruktionen af bevidste væsener. Litteraturen for børn blev heller ikke forskånet for robottemaet. I værker som “Robbi, Tobbi und das Fliewatüüt” (1967) og “Schlupp vom grünen Stern” (1974) ses robotten som en slags ven, hvis udvikling af følelser ofte bliver en uforudset komplikation – en “fejl” i systemet, der alligevel fremmer en menneskelig forståelse.
I nyere litteratur transformeres robotten til en social og eksistentiel katalysator. Ian McEwans “Machines Like Me” (2019) iscenesætter androiden Adam i et romantisk trekantsdrama, mens Emma Braslavskys roman fra samme år lader robotter blive solgt som kunstige partnere for at bekæmpe samfundets ensomhed og relationstab. Kazuo Ishiguros “Klara and the Sun” (2021) skriver fra androidens eget perspektiv og sætter spørgsmålstegn ved, hvordan verden ser ud, når den forstås gennem en kunstig bevidsthed. Martina Clavadetschers “The Invention of Disobedience” lader en kvinde i en sexrobotfabrik reflektere over sin rolle i produktionen af kunstige kroppe – en direkte reference til programmeringens forfader, Ada Lovelace, og den feminine teknologi som både produkt og skaber. Raphaela Edelbauers roman “Dave” tematiserer forsøget på at overføre menneskelig bevidsthed til en computer – en idé, der ikke længere er ren fiktion, men en reel diskussion i nutidens AI-udvikling.
På filmfronten har robotter også sat et uudsletteligt aftryk. Allerede i de tidlige stumfilm optrådte robotlignende væsener, som i Fritz Langs “Metropolis” (1927), hvor den kvindelige maskine blev et ikon. Film som “The Day the Earth Stood Still” (1951) og “Forbidden Planet” (1956) introducerede ikoniske figurer som Gort og Robby, mens “Star Wars”-sagaen skabte en ny dualitet mellem den humanoide C3PO og den tekniske R2D2. Data fra “Star Trek: The Next Generation” udfordrer grænsen mellem maskine og menneske, og robotten i “Number 5 Lives!” udvikler personlighed og empati. I “Terminator” og “I, Robot” kulminerer robotfortællingen i enten total trussel eller kompleks loyalitet.
Selv industrielle robotter har fået plads i popkulturen. KUKA-robotter har haft roller i actionfilm som “James Bond: Die Another Day” og “Tomb Raider”, og i dokumentaren “Plug & Pray” fremhæves æstetikken og selvbilledet hos mennesket i mødet med menneskelignende maskiner. “Robot & Frank” (2012) illustrerer relationen mellem en demensramt ældre mand
Hvordan mestre avancerede skaktræk gennem praktiske eksempler
Hvordan opgraderes og anvendes biomethan fra alger effektivt?
Hvordan evolution gør mennesket svært at forstå
Hvordan kan skoler effektivt implementere mentale sundhedsstøtte og praksisser?
Hvordan sorg, tillid og kærlighed former relationer

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский