I klyngeanalyse er evalueringen af resultatet ofte udfordrende, især når vi arbejder med data, hvor vi ikke har outputlabels, der kan hjælpe med at vurdere, hvor præcise vores klynger er. I nogle tilfælde ønsker vi at udføre en klyngeanalyse uden at bruge de labels, der er tilknyttet dataene. Denne tilgang kan være særligt relevant, når vi arbejder med datasæt beregnet til uovervåget læring. I denne sammenhæng skal vi fokusere på at vurdere klyngernes kvalitet og nøjagtighed uden direkte at sammenligne dem med de korrekte labels.

Som et eksempel bruger vi et diabetes-datasæt, hvor vi udfører klyngeanalyse for at gruppere observationer baseret på deres funktioner som Glucose og BMI. Først skal vi bestemme den optimale klyngestørrelse, derefter udføre klynging af træningsdataene og dernæst evaluere resultaterne af testen ved at sammenligne klyngernes gennemsnitsværdier.

En vigtig del af klyngeanalysen er at undgå fejlinvertering af logik i klyngerne. Klyngealgoritmer kan nogle gange bruge "positiv logik" (hvor 1 betyder sandt, og 0 betyder falsk) og andre gange "negativ logik" (hvor 0 betyder sandt, og 1 betyder falsk). Det er derfor afgørende at være opmærksom på, hvilken type logik klyngen bruger, og at justere resultaterne, hvis nødvendigt.

Når vi udfører evalueringen, starter vi med at anvende evalclusters()-funktionen i MATLAB for at bestemme det optimale antal klynger baseret på træningsdataene. Derefter udfører vi klynging på de første 500 rækker af diabetes-datasættet og beregner klyngernes gennemsnitsværdier for de valgte funktioner. Vi opdeler observationerne i to klynger (1 og 2) og kontrollerer, om gennemsnitsværdierne for de to klynger er korrekt ordnet. Hvis ikke, korrigerer vi rækkefølgen af klyngerne og justerer deres resultater.

Dernæst anvender vi testen på et andet sæt af data, som ikke har de kendte labels. Ved at beregne gennemsnitsværdierne af de testdata, vi har, og sammenligne dem med træningsdataenes gennemsnitsværdier, kan vi vurdere, om klyngerne fra testdataene passer til klyngerne i træningsdataene. Hvis vi bemærker en stor forskel mellem de to resultater, kan det indikere, at der er anvendt negativ logik, og vi skal revertere klyngernes etiketter for at få de korrekte resultater.

Når evalueringen er afsluttet, skal vi vise resultaterne, herunder den korrekte klyngeprocent, som er et mål for, hvor godt klyngerne matcher testdataene. I det aktuelle tilfælde, hvor den korrekte klyngeprocent er 82%, indikerer det en høj kvalitet af klyngeanalysen, selv uden at bruge outputlabels.

At forstå disse principper er afgørende for at kunne udføre evaluering af klyngeanalyse på en pålidelig måde, især når vi ikke har de labels, der kan bruges til at vurdere vores resultater. Det er også vigtigt at bemærke, at en vellykket klyngeanalyse kræver en passende balance mellem den logiske tilgang, der bruges til at tildele observationer til klynger, og de metoder, vi bruger til at evaluere disse klynger uden at stole på labels.

I praksis vil et sådant evalueringssystem være nyttigt, hvis vi ønsker at anvende klyngeanalyse i situationer, hvor dataene ikke har prædefinerede etiketter, og hvor vi er interesseret i at finde mønstre og grupperinger i dataene baseret på deres naturlige strukturer snarere end på foruddefinerede kategorier.

Hvordan ANFIS forudsiger aktiekurser og lærer af usikker data

I de tidligere kapitler har vi set, hvordan AI-teknologier kan anvendes til at forudsige aktiekurser. I dette kapitel går vi i dybden med en af de mest kraftfulde metoder inden for adaptiv neuro-fuzzy inference system (ANFIS). Denne metode kombinerer de bedste egenskaber fra både fuzzy logik og neurale netværk og gør det muligt for os hurtigt at udvikle professionelle applikationer, der forudsiger ønskede eller optimale resultater på baggrund af usikre og uklare inputdata.

Som med alle AI-relaterede algoritmer kræver ANFIS både træning og test af modellen for at kunne anvendes praktisk og give optimale resultater. Fordelen ved ANFIS i forhold til både ren fuzzy logik og traditionelle neurale netværk er, at den kombinerer beslutningstagningsevnerne fra fuzzy logik med den læringsevne, som neurale netværk tilbyder. Dette gør ANFIS særligt egnet til at håndtere uklare input og at forbedre sin beslutningstagningsevne baseret på erfaring.

Når du bygger et ANFIS-system, er det første skridt at hente og normalisere testdatasættet. Det er vigtigt, at alle kolonner fra datasættet bliver hentet og normaliseret korrekt. Efter normaliseringen er inputmatrixen klar, og den kan anvendes til at evaluere den trænede model. Resultatet af denne evaluering er de forudsagte aktiekurser, som vi kan sammenligne med de faktiske aktiekurser.

For at visualisere præcisionen af modellen, bruges en graf, hvor den forudsagte aktiekurs sammenlignes med den faktiske aktiekurs. I den udførte test ses det, at tendensen i de forudsagte aktiekurser matcher de faktiske aktiekurser tæt. Dette er et vigtigt skridt, da vi kan bruge denne information til at træffe beslutninger på aktiemarkedet, som potentielt kan maksimere vores afkast.

Under træningen af ANFIS blev de mindste trænings- og testfejl (RMSE) overvåget, hvilket giver os en god indikator på modellens nøjagtighed og effektivitet. For eksempel blev der opnået en minimal trænings-RMSE på 0.0328741 og en minimal test-RMSE på 0.110141. Disse værdier viser, at modellen er i stand til at tilpasse sig dataene med høj præcision, hvilket er afgørende for dens praktiske anvendelse.

Ved at gennemføre dette projekt får man en solid forståelse af ANFIS-modellens opbygning og anvendelse. Det er også vigtigt at bemærke, at de projekter, der beskrives i kapitlet, kan tilpasses og bygges videre på med andre datasæt og applikationer, hvilket giver læseren mulighed for at udvikle deres egne modeller baseret på de samme principper.

Det er også vigtigt at forstå, at ANFIS ikke kun bruges til aktiekursforudsigelser. Den kan anvendes på tværs af mange forskellige domæner, hvor der er behov for at træffe beslutninger baseret på uklare eller usikre data. Dette kan være alt fra medicinsk diagnose til robotteknologi eller miljøanalyse. ANFIS er fleksibel og kan tilpasses specifikke behov ved at justere dens arkitektur og træningsdata.

Endelig er det vigtigt at understrege, at for at opnå de bedste resultater med ANFIS, skal der arbejdes grundigt med både træning og test af modellen. Selvom værktøjer som MATLAB tilbyder brugervenlige grænseflader som Neuro-Fuzzy Designer, kræver det stadig en god forståelse af de underliggende processer og parametre. Dette kapitel giver derfor læseren en både teoretisk og praktisk forståelse af ANFIS, som er fundamentet for at kunne udvikle avancerede AI-modeller i fremtiden.

Hvad er kunstig intelligens, og hvordan fungerer det i praksis?

Kunstig intelligens (AI) har i de seneste årti udviklet sig til en af de mest transformative teknologier i vores samfund. Fra avanceret maskinlæring og robotteknologi til smart-hjem-løsninger og medicinsk forskning, er AI blevet en grundpille i moderne teknologi og et redskab, der revolutionerer måden, vi arbejder og lever på. Men hvad er AI egentlig, og hvordan fungerer det?

Kunstig intelligens er en teknologi designet til at få computere og maskiner til at efterligne menneskelige kognitive funktioner såsom læring, beslutningstagning og problemløsning. I sin grundform er AI en samling af algoritmer, der får computere til at handle eller tænke på en måde, der ligner menneskelig adfærd. Det vil sige, at målet med AI er at udstyre maskiner med evnen til at lære af erfaring og træffe beslutninger, på samme måde som mennesker gør.

AI bygger på at forstå og efterligne hjernens mønstre og kognitive processer. Dette sker gennem analyse af menneskelig tænkning og opbygning af intelligente systemer, der kan bruge disse mønstre til at løse problemer og træffe beslutninger. Der er to grundlæggende funktioner, som AI kræver for at fungere: læring og beslutningstagning. Læring refererer til træning og validering af AI-systemer, mens beslutningstagning indebærer at anvende denne læring til at træffe valg i praksis.

Historisk set begyndte AI med introduktionen af begrebet af John McCarthy i 1956 og har siden udviklet sig gennem flere milepæle: fra Shakeys robot i 1969 til supercomputeren Deep Blue, der besejrede verdensmestre i skak i 1997. I de seneste år har AI fundet anvendelse i alt fra talegenkendelse og mønstergenkendelse til robotteknologi og sundhedssektoren. Eksempelvis benyttede Baidu i 2020 AI til hurtigt at forudsige RNA-sekvensering af SARS-CoV-2 under COVID-19-pandemien, hvilket gjorde det muligt at udvikle vacciner hurtigere end nogen sinde før.

De grundlæggende strukturer og komponenter i AI-teknologi omfatter teknikker som fuzzy inference systemer, neurale netværk, maskinlæring og deep learning. Disse teknologier arbejder sammen for at skabe intelligente systemer, der kan lære, ræsonnere og handle autonomt. Generelt betragtes fem komponenter som fundamentale for AI-systemers funktion: læring, ræsonnering, problemløsning, opfattelse og sprogforståelse.

Læring er en central del af AI, og det er en proces, der minder om et lukket feedback-loop. Under læringen bliver forskellige input fodret ind i systemet, og output bliver sammenlignet med ønskede resultater for at identificere fejl. Derefter justeres systemet, indtil fejlene falder inden for en acceptabel grænse. Dette kan sammenlignes med en køreturstræning, hvor en elev lærer at køre bil ved at modtage feedback fra en instruktør og korrigere sine fejl undervejs.

Ræsonnering handler om at anvende eksisterende viden og logik til at drage konklusioner eller forudsige fremtidige hændelser. Der findes flere typer ræsonnering, herunder deduktiv, induktiv, abduktiv og analogisk ræsonnering. Deduktiv ræsonnering anvender generelle regler til at lave specifikke konklusioner, mens induktiv ræsonnering starter med specifikke observationer og generaliserer til en bredere teori. Abduktiv ræsonnering er den proces, hvor man laver den bedste forklaring baseret på tilgængelig information, og analogisk ræsonnering bruger en kendt situation til at forstå en ukendt.

AI benytter også teknikker som neurale netværk og maskinlæring, som tillader systemer at forbedre deres præstationer over tid baseret på de data, de modtager. Et eksempel på dette er Adaptive Neural Fuzzy Inference System (ANFIS), der kombinerer fuzzy logik og maskinlæring for at skabe systemer, der kan tilpasse sig og lære på en måde, der minder om menneskelig tænkning.

Som AI fortsætter med at udvikle sig, bliver det stadig vigtigere at forstå, hvordan disse systemer ikke kun lærer af data, men også hvordan de træffer beslutninger. Mens læring kan ses som en træningsproces, er beslutningstagning en aktiv anvendelse af denne viden til at styre systemets handlinger. Det er vigtigt at forstå, at AI ikke kun handler om at automatisere opgaver, men også om at skabe systemer, der kan agere selvstændigt i komplekse og uforudsigelige miljøer.

Derfor bør læsere have en grundlæggende forståelse af, at AI ikke er en statisk teknologi, men en dynamisk proces, hvor systemer konstant forbedrer sig baseret på ny data og erfaring. Desuden bør man være opmærksom på de etiske og praktiske udfordringer, der følger med at udvikle og implementere AI-teknologier, især når det kommer til beslutningstagning i kritiske områder som sundhed, finans og autonom transport.