De integriteit van academisch werk is altijd een belangrijke pijler geweest voor onderwijsinstellingen wereldwijd. Sinds de opkomst van nieuwe technologieën, zoals generatieve AI, hebben universiteiten en hogescholen echter te maken gekregen met uitdagingen die de traditionele manieren van het waarborgen van academische eerlijkheid in vraag stellen. Leertechnologieën zoals leermanalyses bieden echter nieuwe mogelijkheden om deze problemen aan te pakken en tegelijkertijd de voordelen van technologische vooruitgangen te benutten. Deze technologieën worden steeds belangrijker, niet alleen voor het verbeteren van leerprocessen, maar ook voor het bestrijden van academische misdrijven, waaronder fraude via contractcheating en het gebruik van generatieve AI bij het maken van werkstukken.

Er bestaan verschillende benaderingen voor het detecteren van academisch wangedrag. Een daarvan is het gebruik van toetsenbordlogboeken en clickstream-gegevens om onregelmatigheden in het gedrag van studenten te identificeren terwijl ze bezig zijn met hun opdrachten. Deze methode wordt gewaardeerd om zijn eenvoud en effectiviteit, maar heeft twee grote nadelen. Ten eerste vereist het dat studenten hun werk binnen een vooraf gedefinieerde omgeving maken, wat niet altijd eerlijk is voor studenten die gebruik maken van hulpmiddelen van derden, bijvoorbeeld om redenen van toegankelijkheid. Ten tweede roept de toepassing van dergelijke methoden zorgen op over privacy. Veel studenten en privacyvoorvechters maken zich zorgen over de surveillance die gepaard gaat met online-toetsen, waarbij voortdurend het gedrag van de student wordt gemonitord.

Een alternatieve benadering van de detectie van academisch misbruik is stijlherkenning. Deze techniek gebruikt algoritmes om de schrijf- en werkstijl van een student te controleren over de tijd. Het idee hierachter is dat iedere persoon unieke idiosyncrasieën heeft in zijn of haar werk. Stijlherkenning is niet beperkt tot geschreven teksten; er worden ook experimenten uitgevoerd om vergelijkbare technieken toe te passen op codeerwerk en andere vormen van inhoud. Hoewel stijlherkenning complexer is en gevoelig voor valse positieven, biedt het duidelijke voordelen ten opzichte van gedragslogging. Het is namelijk niet van belang waar het werk wordt gemaakt, en er is geen privacyschendende monitoring nodig. Het werk van een student kan eenvoudig worden vergeleken met eerdere voorbeelden van hun eigen werk.

Een derde benadering die opkwam tijdens de COVID-19-pandemie is online toezicht, of proctoring. Hierbij worden studenten tijdens hun online examens gemonitord via audiovisuele feeds. Deze technologie biedt een manier om examens op afstand te houden met de veiligheid van een gecontroleerde omgeving, maar roept ook veel bezorgdheid op. Er zijn gevallen bekend waarin algoritmes van proctoring-software studenten van kleur ten onrechte beschuldigen van fraude, omdat de technologie moeite heeft om menselijke aanwezigheid correct te identificeren. Dit heeft geleid tot roep om alternatieven die minder inbreuk maken op de privacy van studenten.

Een van de veelbelovende alternatieven is sprekerverificatie, een technologie die gebruik maakt van stemherkenning om de identiteit van studenten te verifiëren tijdens mondelinge examens of assessments. Dit systeem is minder ingrijpend dan andere vormen van surveillance, omdat het alleen de stem van de student verifieert, zonder de omgeving voortdurend te monitoren. In de praktijk kan een AI-systeem de stem van de student verifiëren door hem of haar vragen te stellen die specifiek zijn voor het werk van de student. Deze technologie is getest in grootschalige computercursussen en heeft aangetoond effectief te zijn, wat een potentieel privacyvriendelijke benadering biedt voor het afnemen van assessments op afstand.

Het is duidelijk dat de toekomst van academische integriteit zowel kansen als uitdagingen biedt. De opkomst van generatieve AI heeft de manier waarop academisch werk wordt geproduceerd veranderd, wat heeft geleid tot een verhoogde bezorgdheid over plagiaat en frauduleus gedrag. Tegelijkertijd biedt de technologie zelf veelbelovende oplossingen. Leermanalyses kunnen helpen om studentenwerk te verifiëren zonder inbreuk te maken op hun privacy, terwijl online toezicht systemen kunnen worden geoptimaliseerd om een balans te vinden tussen veiligheid en ethiek. Ook de toepassing van nieuwe technologieën zoals sprekerverificatie biedt een toekomstbestendig alternatief voor het traditionele toezicht bij examens.

Wat echter niet over het hoofd mag worden gezien, is de ethische verantwoordelijkheid die onderwijsinstellingen dragen bij het implementeren van deze technologieën. Er moet voortdurend aandacht worden besteed aan de bescherming van de privacy van studenten, het voorkomen van vooroordelen in algoritmes, en het waarborgen van eerlijke toegang tot educatie voor iedereen. Het is van belang dat de implementatie van nieuwe technologieën altijd gepaard gaat met een zorgvuldige afweging van de impact op zowel de student als het onderwijsveld in zijn geheel. De vraag is niet alleen hoe we technologie kunnen gebruiken om academische integriteit te waarborgen, maar ook hoe we een rechtvaardig en inclusief onderwijssysteem kunnen creëren waarin technologie een ondersteunende rol speelt, zonder de fundamenten van eerlijkheid en privacy aan te tasten.

Hoe UX Design Gebaseerd op Cognitieve Belasting de Gebruikerservaring Verbeteren

De laatste jaren wordt het belang van cognitieve belasting in het ontwerp van gebruikersinterfaces steeds duidelijker. Veel systemen bevatten overbodige informatie die, hoewel het op het eerste gezicht nuttig lijkt, slechts de cognitieve belasting van de gebruiker verhoogt zonder wezenlijke voordelen te bieden. Dit is bijvoorbeeld het geval bij zoekmachines die, naast de zoekresultaten, vaak extra informatie tonen zoals het weer, het laatste nieuws, en andere gegevens die de hoofdfunctionaliteit niet ondersteunen. Google heeft dit probleem opgelost door de essentie van de zoekfunctie te optimaliseren: de zoekresultaten staan centraal, zonder overbodige afleidingen. Dit minimalisme maakt het mogelijk om de cognitieve middelen van de gebruiker effectiever te benutten, door alleen de informatie te tonen die daadwerkelijk nodig is.

Het ontwerp van interface-elementen die geen redundantie bevatten, zoals de Google timer, illustreert dit principe duidelijk. Deze timer toont enkel de klok en biedt drie praktische opties om extra tijd toe te voegen, waarbij het onnodig toevoegen van bijvoorbeeld een seconde wordt vermeden. Het startknopje is duidelijk geplaatst, en de interface is overzichtelijk zonder afleidingen. Het resultaat is een intuïtieve en efficiënte ervaring voor de gebruiker, waarbij cognitieve middelen optimaal worden ingezet.

Een ander belangrijk aspect van goed ontwerp is het aanbieden van behulpzame documentatie en ondersteuning. De tiende heuristiek van Jakob Nielsen benadrukt dat hulp en documentatie makkelijk vindbaar moeten zijn, goed gestructureerd en eenvoudig te volgen. Dit helpt gebruikers niet alleen bij het leren van het systeem, maar voorkomt ook dat ze zich overweldigd voelen door onduidelijke of onvolledige informatie. Een voorbeeld hiervan is de Google Agenda, die naast de invoervelden voor evenementen duidelijke, grijze uitleg geeft over wat er precies in elk veld moet worden ingevuld. Deze korte en begrijpelijke aanwijzingen maken het voor de gebruiker eenvoudiger om taken uit te voeren zonder onnodige cognitieve belasting.

Wanneer we kijken naar systemen die complexer van aard zijn, is het belangrijk om te erkennen dat deze al veel intrinsieke cognitieve belasting met zich meebrengen. Gebruikers van dergelijke systemen hebben al beperkte cognitieve middelen, en het ontwerp moet ervoor zorgen dat dit niet verder wordt belast. Dit geldt vooral voor beginnende of minder ervaren gebruikers, die zich geconfronteerd zien met nieuwe en onbekende informatie. Goed ontwerp kan hen helpen zich sneller en efficiënter door het systeem te navigeren, zelfs als ze de interface nog niet volledig begrijpen. Dit benadrukt het belang van het testen en ontwerpen van interfaces voor alle niveaus van gebruikerservaring, van novice tot expert.

Naast de praktische toepassing van deze heuristieken, is het van belang te begrijpen waarom ze effectief zijn. Het gebruik van heuristieken zoals die van Nielsen is succesvol omdat ze aansluiten bij de werking van onze cognitieve architectuur. Ze helpen informatie te verwerken en te begrijpen zonder onnodige belasting te veroorzaken. In veel gevallen wordt niet specifiek rekening gehouden met de cognitieve processen bij het ontwikkelen van deze richtlijnen, maar de langdurige effectiviteit toont aan dat ze intuïtief de juiste balans vinden tussen informatieaanbod en gebruiksvriendelijke interface.

Wat verder belangrijk is, is dat ontwerpers rekening moeten houden met de variëteit aan gebruikers die een interface zullen gebruiken. De ene gebruiker heeft mogelijk meer ervaring en kan zich sneller aanpassen aan een nieuwe omgeving, terwijl de ander, door gebrek aan ervaring, moeite kan hebben met het verwerken van nieuwe informatie. Daarom is het van essentieel belang dat ontwerpers zich niet uitsluitend richten op de gemiddelde gebruiker, maar juist ook het ontwerp aanpassen aan diegenen die meer cognitieve ondersteuning nodig hebben. Interface-ontwerpen moeten flexibel zijn, zodat ze voor een breed scala aan gebruikers toegankelijk zijn en hen in staat stellen efficiënt en zonder frustratie te werken.

Wanneer mag kunstmatige intelligentie gebruikt worden?

Het gebruik van kunstmatige intelligentie (AI) heeft de potentie om enorme voordelen te bieden voor de maatschappij, maar roept ook tal van ethische en maatschappelijke vragen op. Het implementeren van AI in verschillende domeinen zoals rechtshandhaving, onderwijs of gezondheidszorg kan zowel positieve als negatieve effecten hebben, afhankelijk van hoe de technologie wordt ingezet en gereguleerd.

De voorgestelde AI-wetgeving van de Europese Unie identificeert bijvoorbeeld een aantal toepassingen van AI die als "hoog risico" worden beschouwd en onder strikte regelgeving vallen. Dit betreft onder andere voorspellende politietechnieken, gerechtsmaatregelen zoals straffen en het gebruik van AI in het welzijns- en onderwijssysteem. Daarnaast worden bepaalde AI-toepassingen expliciet verboden, zoals subliminale marketingtools, realtime biometrische identificatie op afstand (behalve in specifieke situaties zoals terrorisme) en sociale beoordelingssystemen zoals die in China worden toegepast.

Een van de grootste uitdagingen bij het gebruik van AI is het begrijpen van de samenleving die men probeert te beïnvloeden. Wat zijn de bestaande onrechtvaardigheden die door AI-systemen versterkt zouden kunnen worden? Zijn de voordelen van een bepaalde toepassing groter dan de potentiële schade? En wie loopt het risico schade te ondervinden van AI? Dit zijn vragen die vaak moeilijk te beantwoorden zijn, omdat ze betrekking hebben op de fundamentele keuzes die we maken als samenleving: hoe verdelen we beperkte middelen? Hoe lossen we conflicten op tussen onze vrijheid van meningsuiting en de rechten van anderen op een fatsoenlijke behandeling? En hoe zorgen we voor een balans tussen kortetermijngroei en langetermijnduurzaamheid?

In sommige gevallen is het moeilijk te bepalen of de voordelen van het gebruik van AI opwegen tegen de mogelijke schade. Dit geldt bijvoorbeeld voor de ontwikkeling van autonome voertuigen. De voordelen van zelfrijdende auto's zijn duidelijk: ze zouden de verkeersveiligheid kunnen verbeteren en het aantal verkeersdoden kunnen verminderen. Maar de potentiële nadelen en risico's, zoals de kans op storingen in de technologie of ethische dilemma's over de beslissingen die een zelfrijdende auto moet nemen in noodsituaties, maken de situatie gecompliceerder. Daarnaast is er de vraag welke groepen zullen profiteren van deze technologie en welke groepen mogelijk benadeeld zullen worden, bijvoorbeeld als het gaat om werkgelegenheid in de transportsector.

Een ander belangrijk aspect van het gebruik van AI is het vraagstuk van eerlijkheid en bias. Eerlijkheid is niet een nieuw probleem; het heeft altijd al een rol gespeeld in menselijke samenlevingen, van religieuze leerstellingen tot politieke filosofieën. Toch worden deze zorgen door AI-systemen versterkt, omdat AI vaak gebaseerd is op historische gegevens die inherent bevooroordeeld kunnen zijn. Dit kan bijvoorbeeld het geval zijn bij machine learning-systemen die zijn getraind op gegevens uit het verleden, zoals gegevens over poaching of kredietscore. Als historische gegevens impliciete of expliciete vooroordelen bevatten, kan AI deze vooroordelen reproduceren en zelfs versterken.

Neem bijvoorbeeld de Google Translate case: in 2017 werd ontdekt dat de vertaaltool van Google ernstige genderbias vertoonde. In het Fins bestaat er maar één persoonlijk voornaamwoord voor de derde persoon enkelvoud (‘hän’), terwijl het Engels twee geslachtsgebonden voornaamwoorden heeft ('he' en 'she'). Dit leidde tot vertalingen die afhankelijk waren van de geslachtsbiasen die aanwezig waren in de teksten waarop de vertaalmachine was getraind. Ondanks pogingen om deze bias te corrigeren, blijft het probleem bestaan. Deze voorbeelden illustreren hoe AI vaak onbewust de ongelijkheden en vooroordelen in de samenleving weerspiegelt.

Daarnaast is er de uitdaging dat de statistieken die we proberen te voorspellen of te gebruiken in AI-systemen vaak onvolledig of vertekend zijn. Stel je voor dat je een systeem ontwikkelt om mensen voor leningen te selecteren, maar je hebt geen directe maatstaf voor hoe waarschijnlijk het is dat iemand een lening terugbetaalt. Je zou kunnen terugvallen op een proxy, zoals een kredietscore, maar dit creëert een feedbackloop die bestaande vooroordelen versterkt. Het gebruik van dergelijke proxies kan leiden tot systemen die niet alleen inefficiënt zijn, maar ook schadelijk voor bepaalde groepen in de samenleving.

Ten slotte moeten we erkennen dat het vaak onmogelijk is om alle vormen van bias uit AI-systemen te verwijderen. Er zijn methoden om bias te verminderen, zoals het aanpassen van gegevens vóór de modellering of het aanpassen van drempelwaarden na de modellering, maar het is belangrijk te begrijpen dat niet alle vooroordelen volledig kunnen worden geëlimineerd. Algoritmen hebben immers inductieve bias nodig om te kunnen functioneren bij nieuwe, ongeziene gegevens. Dit geldt bijvoorbeeld voor het selecteren van kandidaten voor een sollicitatiegesprek of het toewijzen van medische hulp aan patiënten op een wachtlijst.

Het is duidelijk dat het gebruik van AI niet alleen technische uitdagingen met zich meebrengt, maar ook diepgaande ethische en maatschappelijke implicaties. Bij het overwegen van de inzet van AI moet men niet alleen rekening houden met de technologische mogelijkheden, maar ook met de bredere maatschappelijke gevolgen, zowel positief als negatief. Wat we vandaag beslissen over het gebruik van AI, zal de samenleving van morgen beïnvloeden.