Jus in bello, of de regels die het gedrag tijdens oorlogen reguleren, streven naar het minimaliseren van lijden en het beschermen van alle slachtoffers van gewapende conflicten, vooral burgers. De regels gelden voor beide strijdende partijen, ongeacht de redenen voor het conflict of de rechtvaardigheid van de oorlogsvoering. Als dit niet het geval zou zijn, zouden de wetten weinig nut hebben, aangezien elke partij zich waarschijnlijk als slachtoffer van agressie zou beschouwen. Er zijn vier belangrijke principes die het gedrag tijdens oorlog bepalen: de menselijke principes, het onderscheidingsprincipe, het proportionaliteitsprincipe en het principe van militaire noodzakelijkheid.
Het eerste principe is het principe van menselijkheid, dat ook wel de Martens-clausule wordt genoemd. Dit werd geïntroduceerd in de preambule van de Haagse Conventie van 1899 door Friedrich Martens, de Russische afgevaardigde op de conventie. Het vereist dat oorlog wordt gevoerd volgens de wetten van de menselijkheid en de dictaten van het publieke geweten. De Martens-clausule is een nogal vage bepaling, een catch-all die gedragingen en wapens verbiedt die het publiek als afschuwelijk zou kunnen beschouwen. Hoe precies het publieke geweten wordt bepaald, is een open vraag. De Martens-clausule wordt vaak geïnterpreteerd als een voorkeur voor het vangen van een vijand boven het verwonden van hen, verwonden boven doden, en het verbieden van wapens die buitensporig letsel of pijn veroorzaken.
Het tweede principe van jus in bello is het principe van onderscheid. Het vereist dat men een duidelijk verschil maakt tussen de burgerbevolking en strijders, en tussen burgerdoelen en militaire doelwitten. Het enige legitieme doelwit is een militair doelwit. Dit principe verplicht verdedigers om militaire personeel of materieel niet in of nabij burgerdoelen te plaatsen en aanvallers om alleen die aanvalsmethoden te gebruiken die discrimineren in hun effect.
Het derde principe van jus in bello is proportionaliteit. Dit verbiedt aanvallen op militaire doelwitten die naar verwachting burgers zouden doden of verwonden, of burgerdoelen die zouden worden beschadigd in een mate die buitensporig is in verhouding tot de verwachte militaire voordelen. Dit principe vereist dat aanvallers voorzorgsmaatregelen nemen om de collateral schade te minimaliseren en waar mogelijk doelen kiezen die de minste schade aan burgers en burgerobjecten veroorzaken.
Het vierde en laatste principe van jus in bello is militaire noodzakelijkheid. Dit beperkt het gebruik van geweld tot die acties die legitieme militaire doelstellingen dienen. Dit betekent dat men moet vermijden om onnodig letsel toe te brengen aan de vijand. Het principe van noodzakelijkheid overlapt gedeeltelijk met de Martens-clausule. Beide nemen humanitaire zorgen in acht, bijvoorbeeld het verwonden van soldaten, en verbieden wapens die onnodig lijden veroorzaken.
Met de opkomst van autonome wapensystemen en kunstmatige intelligentie rijst de vraag of we AI-systemen kunnen bouwen die deze vier principes van jus in bello kunnen handhaven. Het blijkt dat veel mensen zich moreel verzetten tegen het idee van autonome dodelijke wapens. Zoals de Secretaris-Generaal van de VN duidelijk heeft gesteld, vinden veel mensen deze wapens moreel afstotelijk. Lethal autonomous weapons lijken dan ook rechtstreeks in conflict te komen met de Martens-clausule. De andere drie principes worden eveneens geschonden door dergelijke wapens.
Een voorbeeld hiervan is de Kargu-drone die op de Turkse-Syrische grens wordt ingezet. Deze drone maakt gebruik van gezichtsherkenning om doelen te identificeren. We weten echter dat gezichtsherkenningssoftware in de praktijk vaak onbetrouwbaar is. Het is dan moeilijk voor te stellen hoe de Kargu-drone het principe van onderscheid zou kunnen respecteren. Evenzo kunnen we geen autonome systemen bouwen die het principe van proportionaliteit en noodzakelijkheid respecteren. Hoewel we autonome systemen kunnen ontwikkelen, zoals zelfrijdende auto’s, die de wereld voldoende kunnen waarnemen om ongelukken te voorkomen, kunnen we geen systemen bouwen die subtiele oordelen kunnen maken over de verwachte schade die door een bepaald wapen wordt toegebracht. Of over de humanitaire afwegingen die een militaire commandant maakt wanneer bijvoorbeeld een groep strijders zich in de buurt van een ziekenhuis verstopt.
Sommige principes van jus in bello, zoals het principe van onderscheid, zouden in de toekomst wellicht door AI-systemen kunnen worden nageleefd. Over een paar decennia zouden machines in staat kunnen zijn om adequaat onderscheid te maken tussen strijders en burgers. Er zijn zelfs argumenten dat machines dit misschien zelfs beter zouden kunnen dan mensen. Machines kunnen meer sensoren hebben, sneller werken, sensoren die werken op lichtgolflengten die mensen niet kunnen zien, en actieve sensoren zoals radar en LIDAR, die in omstandigheden werken waarin passieve sensoren zoals onze ogen en oren falen. Het is dus niet ondenkbaar dat dodelijke robots in de toekomst de wereld beter kunnen waarnemen dan mensen.
Echter, andere principes, zoals de Martens-clausule, lijken moeilijk voor te stellen dat machines ooit volledig zullen kunnen handhaven. Hoe zou een machine afkeer kunnen begrijpen? Hoe kan een machine het publieke geweten bepalen? Vergelijkbare zorgen rijzen bij de principes van proportionaliteit en noodzakelijkheid. Kan een machine ooit adequaat de humanitaire afwegingen begrijpen die een militaire commandant maakt in situaties waarin bijvoorbeeld opstandige strijders zich nabij een ziekenhuis bevinden? Totdat we bevredigende antwoorden op dergelijke vragen hebben, moeten we blijven eisen dat er zinvolle menselijke controle blijft over dodelijke autonome systemen.
Naast deze fundamentele vraagstukken blijft de ethiek van de inzet van autonome wapens een groot dilemma. Hoewel sommige principes wellicht technisch haalbaar zijn, zal het lange tijd een uitdaging blijven om de menselijke waardigheid en ethiek te waarborgen in een wereld waarin machines steeds meer beslissingen nemen over leven en dood.
Hoe kan ethisch gedrag in AI-systemen effectief worden geïmplementeerd zonder te vervallen in 'ethics washing' en extractivisme?
In de hedendaagse discussie over kunstmatige intelligentie (AI) is er een groeiende bezorgdheid over de ethische implicaties van de technologie. AI heeft het potentieel om de wereld op ingrijpende wijze te veranderen, maar de manier waarop het wordt ontwikkeld en toegepast, roept fundamentele vragen op over ethiek, macht en verantwoordelijkheid. Belangrijke thema’s die hierbij naar voren komen zijn onder andere de simulatie van ethisch gedrag door bedrijven (ethics washing) en de exploitatie van hulpbronnen voor winst, inclusief natuurlijke grondstoffen, arbeid en sociale hulpbronnen (extractivisme).
Ethiek wordt vaak gepresenteerd als een sleutelcomponent van AI-ontwikkeling. Bedrijven, zoals IBM, beweren dat ‘ethiek ingebed moet worden in het ontwerp- en ontwikkelingsproces van AI vanaf het allereerste begin’. Dit klinkt veelbelovend, maar in de praktijk blijkt het vaak een marketingstrategie te zijn. Ethiek wordt ingezet als een buzzwoord, zonder daadwerkelijke onderbouwing of fundamentele veranderingen in de werkwijze van bedrijven. Dit wordt vaak aangeduid als 'ethics washing'. Het doel van ethics washing is eenvoudig: het creëren van de schijn van verantwoordelijkheid en ethisch gedrag zonder daadwerkelijk te investeren in zinvolle maatregelen die de technologie ten goede komen.
Een van de gevaren van ethics washing is dat het de kloof vergroot tussen vage ethische beweringen en echte morele filosofie. Ethiek wordt oppervlakkig ingezet, terwijl de diepte van echte morele overwegingen uit het zicht wordt gehouden. Dit leidt niet alleen tot een verwatering van de betekenis van ethiek, maar ook tot een afname van het vertrouwen in de ethische claims van de technologie-industrie. Wanneer ethische taal alleen wordt gebruikt om het imago van een bedrijf te verbeteren, wordt het moeilijk om echte ethische dilemma’s te adresseren. Morele filosofie zou moeten helpen om dergelijke claims kritisch te analyseren, maar wanneer ethiek alleen als marketinginstrument wordt ingezet, raakt de discussie vervormd en wordt de mogelijkheid om fundamentele ethische vragen te stellen, gemarginaliseerd.
Een gerelateerde kwestie die opkomt in de discussie over AI-ethiek is 'transparency washing'. Dit is een term die verwijst naar het oppervlakkige naleven van transparantie- en verantwoordingsnormen zonder substantiële veranderingen in de praktijk. Bij transparency washing worden processen transparant gepresenteerd, maar zonder daadwerkelijke verbetering van ethisch gedrag. In de wereld van AI kan dit leiden tot schijnparticipatie, waarbij bedrijven claimen de gemeenschap te betrekken bij het ontwerp van hun systemen, maar in werkelijkheid slechts hun eigen reputatie proberen te verbeteren. Dit fenomeen wordt vaak aangeduid als ‘participation washing’. In plaats van een echte, betekenisvolle betrokkenheid bij de gemeenschap, wordt participatie gereduceerd tot een lege formaliteit.
Naast deze ethische kwesties is er de toenemende bezorgdheid over extractivisme. In de traditionele zin verwijst extractivisme naar het onttrekken van natuurlijke hulpbronnen voor winst. In de context van AI heeft dit begrip echter een bredere betekenis gekregen. Naast de materiële grondstoffen die nodig zijn voor de technologie, omvat extractivisme nu ook de manier waarop sociale hulpbronnen zoals identiteit, culturele stereotypen en zelfs persoonlijke gegevens worden geëxploiteerd voor commercieel gewin. AI-technologieën zijn vaak afhankelijk van het verzamelen van enorme hoeveelheden data, die in veel gevallen onterecht worden vergaard van individuen of gemeenschappen zonder hun toestemming of compensatie.
Het idee van extractivisme in AI gaat verder dan alleen het onttrekken van fysieke hulpbronnen. AI kan in veel gevallen ook dienen als middel voor de exploitatie van arbeid en sociale structuren. Een goed voorbeeld hiervan is de manier waarop AI kan worden ingezet om bevolkingsgroepen te identificeren en te categoriseren op basis van hun persoonlijke kenmerken, zoals etniciteit, geslacht of seksuele geaardheid. Dit soort technologieën kan leiden tot ernstige schendingen van de privacy en de rechten van individuen. Er zijn gevallen waarin AI-systemen discriminerende gevolgen hebben, bijvoorbeeld door mensen van kleur verkeerd te identificeren als criminelen, of door te proberen seksuele geaardheid af te leiden uit fysiologische kenmerken. Dit roept fundamentele vragen op over de ethische grenzen van wat AI kan en mag doen in onze samenleving.
De ethische kosten van deze praktijken zijn aanzienlijk, en de gevolgen van extractivisme gaan veel verder dan de technologie zelf. De manier waarop data wordt verzameld en gebruikt heeft verregaande implicaties voor de machtsverhoudingen binnen de samenleving. Het is essentieel om te erkennen dat AI niet een neutrale technologie is, maar dat het verweven is met economische, sociale en politieke structuren die bepalen wie er profiteert van de technologische vooruitgang en wie er wordt benadeeld.
Naast de ethische bezorgdheden die gepaard gaan met ethics washing en extractivisme, is er een diepere kwestie die bedrijven en ontwikkelaars van AI-systemen moeten overwegen: de machtsdynamiek die AI-technologieën creëren en versterken. Wanneer AI-systemen worden ontwikkeld zonder een grondige afweging van de sociale, economische en politieke context, kunnen ze bestaande ongelijkheden verergeren. AI heeft de potentie om de machtsverhoudingen in de samenleving te hervormen, maar zonder zorgvuldige ethische overweging kan het ook een instrument worden voor exploitatie en onderdrukking.
De verantwoordelijkheid voor het ontwikkelen van ethische AI ligt niet alleen bij de ontwikkelaars en bedrijven, maar ook bij de bredere samenleving. Het is essentieel om een open debat te voeren over de normen en waarden die we willen dat AI weerspiegelt. Dit debat moet niet worden verstoord door oppervlakkige of misleidende claims van ethisch handelen, maar moet gebaseerd zijn op echte, substantiële morele overwegingen die rekening houden met de belangen van alle betrokkenen.
Hoe Generatieve AI het Onderwijs Kan Hervormen: Van LLM’s tot Persoonlijke Leerbegeleiders
Generatieve AI biedt nieuwe mogelijkheden voor zowel de manier waarop studenten leren als de manier waarop onderwijsmaterialen en -systemen worden ontwikkeld. In plaats van alleen traditionele essays te schrijven, kunnen studenten nu tools gebruiken om visuele hulpmiddelen te creëren voor presentaties, code te genereren voor informaticaopdrachten, of zelfs muziek te componeren voor creatieve vakken. Deze nieuwe benaderingen helpen niet alleen bij het aanleren van belangrijke AI-vaardigheden, maar breiden ook de mogelijkheden voor leeractiviteiten uit.
Generatieve AI kan bijzonder nuttig zijn voor studenten met verschillende leerbehoeften. Large Language Models (LLM’s) kunnen bijvoorbeeld real-time vertalingen aanbieden, zodat niet-native sprekers cursusmateriaal beter begrijpen en gemakkelijker met docenten kunnen communiceren. Tools voor tekst-naar-spraak en spraak-naar-tekst ondersteunen studenten met visuele of auditieve beperkingen, waardoor een meer inclusieve leeromgeving wordt gecreëerd. Dit maakt het mogelijk om niet alleen de toegankelijkheid van het onderwijs te verbeteren, maar ook de efficiëntie ervan te verhogen.
Een ander aspect van generatieve AI in het onderwijs is het gebruik van AI-tools in bestaande onderwijssystemen zonder dat studenten direct met de AI zelf hoeven te interageren. In learning management systems (LMS) kunnen bijvoorbeeld AI-chatbots geïntegreerd worden, die directe antwoorden geven op veelgestelde vragen van studenten over cursuslogistiek, deadlines of basisinhoud. Het gebruik van zulke tools vermindert de administratieve last voor docenten en zorgt ervoor dat studenten meer tijd kunnen besteden aan werkelijke leeractiviteiten.
Generatieve AI kan ook helpen bij de ontwikkeling van onderwijsmateriaal zelf. AI-tools kunnen bijvoorbeeld tekstboekaanvullingen, interactieve simulaties en grafische elementen genereren die het cursusmateriaal aanvullen. Dit verlaagt de kosten en tijd die gepaard gaan met het ontwikkelen van onderwijsmateriaal, waardoor het mogelijk wordt om kwalitatief hoogstaande educatieve bronnen toegankelijker te maken voor een breder scala aan instellingen en studenten.
Er wordt echter veel gesproken over de mogelijkheid van een persoonlijke AI-tutor als de heilige graal van generatieve AI. Een AI-systeem dat 24/7 beschikbaar is om studenten te motiveren, te onderwijzen en te testen zou ongetwijfeld een waardevol hulpmiddel zijn. Maar hoe dicht zijn we bij de realisatie van deze belofte? De grote uitdaging van generatieve AI in deze context is de kwestie van feitelijke nauwkeurigheid. LLM’s worden getraind op enorme hoeveelheden data, maar ze zijn gevoelig voor het produceren van onjuiste of niet-logische uitkomsten, wat kan leiden tot misinformatie. In een onderwijssituatie, waar nauwkeurigheid van cruciaal belang is, vormt dit een aanzienlijk obstakel.
Daarnaast ontbreken AI-modellen momenteel de diepe begrip van de individuele behoeften en emoties van studenten die menselijke tutors wel bezitten. AI kan weliswaar dialogen aangaan met studenten, maar is niet in staat om lichaamstaal of andere sociale signalen te lezen, wat een beperking is in het bieden van gepersonaliseerde ondersteuning. Het vermogen om lesmethoden aan te passen op basis van subtiele aanwijzingen van de student, of om motivatie te bieden in moeilijke periodes, blijft een uitdaging voor AI-systemen.
Toch worden er aanzienlijke vorderingen gemaakt in dit gebied. De recente vooruitgangen in multimodale AI-modellen, die tekst, afbeeldingen en zelfs spraak kunnen verwerken en genereren, brengen ons dichter bij het creëren van een ervaring waarin AI in staat is om visualisaties te geven, verbale vragen te beantwoorden en zelfs handschriften of schetsen van studenten te analyseren. Ook onderzoeken op het gebied van reinforcement learning en few-shot learning verbeteren de aanpassings- en personalisatiecapaciteiten van AI-modellen. Dit zou kunnen leiden tot AI-tutoren die effectiever kunnen inspelen op de unieke leerbehoeften van individuele studenten.
Het implementeren van AI-tutoren hoeft echter geen alles-of-niets benadering te zijn. Het is waarschijnlijk dat we geleidelijk AI-begeleidingsmogelijkheden in bestaande onderwijspraktijken zullen zien, zoals AI-ondersteunde huiswerkbegeleiding, interactieve digitale leerboeken en gepersonaliseerde quizgeneratoren. Dit zal de rol van de AI-tutor niet volledig overnemen, maar het kan het onderwijs op een zeer praktische manier aanvullen en verbeteren.
Een treffend voorbeeld hiervan is het DCC Help-project van de Universiteit van New South Wales. Dit project integreert generatieve AI in compilers, de tools die programmeurs gebruiken om broncode om te zetten naar werkende programma’s. Door LLM’s direct in de compiler te integreren, wordt de kwaliteit van foutmeldingen voor programmeurs aanzienlijk verbeterd, wat vooral nuttig is voor beginnende studenten. Dit toont aan hoe AI-tools buiten kantooruren kunnen bijdragen aan het leerproces, vooral wanneer onderwijsresources schaars zijn.
AI kan niet alleen de manier waarop we leren veranderen, maar ook de manier waarop we onderwijs ontwikkelen. Systemen die zich aanpassen aan de voortgang van studenten kunnen het traditionele model van onderwijs dat gebaseerd is op vastgestelde curricula en evaluatieschema's, op de kop zetten. Het gebruik van AI in onderwijs zou het mogelijk maken om lesmateriaal te personaliseren en onderwijs dynamischer en toegankelijker te maken voor een breder publiek.
Waarom het onmogelijk is om te liegen: Kant en de fundering van ethiek
Kantianen stellen dat de basisprincipes van moraliteit niet afhangen van context of gevolgen, maar van onveranderlijke wetten die we via ons vermogen tot pure rede kunnen begrijpen. Dit vermogen om rationeel te denken en handelen vormt de kern van de menselijke identiteit en onderscheidt ons van dieren. Waar dieren gedreven worden door instincten, emoties of impulsen, hebben wij als mensen de capaciteit om autonoom te handelen, dat wil zeggen, om keuzes te maken die overeenkomen met onze rationele wil. Dit maakt vrijheid mogelijk, en vrijheid is niet slechts een ethisch ideaal, maar een plicht die we hebben tegenover onszelf en anderen.
Kant stelt dat we nooit de waarheid mogen verbergen, omdat liegen de basisprincipes van vertrouwen en sociale contracten zou ondermijnen. Zonder vertrouwen kunnen geen fatsoenlijke gemeenschappen bestaan, geen intellectuele instellingen, en uiteindelijk zouden we geen samenlevingen hebben zoals wij die kennen. Als wij toestaan dat liegen gerechtvaardigd is in bepaalde gevallen, zoals in het geval van een psychopatische moordenaar die op zoek is naar zijn slachtoffer, zouden we de fundering van onze menselijke waardigheid ondermijnen. Kant’s standpunt is in dit geval radicaal: de moordenaar heeft zijn eigen verantwoordelijkheid voor zijn daden, en zelfs als het leven van een onschuldige op het spel staat, is het onze plicht om de waarheid te vertellen. Dit standpunt heeft uiteraard zijn beperkingen en wordt vaak bekritiseerd vanwege zijn gebrek aan flexibiliteit. In een wereld waarin emoties, sociale context en de situatie waarin men zich bevindt een rol spelen, lijkt een onbuigzame naleving van de waarheid in alle gevallen onrealistisch.
Desondanks maakt Kant’s ethiek een belangrijke zaak van het respecteren van de autonomie van anderen. Als we een persoon als een middel tot een doel behandelen, behandelen we hen als een object in plaats van als een zelfbewust wezen met eigenwaarde. Dit geldt ook voor de manier waarop we omgaan met marketing en reclame, die in essentie gebaseerd zijn op manipulatie en misleiding. Vanuit Kantiaanse ogen is het doel van commercie om de ander te gebruiken voor eigen gewin, een praktijk die ethisch problematisch is, omdat het de waardigheid van de persoon niet respecteert.
In de traditionele ethische theorieën zoals het utilitarisme en de Kantiaanse ethiek zien we echter ook nadelen. Het utilitarisme, dat moraal afmeet aan het grootste geluk voor het grootste aantal mensen, kan afschuwelijke daden rechtvaardigen als ze bijdragen aan een grotere hoeveelheid geluk, zelfs als die daden zelf inherent schadelijk of immoreel zijn, zoals slavernij of foltering. Aan de andere kant is Kant’s systeem van ethiek rigide in zijn benadering van de moraal. Het negeert volledig de context en legt geen ruimte voor uitzonderingen of uitzonderlijke gevallen, zoals het scenario van de moordenaars die op zoek zijn naar een kind.
Virtue ethics, of de deugdethiek, biedt een alternatief voor beide systemen door het belang van emoties en karakter in ethische overwegingen te benadrukken. Deze ethiek, sterk beïnvloed door Aristoteles, stelt dat moraal niet enkel draait om het maximaliseren van geluk of het volgen van strikte morele principes, maar ook om het ontwikkelen van een deugdzaam karakter. Deugden zoals moed, eerlijkheid en nederigheid zijn geen op zichzelf staande handelingen, maar vormen een geheel van disposities die iemand in staat stellen om op de juiste manier te handelen in verschillende situaties. In deugdethiek speelt de emotie een centrale rol in de morele beoordeling: bijvoorbeeld, moed komt voort uit de emotie van angst, maar het juiste evenwicht tussen te veel angst (wat leidt tot lafheid) en te weinig angst (wat leidt tot roekeloosheid) vormt deugd.
Deugdethici wijzen op de noodzaak van praktische wijsheid, oftewel phronesis, als de hoogste deugd. Het is niet voldoende om simpelweg deugdzame handelingen na te volgen; de ware deugdzame persoon handelt vanuit een innerlijke motivatie die voortkomt uit een goed ontwikkeld karakter. Dit betekent dat deugdzame handelingen niet het resultaat zijn van pure rationaliteit of het berekenen van gevolgen, maar van een diepgewortelde morele intuïtie en het vermogen om juiste keuzes te maken op basis van emoties die op de juiste manier worden waargenomen.
Deugdethiek wordt soms bekritiseerd omdat het elitair zou zijn. Het idee dat enkel degenen die beschikken over rationele beheersing van emoties en een goed ontwikkeld karakter moreel goed kunnen handelen, zou kunnen suggereren dat dit ideaal onbereikbaar is voor veel mensen. Bovendien biedt de deugdethiek vaak geen strikte richtlijnen voor moraliteit in specifieke gevallen, wat de praktische toepasbaarheid ervan bemoeilijkt.
Toch blijft de deugdethiek waardevol omdat het ons herinnert aan het belang van het ontwikkelen van een deugdzaam karakter. Het is niet genoeg om enkel de juiste beslissingen te nemen op basis van regels of gevolgen; men moet ook streven naar het verbeteren van zichzelf als persoon. Het is een levenslange taak om de juiste emoties en deugden te ontwikkelen die nodig zijn om een goed mens te zijn.
Endtext
Quali sono i costi e i benefici reali del riuso del software nelle aziende?
Quali innovazioni scientifiche e tecniche hanno cambiato il nostro mondo nel 1859?
Come combinare ingredienti freschi e sapori: un brunch salutare e ricco di nutrienti

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский