ReMoDiffuse is een geavanceerd diffusie model voor de generatie van menselijke bewegingen op basis van tekstomschrijvingen. Het model combineert verschillende technieken, waaronder een hybride zoekmethode en semantische-gecontroleerde aandacht (SMA), die samen de kwaliteit van de gegenereerde bewegingssequenties verbeteren. Dit zorgt ervoor dat de gegenereerde bewegingen niet alleen voldoen aan de semantische eisen van de tekstomschrijving, maar ook aan de kinematische en temporele vereisten.
Een van de centrale aspecten van ReMoDiffuse is de hybride zoekmethode. Deze methode gebruikt een combinatie van semantische en kinematische gelijkenis om de meest relevante tekst-bewegingsparen uit een database te halen. De semantische gelijkenis wordt berekend door middel van een voorgetrainde CLIP-model, dat de tekstkenmerken van de omschrijving en de verwachte lengte van de beweging analyseert. Tegelijkertijd houdt het model rekening met de kinematische gelijkenis, oftewel de overeenkomst in de lengte van de beweging, wat bijzonder nuttig blijkt bij het genereren van realistische bewegingen, vooral wanneer gedetailleerde kinematische data moeilijk te verkrijgen zijn.
De semantische gelijkenis wordt gemeten met behulp van de cosinusafstand tussen de tekstkenmerken van de opgegeven omschrijving en de tekstkenmerken van de retrieved samples. Daarnaast speelt de lengte van de beweging een belangrijke rol: het model onderzoekt hoe de verwachte lengte van de beweging zich verhoudt tot de lengte van de bewegingen in de database. Dit alles wordt gecombineerd in een similarity score die het model helpt bij het kiezen van de beste bewegings- en tekstcombinaties.
De SMA-module speelt ook een cruciale rol bij het verbeteren van de gegenereerde bewegingen. Deze module integreert niet alleen de tekstkenmerken, maar ook de bewegingen die uit de opgehaalde samples komen, en houdt rekening met de semantische gelijkenis van deze gegevens. SMA gebruikt een unieke aanpak waarbij de query vector afkomstig is van de geruisachtige beweging en de sleutel- en waarde-vectoren worden opgebouwd uit de combinatie van de bewegingen en de tekstkenmerken.
Een ander belangrijk kenmerk van ReMoDiffuse is de toepassing van condition mixture. Tijdens de inferentie wordt een klasse van vier verschillende schattingen van de uiteindelijke output gegenereerd, afhankelijk van de aanwezigheid van de verschillende voorwaarden (zoals de tekst- en bewegingcondities). Deze schattingen worden vervolgens gecombineerd met behulp van hyperparameters om de beste uiteindelijke beweging te produceren. Het optimaliseren van de combinatie van deze voorwaarden zorgt voor een efficiënte en semantisch consistente output.
Naast deze geavanceerde technieken biedt het model ook de mogelijkheid om fijnmazige tekstgestuurde bewegingen te genereren. Dit wordt mogelijk gemaakt door het gebruik van een op maat gemaakte inferentiestrategie, waarbij de gegenereerde bewegingen rekening houden met gedetailleerde tekstbeschrijvingen die specifieke lichaamsdelen en tijdsintervallen aangeven. Deze aanpak maakt het mogelijk om de bewegingen te verdelen in verschillende stadia en lichaamsdelen, waarbij de bewegingssequenties naadloos overgaan van het ene naar het andere, wat zorgt voor een realistische en coherente uitvoering van de bewegingen.
Het concept van fine-grained generatie wordt verder verdiept in de fine-grained spatiotemporale motion generation taak. In dit geval bevat de beschrijving matrix verschillende details, zoals de specifieke beschrijving van elk lichaamsdeel op verschillende tijdstippen. Dit zorgt ervoor dat het model de bewegingen per lichaamsdeel en per tijdsinterval kan aanpassen, wat essentieel is voor het creëren van uiterst gedetailleerde en realistische menselijke bewegingen. Dit niveau van precisie vereist dat de gegenereerde bewegingen niet alleen semantisch kloppen, maar ook fysiek mogelijk en esthetisch verantwoord zijn.
Het model maakt gebruik van de voordelen van diffusie-algoritmes, die het mogelijk maken om verschillende sequenties te genereren voor verschillende prompts en deze tijdens het iteratieve proces te combineren tot één vloeiende beweging. Deze methode vereist geen complexe aanpassingen aan de training of de structuur van het model, waardoor het een breed toepasbare oplossing biedt voor de generatie van realistische bewegingen.
Naast de gebruikelijke text-to-motion generatie biedt ReMoDiffuse een krachtige manier om controle uit te oefenen over de fijne details van de gegenereerde bewegingen, met een ongekende precisie en flexibiliteit. De technieken die in dit model worden toegepast, bieden een solide basis voor de ontwikkeling van toekomstige systemen die niet alleen realistische bewegingen kunnen genereren, maar ook in staat zijn om zich aan te passen aan gedetailleerde en dynamische tekstomschrijvingen.
Wat zijn de voordelen van dynamische resolutie in grote visuele en taalmodellen zoals InternVL-Chat?
InternVL-Chat toont zich bijzonder robuust tegenover dynamische resolutie. Dit model heeft de mogelijkheid om de resolutie aan te passen op basis van de vereisten van een taak, waarbij het zowel de efficiëntie als de prestaties optimaliseert. Een van de belangrijke bevindingen is dat, hoewel het model tijdens de training alleen gebruik maakte van tussen 1 en 12 tegels (tiles), het in staat blijkt om in een zero-shot instelling op te schalen tot maar liefst 40 tegels, wat overeenkomt met 4K-resolutie. Dit biedt niet alleen voordelen voor het behouden van bronnen waar hoge resolutie niet nodig is, maar ook voor het benutten van de voordelen van hoge resolutie wanneer dat wel vereist is. De prestaties van het model vertonen echter een lichte afname bij hogere resoluties voor specifieke benchmarks zoals AI2D, MMMU, MMMBench en HallusionBench. Dit wordt waarschijnlijk veroorzaakt door de toenemende complexiteit bij hogere resoluties, wat leidt tot meer rekenkracht en geheugenvereisten. Het is dan ook belangrijk om zorgvuldig de vereisten van elke taak te evalueren, zodat het model optimaal presteert zonder onnodig veel middelen te verspillen.
De dynamische aanpassing van de resolutie binnen InternVL-Chat is gebaseerd op een evaluatie van de performance bij verschillende resoluties, zoals te zien is in de grafiek in Figuur 2.8. Hierin wordt de benchmarkprestatie weergegeven afhankelijk van het aantal tegels, waarbij de hoogste waarde en het bijbehorende aantal tegels worden benadrukt. Het model is in staat om de prestaties efficiënt te schalen door zijn architectuur zo te optimaliseren dat hij bij lage resoluties werkt zonder dat er excessieve middelen nodig zijn, terwijl hij tegelijkertijd bij hogere resoluties het volledige potentieel benut.
Bij sommige taken, zoals MMMU, blijkt echter dat het aantal tegels een belangrijke beperking kan vormen. MMMU omvat meerdere afbeeldingen per monster, en wanneer het aantal tegels toeneemt, kunnen geheugenproblemen optreden, wat resulteert in een beperking van het aantal tegels dat getest kan worden. Dit benadrukt het belang van het goed afstemmen van de capaciteiten van het model op de beschikbare hardware en geheugenbronnen. Bij het testen van dit model werd het aantal tegels bijvoorbeeld beperkt tot 18 om geheugenproblemen te voorkomen, wat mogelijk ook invloed had op de uiteindelijke score.
InternVL-Chat integreert de visuele en taalkundige componenten op een manier die de overdracht tussen verschillende beeld- en taal-gerelateerde taken vergemakkelijkt. Het model combineert de kracht van een groot visueel fundament met een taalkundige middleware, waardoor het flexibel genoeg is om web-schaal beeld- en tekstdata te verwerken. Dit maakt het bijzonder geschikt voor veelzijdige taken, van beeld- en videoklassificatie tot cross-modale zoekopdrachten en visuele vraagbeantwoording.
Wat belangrijk is om te begrijpen, is dat de dynamische resolutie-aanpassing van het model niet alleen de flexibiliteit vergroot, maar ook de efficiëntie bij het werken met verschillende soorten data. Terwijl hoge resoluties van essentieel belang kunnen zijn voor bijvoorbeeld gedetailleerde beeldclassificatie of visuele vraagbeantwoording, kan een lagere resolutie voor andere taken voldoende zijn zonder dat het model significant in performance verliest. Dit betekent dat InternVL-Chat in staat is om de computational resources optimaal te gebruiken, afhankelijk van de taak en het beschikbare geheugen.
Het afstemmen van het model op specifieke taakvereisten is cruciaal. Door bijvoorbeeld een model te trainen met een breed scala aan resoluties, kan het zich sneller aanpassen aan verschillende soorten inputdata zonder dat er een grote impact is op de algemene prestaties. Dit opent de deur naar het gebruik van InternVL-Chat in een breed scala van toepassingen, van lichte tot zware visuele taken.
Hoe Werkt Multimodale Generatieve Modellen in Context?
De training van multimodale generatieve modellen zoals Emu2 speelt in op de interactie tussen tekst, beelden en objectlokalisatie. Dit soort modellen, die worden getraind op diverse visuele generatie-taken, benutten een gezamenlijk generatief pretrainingdoel, waarbij elke trainingssample bestaat uit een combinatie van tekst, afbeelding en objectlokalisatie-informatie. Dit proces wordt visueel weergegeven door middel van objectcoördinaten die worden aangeduid met rechthoeken in een zwart beeld op gespecificeerde locaties, wat helpt bij het positioneren van objecten in de afbeelding.
Emu2-Gen is een model dat tekst, objectafbeeldingen en de bijbehorende lokalisatie-informatie integreert in een eenduidig multimodaal formaat. Het model maakt gebruik van regressieverlies dat uitsluitend van toepassing is op de uiteindelijke afbeelding, waarbij de visuele encoder bevroren wordt tijdens fine-tuning om modelinstorting te voorkomen. Ter verbetering van de robuustheid worden er willekeurige verwaarlozingen van entiteitstokens en lokalisatie-informatie toegepast, evenals achtergrondvariaties en het in- of uitsnijden van objectafbeeldingen. Deze technieken helpen om de generalisatie van het model te verbeteren, wat essentieel is voor de toepassing in verschillende real-world scenario’s.
Wat betreft de trainingsopzet is het model geoptimaliseerd met een globale batchgrootte van 4096 voor 3000 stappen, met een initiële leersnelheid die naar 5 × 10−5 opwarmt in de eerste 100 stappen, gevolgd door een cosinus-afname naar nul. Na deze fase wordt er verder verfijnd met een dataset van 500.000 hoogwaardige paar-afbeeldingen en tekst, wat de prestaties op specifieke taken aanzienlijk verbetert.
Emu2 in Evaluaties en Experimenten
Een van de belangrijkste evaluaties van Emu2 is de beoordeling van zijn zero-shot en few-shot capaciteiten over verschillende vision-language benchmarks zoals OKVQA, VQAv2, VizWiz, TextVQA en HatefulMemes. Emu2 laat uitstekende prestaties zien, zelfs met een veel kleinere modelgrootte van 37 miljard parameters, in vergelijking met grotere modellen zoals Flamingo-80B en IDEFICS-80B. Bij het evalueren op deze benchmarks, blijkt dat Emu2 in-context learning op een uitzonderlijke manier beheerst, waarbij de prestaties verbeteren naarmate er meer voorbeelden in-context worden gepresenteerd. Dit maakt het model zeer geschikt voor scenario’s waarbij weinig trainingsdata beschikbaar is.
Op de VQAv2, VizWiz en TextVQA datasets, overtreft Emu2 zelfs grotere modellen, wat getuigt van de kracht van het in-context leerproces. Het model kan bijvoorbeeld objecten in afbeeldingen classificeren en tellen met een klein aantal voorbeelden, wat het ideaal maakt voor applicaties waar snelle aanpassingen en minimale input vereist zijn. Daarnaast heeft Emu2 uitstekende prestaties geleverd in real-world visuele scenario’s, zoals het volgen van visuele aanwijzingen zoals rode cirkels die op afbeeldingen worden gelegd.
Prestaties in Chat-Gestuurde Beeldvraag-Antwoordtaken
Emu2-Chat heeft zijn kracht bewezen in academische taakgerichte benchmarks, waaronder visuele vraag-antwoordtaken zoals VQAv2, OKVQA en TextVQA, evenals videovraag-antwoorddatasets zoals MSVD en MSRVTT. De evaluatie toont aan dat Emu2-Chat in staat is om real-world kennis effectief te verwerken, vooral bij taken die externe kennis vereisen, zoals de OKVQA-dataset. Dit maakt het model bijzonder nuttig voor toepassingen waarin kennis uit verschillende bronnen gecombineerd moet worden.
Emu2-Chat laat ook indrukwekkende resultaten zien in video-gerelateerde vraag-antwoord taken, ondanks dat het model niet specifiek is getraind op videogegevens. Dit benadrukt de robuustheid van het model, aangezien het in staat is om te generaliseren naar nieuwe domeinen zonder dat het specifiek daarvoor is getraind.
Genereerbare Beelden en Controlearbeid
Naast tekst- en beeldgerelateerde taken toont Emu2 ook indrukwekkende prestaties bij het genereren van visuele inhoud. Met behulp van de Visual Encoder en Visual Decoder in de CLIP-Diffusers-architectuur is het model in staat om beelden te tokeniseren en opnieuw te detokeniseren, wat uitstekende resultaten oplevert voor het genereren van beelden op basis van tekstinvoer, objectafbeeldingen en visuele aanwijzingen. De focus ligt hierbij op het genereren van realistische en contextueel passende beelden, zelfs wanneer de input variabel is, zoals het combineren van meerdere entiteiten of het bewerken van specifieke onderwerpen.
Emu2 onderscheidt zich niet alleen op het gebied van visuele reconstructie, maar ook in het gebruik van generatieve technieken voor het combineren van meerdere objecten en stijlen. Dit maakt het model krachtig in toepassingen zoals creatieve beeldbewerking en zelfs het genereren van nieuwe inhoud op basis van geavanceerde tekst- en visuele aanwijzingen.
De sterke visuele en perceptuele capaciteiten van Emu2 worden verder onderstreept door de uitstekende prestaties bij taken zoals referentie-expressiebegrip, waar het model de beste resultaten behaalt in vergelijking met andere generalistische modellen.
Aanvullende Overwegingen
Hoewel de technische capaciteiten van Emu2 onmiskenbaar indrukwekkend zijn, is het belangrijk voor de lezer te begrijpen dat de kracht van dit model niet alleen ligt in de prestaties op benchmarktaken, maar ook in de flexibiliteit van de multimodale benadering. Het vermogen van Emu2 om verschillende soorten data — tekst, beeld en lokalisatie — in een gezamenlijke representatie te verwerken, biedt enorme voordelen voor een breed scala aan toepassingen, van medische beeldanalyse tot real-time visuele zoekmachines.
Bovendien is het belangrijk te benadrukken dat, hoewel Emu2 uitstekende resultaten behaalt in gecontroleerde experimenten, de algemene toepasbaarheid in dynamische en niet-standaard omgevingen altijd verder getest en geoptimaliseerd moet worden. De continue vooruitgang in fine-tuningtechnieken en robuustheidsverbeteringen, zoals het randomiseren van achtergrondvariaties en het manipuleren van entiteitstokens, zullen cruciaal zijn voor het succesvol inzetten van dit model in de praktijk.
Hoe CoOp Automatisch Prompt Engineering Verbeteren Voor Vision-Language Modellen?
Vision-language modellen, zoals CLIP en ALIGN, hebben zichzelf bewezen als krachtige hulpmiddelen voor het leren van visuele representaties door beelden en tekst te combineren. Deze modellen gebruiken twee aparte encoders om beelden en tekst te verwerken, waarbij ze proberen beelden en hun bijbehorende tekstuele beschrijvingen in een gemeenschappelijke vectorruimte te plaatsen. Het idee achter deze benadering is om een contrastieve verliesfunctie toe te passen die zowel overeenkomende als niet-overeenkomende afbeeldings-tekstparen optimaliseert, zodat ze goed worden uitgelijnd in de feature space. Dit proces stelt modellen in staat om diverse visuele concepten te leren en maakt het mogelijk om ze eenvoudig aan te passen voor verschillende downstream taken door middel van promptingen.
Prompting, het proces waarbij tekstuele input aan een model wordt gegeven om specifieke voorspellingen te maken, speelt een cruciale rol bij deze modellen. De nauwkeurigheid van deze modellen hangt grotendeels af van de gebruikte prompt, die een tekstuele beschrijving van de taak bevat. Het vinden van de juiste prompt is echter een uitdaging en vereist vaak een langdurig proces van fine-tuning. Kleine veranderingen in de formulering kunnen al een aanzienlijke invloed hebben op de prestaties. In sommige gevallen, zoals bij het Caltech101-dataset, kan een simpele toevoeging van een bepaald lidwoord de nauwkeurigheid van de voorspellingen al met meer dan 5% verbeteren.
Echter, zelfs met uitgebreide fine-tuning, biedt het handmatig aanpassen van prompts geen garantie voor optimale prestaties. Dit is waar het concept van Context Optimization (CoOp) van belang wordt. CoOp is een methode die automatische promptoptimalisatie mogelijk maakt door het gebruik van leerbare contextwoorden. Deze contextwoorden worden geïnitieerd met willekeurige waarden of voorgetrainde woordembeddings. Het belangrijkste voordeel van deze aanpak is dat het mogelijk is om het leerproces volledig te automatiseren, waardoor het hele fine-tuningproces wordt vereenvoudigd en versneld.
In tegenstelling tot traditionele prompt engineering, die afhankelijk is van handmatige afstemming en validering, maakt CoOp gebruik van een differentieerbare aanpak die kan worden toegepast op elk neuraal netwerk. CoOp minimaliseert voorspelfouten door gebruik te maken van de kruis-entropieverliesfunctie met betrekking tot de leerbare contextvectoren, terwijl de voorgetrainde parameters van het model behouden blijven. Hierdoor kan CoOp de kennis die in het model is gecodeerd distilleren en gebruiken om taakgerelateerde context effectief te leren. Dit biedt aanzienlijke voordelen op het gebied van efficiëntie, vooral bij het werken met kleine datasets, waar traditionele handgemaakte prompts vaak niet effectief zijn.
Uit experimenten blijkt dat CoOp aanzienlijke verbeteringen oplevert ten opzichte van handgemaakte prompts, zelfs wanneer het model maar één of twee voorbeelden per klasse krijgt. Dit resultaat is indrukwekkend gezien de prestaties van traditionele zero-shot-modellen, die vaak afhankelijk zijn van handmatige prompts en slecht presteren bij domeinspecifieke verschuivingen. CoOp blijkt veel robuuster te zijn in dergelijke scenario's, zelfs als het gebaseerd is op een leermethode.
Deze benadering is een belangrijke stap in de evolutie van vision-language modellen, omdat het niet alleen de prestaties van deze modellen verbetert, maar ook de toegankelijkheid vergroot. Door de complexiteit van prompt engineering te reduceren, kunnen meer gebruikers profiteren van de kracht van deze geavanceerde technologieën zonder diepgaande technische kennis of langdurige fine-tuningprocessen. CoOp heeft dus de potentie om een breder scala van toepassingen te ondersteunen, van beeldclassificatie tot meer complexe visuele vraag-en-antwoord systemen.
Naast de verbeterde efficiëntie van CoOp, is het belangrijk om te begrijpen dat deze methoden verder kunnen worden geoptimaliseerd voor specifieke domeinen of taken. Het toevoegen van domeinspecifieke context of het aanpassen van de context op basis van de aard van de taak kan de prestaties verder verhogen. Dit kan bijvoorbeeld worden bereikt door de structurele opbouw van de prompts verder aan te passen of door de prompts te verfijnen met relevante tekstuele beschrijvingen die de taak beter weergeven. Zo kan bijvoorbeeld de toevoeging van een descriptor zoals "textuur" in de DTD-dataset leiden tot een significante verbetering in de classificatieprestaties.
Bij het werken met CoOp en soortgelijke technieken is het cruciaal om te begrijpen dat de effectiviteit van het model niet alleen afhankelijk is van de gebruikte methoden, maar ook van de kwaliteit van de trainingsgegevens. Terwijl grotere datasets met goed gecureerde afbeeldings-tekstparen de prestaties aanzienlijk kunnen verbeteren, kunnen meer ruisgevoelige datasets het proces bemoeilijken. Het is dan ook essentieel om te zorgen voor een goede kwaliteit en diversiteit van de trainingsdata, zodat het model effectief kan generaliseren naar nieuwe taken en domeinen.
Hoe Open-Vocabulary Objectdetectie de Toekomst van Visuele Herkenning Vormt
Open-vocabulary objectdetectie, oftewel het detecteren van objecten die niet specifiek zijn getraind in een model, vormt een complexe uitdaging in de wereld van computer vision. De traditionele objectdetectiemethoden vereisen dat een model uitgebreide datasets leert die een breed scala aan objectcategorieën bevatten. Echter, in real-world scenario's kunnen nieuwe objecten verschijnen die buiten de trainingsset vallen. Open-vocabulary detectiemethoden proberen dit probleem te omzeilen door gebruik te maken van multimodale benaderingen waarbij beelden en tekst worden gecombineerd.
Een van de grootste obstakels in open-vocabulary detectie is de beperkte beschikbaarheid van gelabelde trainingsdata voor onvoorziene klassen. Het traditionele model leert een vast aantal objecten, maar deze systemen kunnen objecten die buiten deze set vallen, niet herkennen. De toepassing van Transformer-gebaseerde architecturen, zoals OV-DETR (Open-Vocabulary Detection Transformers), heeft aangetoond dat het mogelijk is om een model te ontwikkelen dat kan generaliseren naar ongeziene objecten. Het model werkt door tekstuele beschrijvingen van objecten te gebruiken als een soort “query” voor objectdetectie. Dit biedt de mogelijkheid om objecten te identificeren die niet expliciet in de trainingsdata aanwezig zijn, zolang er maar een passende tekstuele beschrijving is.
De aanpak van OV-DETR biedt voordelen, zoals een vereenvoudigde trainingspijplijn en het vermogen om flexibeler om te gaan met onbekende objecten. Dit model is in staat om objecten te detecteren op basis van tekstuele input in plaats van alleen visuele informatie. Toch blijven er uitdagingen bestaan. Een van de belangrijkste is de rekenkundige belasting van Transformer-gebaseerde modellen, die vaak leiden tot langere inferentietijden, vooral bij het gebruik van grote datasets zoals LVIS. Het verbeteren van de efficiëntie van deze modellen is dan ook een belangrijk onderzoeksgebied. Het gebruik van geavanceerdere aandachtmechanismen, zoals “sparse attention”, kan helpen de rekentijd te verlagen, waardoor deze modellen praktischer worden voor real-world toepassingen.
In praktische scenario's, zoals bij interactie tussen mens en computer, hebben gebruikers vaak specifieke objecten in gedachten, bijvoorbeeld een verloren tas of een bepaald logo. In zulke gevallen blijft het aantal benodigde inputs relatief klein en vast, waardoor de inferentietijd minder significant wordt. Dit maakt de open-vocabulary benadering bijzonder nuttig voor specifieke, maar onbekende objecten in real-world toepassingen.
Daarnaast biedt de combinatie van vision- en taalmodellen, zoals de integratie van vision-language models (VLM's), enorme mogelijkheden voor verdere verfijning van open-vocabulary objectdetectie. Pre-getrainde taalmodellen kunnen de semantische relatie tussen tekst en beeld versterken, wat de detectie van onbekende objecten efficiënter maakt.
Er moet echter niet vergeten worden dat open-vocabulary objectdetectie niet alleen voordelen biedt voor de academische wereld of de technologische ontwikkeling, maar ook voor de praktische toepassingen zoals surveillance, autonome voertuigen, en zoek- en reddingsoperaties. Het vermogen om objecten te identificeren zonder voorafgaande kennis van hun specifieke visuele kenmerken maakt dit concept bijzonder waardevol in dynamische omgevingen. Bovendien is het belangrijk om de interactie van visuele en tekstuele informatie verder te begrijpen en de balans tussen beide te optimaliseren.
Het is van cruciaal belang voor onderzoekers en ontwikkelaars om verder te onderzoeken hoe de beperkingen van huidige modellen, zoals de traagheid in inferentie en onbetrouwbare voorspellingen bij complexe queries, kunnen worden overwonnen. De integratie van efficiëntere aandachtmechanismen en verbeterde datasetrepresentaties kan helpen om open-vocabulary detectie in de nabije toekomst praktisch toepasbaar te maken in een breed scala aan scenario's.
Wat zijn de belangrijkste technieken voor functie-optimalisatie in machine learning?
Hoe werden ziektes en geneeskunde in het oude Egypte begrepen en toegepast?
De Buitenlandse Politiek van de Trump Administratie: Een Wereld van Onzekerheid of het Einde van Pax-Americana?
Hoe moeten zwangere medewerkers worden beschermd tegen straling in medische beeldvorming?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский