Het testen van de stationariteit van tijdreeksen is van cruciaal belang voor de juiste toepassing van veel statistische en voorspellende modellen. Stationariteit verwijst naar het feit dat de statistische eigenschappen van een tijdreeks, zoals het gemiddelde en de variantie, constant blijven in de tijd. Dit is een noodzakelijke voorwaarde voor vele tijdreeksanalyse technieken, zoals autoregressieve modellen en veelvoorkomende voorspellende modellen. Er zijn verschillende methoden en technieken om stationariteit te testen, variërend van visuele inspectie van de data tot geavanceerde statistische tests.

Een van de eerste stappen bij het testen van stationariteit is de visuele inspectie van de tijdreeks. Hierbij wordt gekeken naar trends, seizoensgebonden patronen of andere systematische veranderingen die zouden kunnen wijzen op non-stationariteit. Het is belangrijk om seizoensgebonden effecten of trends te identificeren, aangezien deze de uitkomsten van verdere statistische tests kunnen beïnvloeden. Deze eerste stap biedt een eerste indruk, maar is slechts indicatief.

Samenvattende statistieken spelen een belangrijke rol bij het identificeren van stationariteit. Het gemiddelde, de variantie en de autocorrelatie van de tijdreeks worden berekend en geanalyseerd om te zien of ze constant blijven over de tijd. Als deze samenvattende statistieken constant blijven, kan de tijdreeks als stationair worden beschouwd. Wanneer er echter significante veranderingen zijn in het gemiddelde of de variantie, kan dit wijzen op non-stationariteit. De autocorrelatie is vooral nuttig om te onderzoeken of er afhankelijkheden of patronen bestaan tussen opeenvolgende waarnemingen van de tijdreeks. Als de autocorrelatie op lange termijn significant blijft, kan dit een aanwijzing zijn dat de tijdreeks niet stationair is.

Een veelgebruikte grafische methode om stationariteit te testen is de zogenaamde Moving Average (MA) plot. Dit houdt in dat het gemiddelde en de variantie worden berekend over een bewegend venster van waarnemingen. Als de tijdreeks stationair is, zouden zowel het gemiddelde als de variantie constant moeten blijven over de tijd. Indien er trends of fluctuaties zijn, kan dit wijzen op non-stationariteit.

Daarnaast wordt de Autocorrelatiefunctie (ACF) plot vaak gebruikt. De ACF is een wiskundig hulpmiddel dat de correlatie tussen een tijdreeks en zijn vertraagde waarden meet. Door de correlatie van de tijdreeks met zichzelf bij verschillende tijdsvertragingen te berekenen, kunnen we de afhankelijkheid van waarnemingen in de tijd begrijpen. Een stationaire tijdreeks vertoont een snelle afname van de autocorrelatie na de eerste vertraging, wat aangeeft dat er geen lange-termijn afhankelijkheden bestaan.

Naast deze visuele en grafische technieken kunnen er ook statistische tests worden gebruikt om stationariteit te beoordelen. Een van de bekendste tests is de Augmented Dickey-Fuller (ADF) test. De nulhypothese van de ADF test is dat er een eenheidwortel in de tijdreeks aanwezig is, wat betekent dat de tijdreeks niet stationair is. Als de teststatistiek kleiner is dan de kritieke waarde, kan de nulhypothese worden verworpen en wordt de tijdreeks als stationair beschouwd. Deze test is bijzonder nuttig wanneer de visuele inspectie niet genoeg informatie biedt of wanneer de tijdreeks complexer is.

Een andere nuttige test is de Kwiatkowski-Phillips-Schmidt-Shin (KPSS) test, die de nulhypothese heeft dat de tijdreeks stationair is. Als de teststatistiek hoger is dan de drempelwaarde, wordt de nulhypothese verworpen en wordt de tijdreeks als niet-stationair beschouwd. Het combineren van meerdere technieken, zoals de ADF en KPSS tests, kan de betrouwbaarheid van de resultaten verhogen.

De discussie over de stationariteit van hydrologische gegevens is recentelijk hevig gevoerd. Onderzoekers zoals Milly et al. (2008) stellen dat stationariteit "dood" is vanwege de veranderingen in de kenmerken van hydrologische variabelen zoals neerslag en afvoer door klimaatverandering. Ze pleiten voor stochastische modellering van niet-stationaire hydrologische variabelen. Anderzijds betogen Lins en Cohn (2011) dat, hoewel non-stationariteit bestaat, stationaire modellen nog steeds adequaat kunnen zijn voor het representeren van hydroklimatologische processen, gezien de onzekerheid over de invloed van klimaatverandering.

De ACF speelt ook een essentiële rol in het begrijpen van de structurele eigenschappen van een tijdreeks. Het helpt bij het identificeren van seizoensgebonden patronen en kan bovendien aangeven welke vertragingen het meest relevant zijn voor autoregressieve modellen. Een hoge waarde van de ACF bij een bepaalde vertraging geeft een sterke afhankelijkheid tussen de waarnemingen die door die vertraging gescheiden zijn. Als de ACF snel afneemt naar nul bij hogere vertragingen, geeft dit aan dat de tijdreeks stationair is.

Bijvoorbeeld, wanneer de dagelijkse neerslag over een periode van 14 dagen wordt geanalyseerd, kunnen de autocorrelaties voor lag 1 en lag 2 worden berekend. Deze autocorrelaties geven aan in hoeverre de neerslag op een bepaalde dag correleert met de neerslag op de volgende dagen. Het berekenen van de autocorrelatie is cruciaal voor het bepalen van de juiste vertragingen in autoregressieve modellen, die verder zullen helpen bij het voorspellen van toekomstige neerslag.

Een andere belangrijke overweging bij het testen van stationariteit is het begrijpen van de fysieke processen die de gegevens genereren. Dit is met name relevant voor hydrologische gegevens, aangezien de veranderingen in klimaatomstandigheden zoals temperatuur en neerslagpatronen grote invloed kunnen hebben op de verwachte statistische eigenschappen van de gegevens. Het is dus essentieel om de theoretische achtergrond van de processen die de tijdreeks aandrijven goed te begrijpen voordat men conclusies trekt op basis van de testresultaten.

Hoe kunnen klimaatmodellen ons helpen om de toekomst van het klimaat beter te begrijpen?

Klimaatverandering manifesteert zich niet alleen als een geleidelijke opwarming van de aarde, maar ook in de vorm van klimatologische variabiliteit, voortkomend uit interne processen binnen het klimaatsysteem zelf. Fenomenen zoals de Indian Ocean Dipole (IOD) en El Niño-Southern Oscillation (ENSO) spelen hierin een bepalende rol. In positieve IOD-fases nemen de regenvalhoeveelheden toe, terwijl negatieve fases juist tot droogte leiden. El Niño-evenementen hebben historisch gezorgd voor temperatuurstijgingen van 0.1 tot 0.2 °C boven het gemiddelde, zoals waargenomen in 1973, 1983, 1998 en uitzonderlijk sterk in 2016. De combinatie van een krachtig El Niño en verhoogde broeikasgasconcentraties leidde toen tot een abnormale wereldwijde temperatuurstijging en een significante stijging van de zeespiegel.

Om de impact van dergelijke verschijnselen op langere termijn te begrijpen én om adaptatiestrategieën te ontwikkelen, is het noodzakelijk om zowel het verleden als mogelijke toekomsten van het klimaat te analyseren. Dit gebeurt aan de hand van waarnemingsdata, retrospectieve analyses en, in toenemende mate, door het gebruik van geavanceerde klimaatmodellen. Klimaatmodellen simuleren de massa- en energietransporten binnen de atmosfeer, oceanen, landoppervlakken en cryosfeer, met behulp van complexe fysische vergelijkingen die de interacties tussen deze componenten beschrijven.

Globale klimaatmodellen (Global Climate Models, GCMs) vormen de ruggengraat van het hedendaagse klimaatonderzoek. Deze modellen gebruiken wetten van de thermodynamica, de bewegingswetten van Newton, massa-behoud en de gaswetten om de aardse klimaatprocessen driedimensionaal te modelleren. De kracht van GCMs ligt in hun vermogen om grootschalige reacties van het klimaatsysteem te simuleren, zoals de mondiale effecten van verhoogde concentraties van broeikasgassen, zonnecycli en grootschalige atmosferische en oceanische oscillaties.

Toch schieten GCMs tekort in het weergeven van klimatologische verschijnselen op regionale of lokale schaal, zoals droogtes in specifieke landbouwregio’s of veranderende neerslagpatronen in bergachtige gebieden. Hun resolutie – vaak beperkt tot rasters van 100 tot 150 kilometer – maakt ze ongeschikt voor impactanalyses op fijnere schaal. Dit vormt een wezenlijk probleem voor beleidsmakers en onderzoekers die behoefte hebben aan gedetailleerde data om regionale risicoanalyses en adaptatiestrategieën te ontwikkelen.

Om dit tekort te ondervangen zijn regionale klimaatmodellen (Regional Climate Models, RCMs) ontwikkeld. Deze modellen voeren een dynamische ‘downscaling’ uit van de ruwe data die door GCMs gegenereerd wordt. Via dit proces ontstaat fijnmazige, regionaal toepasbare klimaatdata – met een resolutie tot 50 kilometer of minder – die relevanter is voor lokale besluitvorming. Vooral bij het modelleren van het hydrologisch systeem, veranderingen in vegetatie en interacties tussen landoppervlak en atmosfeer, bieden RCMs een meer gedetailleerde kijk op de gevolgen van klimaatverandering.

Een van de belangrijkste toepassingen van deze modellen ligt in de landbouwsector. Door toekomstige droogtepatronen onder verschillende scenario’s van mondiale opwarming te simuleren, kunnen modellen de frequentie en ernst van droogtes in bepaalde gebieden voorspellen. Hierdoor worden beleidsmakers in staat gesteld om vroegtijdig te investeren in irrigatiesystemen, gewasdiversificatie of aanpassing van waterbeheerstrategieën, met als doel de voedselzekerheid te waarborgen.

Deze klimaatmodellen zijn ook onmisbaar voor wereldwijde samenwerkingen, zoals het Coupled Model Intercomparison Project (CMIP), dat sinds 1995 de ontwikkeling en vergelijking van GCMs coördineert. De modellen binnen CMIP worden ingezet door het Intergovernmental Panel on Climate Change (IPCC) voor hun projecties in opeenvolgende klimaatrapporten, waarmee ze beleidsvorming wereldwijd beïnvloeden.

Wat hierbij essentieel is om te begrijpen, is dat klimaatmodellen geen exacte voorspellingen doen, maar scenario’s genereren op basis van fysische principes, historische gegevens en aannames over toekomstige emissies. De betrouwbaarheid van deze scenario’s neemt toe naarmate ze gebaseerd zijn op hoogwaardige gegevens, transparante methodologieën en multi-modelvergelijkingen.

Een bijkomend inzicht is dat klimatologische variabiliteit en antropogene klimaatverandering voortdurend met elkaar verweven zijn. Het is dus van belang om de bijdrage van natuurlijke fluctuaties te onderscheiden van door de mens veroorzaakte trends – een taak waarin klimaatmodellen een cruciale rol spelen. Door terug te kijken naar het verleden én vooruit te simuleren, helpen ze ons niet alleen het heden te duiden, maar vooral ook beter voorbereid te zijn op wat mogelijk komt.

Hoe kan onzekerheid in hydrologische modellering effectief worden geanalyseerd en beheerd?

De ontwikkeling en toepassing van multimodel-benaderingen binnen de hydrologische modellering zijn fundamenteel veranderd door de opkomst van technieken zoals Bayesian Model Averaging (BMA). Twee hoofdvarianten – de Monte Carlo-gebaseerde BMA (MC-BMA) en de informatiecriterium-gebaseerde BMA (IC-BMA) – illustreren uiteenlopende benaderingen voor het bepalen van de geïntegreerde waarschijnlijkheidswaarde van conceptuele modellen. Bij IC-BMA ligt de nadruk op de toepassing van informatietheoretische maatstaven, zoals het BIC, om modelonzekerheid te kwantificeren. In Baton Rouge gebruikten Tsai en Li (2008) BIC-BMA om onzekerheden in een model voor zoutwaterintrusie te analyseren, waarbij kalibratie werd toegepast om voor structurele modelafwijkingen te compenseren. Kalibratie fungeert hier niet slechts als afstemming, maar als een correctiemechanisme dat de posterior kansverdeling hervormt en zo structurele bias compenseert.

MC-BMA daarentegen baseert zich op a priori waarschijnlijkheden en de likelihoodverdeling, en vermijdt zo het risico op parametervervorming in gemodelleerde gemiddelden. Deze methode is echter minder gangbaar, deels vanwege computationele beperkingen en de aannames omtrent verdelingsvormen die niet altijd realistisch zijn. Raftery et al. (2005) trachtten dit te ondervangen met de Expectation-Maximisation (EM)-methode, maar het gebrek aan garantie op globale optimaliteit ondermijnt de praktische toepasbaarheid. Neuman (2003) introduceerde een alternatief met MLBMA, dat gebaseerd is op maximum likelihood en rekening houdt met veldgegevens en waarnemingen. Dit maakt een dynamischere en realistischere integratie van modellen en kennis mogelijk.

Het gebruik van software zoals MMA (Ye 2010) wijst op een toename in geavanceerde instrumenten die modelonzekerheid simultaan evalueren binnen een probabilistische context. Tegelijkertijd ontwikkelden Harp en Vesselinov (2012) de hydrogeologische acceptatiekansbenadering, waarin de steekproefgemiddelde van een Bernoulli-verdeling als basis fungeert. Dit illustreert een steeds grotere verfijning in het modelleren van onzekerheid binnen hydrogeologische systemen.

Onzekerheid in observatiegegevens blijft een bijzonder lastige component. Deze vorm van onzekerheid is zelden geïsoleerd te analyseren, omdat ze samenvalt met structurele en parametrische onzekerheden binnen modellen. Systematische fouten bij het verzamelen, opslaan en importeren van gegevens beïnvloeden de validatie en kalibratie op ingrijpende wijze. Post et al. (2008) en Renard et al. (2010) signaleren dat de kwaliteit van observatiegegevens vaak stilzwijgend als betrouwbaar wordt aangenomen, of slechts rudimentair wordt gemodelleerd. Methoden zoals het Bayesian Forecasting System (BFS), Bayesian Total Error Analysis (BATEA), en Integrated Bayesian Uncertainty Estimator (IBUNE) proberen hierin nuance aan te brengen, door observatieonzekerheid integraal te verwerken in het probabilistische raamwerk.

De aanpak van Troldborg et al. (2010) illustreert de kracht van integratie: door Kalman-ensembletechnieken, Bayesian Model Averaging en geostatistische methoden te combineren, wisten zij onzekerheid in massavervuiling van een gevaarlijke locatie in Kopenhagen effectief te kwantificeren. Deze methoden veronderstellen doorgaans normaliteit, onafhankelijkheid en een vaste covariantiematrix voor observatiefouten, maar juist daarin schuilt ook hun beperking. Modellen zoals BATEA onderscheiden invoer- en structuuronzekerheid expliciet, en bieden daarmee niet alleen kwantitatieve evaluatie, maar ook interpretatief houvast.

Naast methodologische innovaties speelt de inzet van open-source programmeertalen zoals R een essentiële rol. R heeft zich ontwikkeld tot een centrale tool in onzekerheidsanalyse, met pakketten als airGR, FME, ggplot2, en coda, die onderzoekers in staat stellen hun modellen zowel te bouwen als te visualiseren binnen één consistente omgeving. Het stelt hydrologen in staat om iteratief en transparant te werken, met reproduceerbare code als basis voor analyse.

Wat hierbij nog cruciaal is om te onderkennen, is dat onzekerheidsanalyse meer is dan een statistische exercitie: het is een epistemologisch kader dat de beperkingen van onze kennis over natuurlijke systemen erkent en systematiseert. De keuze voor een bepaalde modelleringstechniek, het al dan niet includeren van meetfouten, of het prefereren van informatietheoretische maatstaven boven Bayesiaanse waarschijnlijkheden, zijn geen neutrale beslissingen. Ze impliceren wetenschappelijke keuzes over wat als geldig bewijs wordt beschouwd en hoe onzekerheid maatschappelijk relevant wordt gemaakt. Daarmee raakt onzekerheidsanalyse aan de kern van wetenschappelijke integriteit, en vormt het een ethisch fundament voor hydrologisch onderzoek in een tijd van toenemende druk op natuurlijke hulpbronnen.

Wat zijn de belangrijkste theorieën en methoden voor hydrologisch modelleren?

De theorie van de eenheids-regenloop (unit hydrograph, UH) werd ontwikkeld door Nash in de jaren vijftig, en later uitgebreid door Dooge in 1959. Deze theorie is gebaseerd op twee belangrijke principes: het principe van proportionaliteit en het principe van superpositie, die samen de basis vormen van de theorie van lineaire systemen. De eenheids-regenloop biedt een model waarmee de reactie van een stroomgebied op een regenval kan worden gemodelleerd, waarbij de tijdsduur van het piekdebiet en de afvoerhoeveelheid worden voorspeld. Dooge breidde de theorie uit door een tijd-oppervlakte-diagram te introduceren en door stromen te modelleren via lineaire reservoirs en kanalen.

Snyder ontwikkelde in 1938 een synthetische methode voor de eenheids-regenloop door gebruik te maken van het basin lag (de vertraging van de afvoer in het stroomgebied), wat een belangrijke bijdrage was voor stromen in onbemeten stroomgebieden. In de jaren '40 en '50 werden verdere technieken ontwikkeld, zoals de kinematische golf (kinematic wave, KW) theorie, gepresenteerd door Lighthill en Whitham in 1955, voor het modelleren van stroming in rivieren. Deze theorie heeft sindsdien geleid tot een breed scala aan toepassingen in hydrologische modellering, waaronder het modelleren van overland flow, een belangrijk proces voor oppervlakte-afvoer.

Het concept van de kinematische golf werd verder geperfectioneerd door Woolhiser en Liggett (1967), die de KW-parameter valideerden, en door Singh in de jaren '90, die een gegeneraliseerde versie van de KW-parameter ontwikkelde. Een andere belangrijke uitbreiding van deze theorie is de diffusiestroomtheorie (Diffusion Wave Theory, DW), die werd gepresenteerd door Iwagaki in 1955. Deze theorie houdt rekening met de ruimtelijke gradiënt van de afvoerdiepte, wat nuttig is voor het analyseren van afvoerprocessen in complexe, niet-lineaire omgevingen. Morris en Woolhiser (1980) breidden deze theorie verder uit door expliciet het Froude-getal op te nemen, wat de dynamiek van stromingen beter kan voorspellen.

Het concept van de geomorfologische eenheids-regenloop (GIUH), ontwikkeld door Rodriguez-Iturbe en Valdes (1979), breidt het begrip van de eenheids-regenloop uit naar geomorfologische principes, met behulp van de Horton-Strahler basin ordering scheme. Dit is een kwantitatieve benadering van de structuur van stroomgebieden, die de afvoerkarakteristieken beter kan voorspellen, vooral wanneer andere methoden niet mogelijk zijn vanwege het ontbreken van hydrologische metingen.

Naast de klassieke benaderingen voor oppervlakte-afvoer, worden er ook steeds meer methoden toegepast die gericht zijn op infiltratie en subsurface flow. De theorieën van Green en Ampt (1911) en Horton (1933) zijn fundamenteel voor het begrijpen van infiltratieprocessen, die in veel gevallen bepalend zijn voor de dynamiek van stromingen in semi-aride gebieden. Het begrip subsurface flow, dat verwijst naar de afvoer die door de ondergrond stroomt, is in vochtige gebieden van belang, vooral wanneer het regenval-systeem het oppervlak overschrijdt en het water zich ondergronds verplaatst.

De studie van basiskracht en grondwater heeft grote vooruitgang geboekt dankzij de bijdragen van Darcy (1856), die de wet van Darcy introduceerde, en Theis (1935), die een diffusievergelijking ontwikkelde voor de relatie tussen grondwaterstanden en de afvoer van putten. Dit heeft de fundamenten gelegd voor technieken die basisafvoer en interflow kunnen scheiden in hydrografen, een proces dat essentieel is voor nauwkeurige afvoeranalyses.

De generatie van stroomafvoer kan op verschillende manieren plaatsvinden. Het "rainfall excess" mechanisme, zoals voorgesteld door Horton (1933), treedt op wanneer de regenintensiteit het infiltratievermogen overschrijdt, wat leidt tot oppervlakte-afvoer, vooral in semi-aride en aride gebieden. In vochtige gebieden speelt het subsurface flow mechanisme een belangrijke rol, waarbij het regenwater zich door de ondergrond beweegt en zo bijdraagt aan de afvoer. De saturatie-excess of het Dunne-Black mechanisme treedt op wanneer de bodem volledig verzadigd is, wat resulteert in overstromingen.

De bijdrage van sneeuwsmelt aan de afvoer wordt sinds de jaren '30 uitgebreid bestudeerd, waarbij het U.S. Army Corps of Engineers (1936) een fundamentele rol speelde in het ontwikkelen van modellen voor sneeuwhydrologie. De kinematische golftheorie werd aangepast om sneeuwsmeltprocessen beter te kunnen modelleren, met de bijdragen van Colbeck in de jaren '70 die de beweging van sneeuwsmelt naar de bodem beschreef. De invloed van klimaatverandering en wereldwijde opwarming op deze processen is tegenwoordig een belangrijk aandachtspunt voor hydrologische modellering.

In de laatste decennia zijn er ook aanzienlijke vooruitgangen geboekt in de methoden voor stroomafvoer in kanalen en reservoirs, met de formuleringen van McCarthy (1938) voor Muskingum-methode en de Puls-methode voor reservoirs. Beide methoden zijn van groot belang voor het modelleren van de afvoer van watermassa’s in rivieren en meren, met belangrijke toepassingen in waterbeheer en hydrologische risicobeoordelingen.

Wat betreft verdamping en evapotranspiratie heeft de theorie van Penman (1948) de basis gelegd voor het modelleren van verdamping uit waterlichamen, waarbij energieoverdracht en massatransfer centraal staan. De Penman-Monteith theorie, verder ontwikkeld door Monteith in 1965, heeft geleid tot gedetailleerdere benaderingen die rekening houden met verschillende omgevingsfactoren die verdamping beïnvloeden, zoals windsnelheid en bodemvochtigheid.

Tot slot heeft de studie van interceptie en depressie-opslag, zoals ontwikkeld door Horton (1919) en Ullah en Dickinson (1979), geholpen bij het begrijpen van de waterbeweging op het oppervlak, met name in bossen en andere vegetatiedekkingen, waar een aanzienlijk deel van de regen wordt opgevangen en niet onmiddellijk in de bodem infiltreert.

De vooruitgang in hydrologische theorieën en methoden heeft geleid tot een beter begrip van waterbeheer in verschillende omgevingen, van agrarische gebieden tot stedelijke omgevingen. De ontwikkeling van modellen op basis van deze theorieën heeft de capaciteit vergroot om stromingen te voorspellen en adequaat te reageren op veranderende omstandigheden, zoals klimaatverandering en landgebruik.