Reageren tijdens de consultatie op deze white paper? Dat kan open en transparant door issues aan te maken op GitHub. Geen fan van of toegang tot GitHub? Reageer dan via de Geonovum website.
"De Nederlandse Geo-informatie Infrastructuur is toe aan een upgrade” schreven we vorig jaar in de Geonovum meerjarenvisie 2021-2023. In deze white paper werken we dat ene zinnetje verder uit. Hoe kan de NGII een upgrade krijgen richting een vraaggedreven infrastructuur, die de kracht van locatiedata laagdrempelig inzetbaar maakt voor de grote maatschappelijke opgaven? Welke (nieuwe) standaarden spelen daarbij een rol? Hoe hangen allerlei afzonderlijke ontwikkelingen eigenlijk met elkaar samen? En hoe verhoudt de NGII 2.0 zich bijvoorbeeld tot een Nationale Digital Twin Infrastructuur? In deze white paper zoeken we antwoorden op die vragen. En omdat die antwoorden meer waarde hebben, wanneer ze breed gedragen worden in het werkveld, wordt deze white paper ook in publieke consulatie gebracht.
Deze paragraaf beschrijft de status van dit document ten tijde van publicatie. Het is mogelijk dat er actuelere versies van dit document bestaan. Een lijst van Geonovum publicaties en de laatste gepubliceerde versie van dit document zijn te vinden op https://www.geonovum.nl/geo-standaarden/alle-standaarden.
Dit is een document zonder officiële status.
De status van data is de afgelopen twee decennia radicaal veranderd. Lange tijd was data voor velen een aardige bijkomstigheid -iets wat toevallig ontstond bij het uitvoeren van werkprocessen- maar de focus lag primair op die werkprocessen. Met de komst van het open data beleid van de overheid werd dit bijproduct (de data) toegankelijk gemaakt voor hergebruik. Zo konden anderen profiteren van data die elders al was verzameld. De data werd nadrukkelijk 'as-is' aangeboden: wanneer een dataset voor de toepassing van een hergebruiker niet volledig, actueel of nauwkeurig genoeg was, hield het op. Het open data beleid was primair aanbod-gedreven. Met de democratisering van data (het kunnen benutten van de kracht van analyses, simulaties, dashboards en visualisaties door niet-specialisten) groeit de laatste jaren het besef dat data veel meer potentie biedt. Wanneer data omgezet kan worden in informatie en informatie in kennis, dan wordt data een essentiële grondstof om goed onderbouwde keuzes te maken. Geodata maakt het dan mogelijk om weloverwogen keuzes te kunnen maken in maatschappelijke opgaven met een ruimtelijke component. En de grote maatschappelijke opgaven (klimaatadaptatie, energie- en landbouwtransitie, woningbouwopgave en vervangingsopgave infrastructuur) hebben niet alleen zo'n ruimtelijke component, maar ze concurreren in een aantal gevallen ook onderling om de schaarse ruimte in Nederland: daar waar je zonneweides aanlegt, kun je geen woningen bouwen; daar waar stikstofgevoelige natuur is, is minder ruimte voor intensieve landbouw, etc. De inzichten die vanuit analyses, simulaties en visualisaties kunnen worden verkregen, worden onmisbaar in de aanpak van deze opgaven. En daarmee is data een essentiële grondstof geworden, waar juist vanuit de toepassingen steeds duidelijkere eisen aan gesteld worden. Met de opkomst van digital twins zien we deze beweging steeds krachtiger worden. Naast deze toepassingen speelt de laagdrempeligere toegang tot data ook een belangrijke rol in de beweging naar meer openheid, transparantie en participatie: betrokken burgers kunnen overheidsbeleid controleren, maar ook actief bijdragen door zelf initiatieven of alternatieven te ontwikkelen. Bovendien gaat het in deze hele beweging niet alleen om laagdrempelige toegang tot individuele databronnen, maar steeds vaker ook om het kunnen combineren van data uit verschillende bronnen. Hiermee neemt het belang van zowel semantische als technische interoperabiliteit steeds verder toe.
Het besef dat data waarde heeft -ook voor andere processen dan de werkprocessen waarbinnen die data ontstaat- bestaat al langer en is één van de triggers geweest voor het open data beleid. Toenmalig eurocommissaris Neelie Kroes sprak bij de lancering van de Europese open data strategie in 2011 al de woorden “Uw data is meer waard, als u die weggeeft”. De directe en indirecte economische impuls van beter toegankelijke overheidsdata zou voor heel Europa 140 miljard euro kunnen bedragen, is in die context becijferd. Een prachtige belofte, alleen bleef onvermeld dat de baten in de regel niet neerslaan waar de kosten worden gemaakt. Daarom werd bij de introductie van de basisregistraties voornamelijk ingezet op het credo ‘eenmalig inwinnen, meervoudig gebruik’. Dit bood de data-inwinners de mogelijkheid om inwinning doelmatiger en efficiënter te organiseren. Bovendien zou het beeld van de werkelijkheid bij de ene inwinner niet langer verschillen van het beeld bij de andere inwinner, wat naast kwaliteitswinst ook gewoon efficiëntie oplevert.
Met het toenemend besef dat data niet langer slechts een bijproduct is van werkprocessen en mogelijk geschikt voor hergebruik, maar juist een essentiële grondstof vormt, is de NGII aan een upgrade toe. Een upgrade, die rechtdoet aan de nieuwe status van data en daarmee vooral beter aansluit op de behoeften en wensen van gebruikers. Deze meer gebruikersgerichte benadering zien we internationaal ook terug in de ontwikkeling van een nieuwe generatie standaarden, die sterker gericht zijn op het verlagen van drempels om data te kunnen gebruiken. Deze betere aansluiting op de behoeften van gebruikers is de sleutel om de NGII 2.0 in te kunnen zetten als betrouwbare basis voor datagedreven oplossingen voor maatschappelijke opgaven. In deze white paper schetsen we eerst hoe deze stap naar meer gebruikersgerichtheid de verschillende componenten van de NGII beïnvloed, waarbij we achtereenvolgens kijken naar de componenten Basisdata, Coördinaatreferentiesystemen, Ontsluiting en Governance. Vervolgens positioneren we de upgrade van de NGII ten opzichte van het concept van de Nationale Digital Twin Infrastructuur en bespreken we de consequenties van de upgrade voor de architectuur van de NGII en sluiten we af met een opsomming van de stappen die nodig zijn op weg naar de NGII 2.0.
Vanuit de oorspronkelijke gedachte dat data ontstaat bij werkprocessen en vervolgens als open data vrijgegeven kan worden voor hergebruik, is het goed verklaarbaar dat data vaak onvolledig is of was, en dat data beschikbaar kwam langs de tijdslijnen van die werkprocessen. Denk bijvoorbeeld aan de BGT waarin bomen alleen opgenomen worden als ze in beheer zijn bij desbetreffende BGT-bronhouder, of aan straatnamen die alleen in de BAG waren opgenomen, wanneer er ook een adres was uitgegeven aan die straatnaam. Wanneer je die situaties echter beziet vanuit het perspectief van datagedreven werken, dan wordt duidelijk dat deze onvolledigheid tot problemen leidt. Want hoe kun je analyses over binnenstedelijke hittestress uitvoeren, wanneer je minder dan de helft van de bomen in beeld hebt? Of hoe stuur je een ambulance naar een vrijliggend fietspad, wanneer de straatnaam niet bij iedereen bekend is? Om data echt als waardevolle grondstof in te kunnen zetten, is het nodig om beter op deze vragen in te kunnen spelen. Om in te spelen op de behoefte aan volledigere en actuelere data is niet één specifieke oplossing voorhanden, maar zal er binnen de NGII 2.0 vaker ingezet worden op:
Deze omslag aan de productiekant van de data heeft de nodige consequenties. Immers: gegevens zullen vanuit verschillende bronnen ontstaan (bijv. eigen decentrale inwinning vs. centrale post-processing van landelijk ingewonnen elementen), wat per objecttype kan leiden tot verschil in kwaliteit (precisie, nauwkeurigheid, betrouwbaarheid, actualiteit, volledigheid) en in de mate van in control zijn. Dit voelt mogelijk tegennatuurlijk voor bronhouders, maar voor gebruik is dit geen enkele belemmering, op voorwaarde dat de afzonderlijke elementen elk voldoen aan het voor gebruik benodigde kwaliteitsniveau. De opgave om stappen te zetten naar volledigere data, omvat ook het inrichten van een meer vraaggerichte sturing op de inhoud en financiering van basisdatasets als de geobasisregistraties.
Vanuit het oogpunt van data als bijproduct van werkprocessen bezien, is het goed te verklaren dat verschillende datasets een verschillend beeld (lijken te) geven van de werkelijkheid. Immers: het werkproces rond bijvoorbeeld huisnummerbesluiten kent andere aandachtspunten dan werkprocessen rond registratie van eigendom of het beheren van objecten in de openbare ruimte. Maar met het beschikbaar stellen van dergelijke data als open data en het groeiend gebruik daarvan voor allerlei nieuwe doelen, liggen de toepassingen lang niet altijd meer in het verlengde van het oorspronkelijke doel waarvoor de data is ingewonnen of waarbij de data is ontstaan. Gebruikers die dergelijke datasets vinden en vervolgens toepassen, ervaren deze sets vaak als inconsistent. En hoewel gebruikers met de nodige ervaring binnen het geo-domein deze inconsistenties vaak nog kunnen plaatsen, gaat dat voor een toenemend deel van de gebruikers niet meer op. Bovendien blijken inconsistenties regelmatig veroorzaakt te worden door kwaliteits-issues als onvoldoende volledigheid of actualiteit. De kwaliteitsdashboards op diverse basisregistraties (waaronder die van de BGT) maken hier gebruik van, door inconsistenties te signaleren en zo kwaliteitsverbeteringen te triggeren.
Om echt een doorbraak te creëren in het datagedreven werken, mag het duidelijk zijn dat ontbrekende samenhang tussen databronnen een issue is dat aangepakt moet worden. Hiervoor zijn meerdere strategieën beschikbaar:
Primair op data gebaseerde strategieën:
Kenmerkend voor de primair op data gebaseerde strategieën, is dat de veranderopgave vooral bij de bronhouder van de data komt te liggen. Harmoniseren is hierbij de meest ambitieuze wijze om gegevens bij elkaar te brengen, die vanuit verschillende perspectieven worden verzameld. Bij harmonisatie geldt de aanname dat volledige samenhang tussen informatieobjecten (sets gegevens over objecten) alleen mogelijk is, wanneer de objecten (de dingen in werkelijkheid) gelijk zijn. Bij het expliciteren van relaties wordt geaccepteerd dat informatieobjecten niet op exact dezelfde objecten betrekking hebben (bijvoorbeeld omdat domeinspecifieke invalshoeken dat rechtvaardigen). De vraag welke strategie het meest geschikt of wenselijk is voor het bieden van samenhang, zal in het algemeen beantwoord kunnen worden door te kijken of het (realistisch) haalbaar is het over exact dezelfde objecten te gaan hebben. Binnen een domein (bijvoorbeeld tussen geobasisregistraties) kan dat nog haalbaar zijn, terwijl over domeinen heen het verlinken het hoogst haalbare is (bijvoorbeeld tussen BIM enerzijds en geobasisregistraties anderzijds). Voor het beoordelen van de haalbaarheid, is de omvang van de transitie-opgave een belangrijk criterium. Harmoniseren zal in de regel om een significante transitie vragen. Bij relateren hangt de omvang mede af van de mate waarin het leggen en bijhouden van relaties tussen instanties van objecten te automatiseren valt. Wanneer de relaties op semantisch vlak tussen objecten gelegd zijn, kunnen expliciete relaties tussen instanties van die objecten automatisch worden afgeleid. Beperking hierbij is echter dat deze resultaten nooit 100% betrouwbaar zullen zijn. Wanneer de betrouwbaarheid van de relaties tussen instanties van groot belang is, zullen deze relaties in het werkproces gelegd moeten worden. Dit heeft ook significante impact op de omvang van de beheeropgave: niet alleen het object en de bijbehorende kenmerken moeten actueel gehouden worden, maar ook de verwijzingen naar gerelateerde objecten.
Met de eerste strategie (harmoniseren) zal een gebruiker idealiter geen inconsistenties meer ervaren (in elk geval geen inconsistenties die veroorzaakt worden door semantische verschillen), met de tweede strategie (expliciteren van relaties) zal een gebruiker eventuele inconsistenties eerder kunnen duiden en begrijpen, waarmee idealiter de drempel voor gebruik wordt weggenomen.
Naast de hierboven op data gebaseerde strategieën, kunnen gebruikers ook in hun behoefte aan samenhang worden voorzien door de ontsluitingswijze hierop te optimaliseren. Bij deze strategieën komt de last om samenhang te bieden niet bij de bronhouder van de data te liggen, maar bij de service provider en/of de afnemende partij. Later in deze white paper zullen twee aanvullende strategieën aan bod komen:
Primair op ontsluiting gebaseerde strategieën:
Bij interoperabiliteit denkt men vaak aan eerst aan technische interoperabiliteit: de mate waarin koppelvlakken gestandaardiseerd zijn, met de uitwisselbaarheid 'zoals een stekker in een stopcontact' als streefbeeld. Op het vlak van data gaat het echter om semantische interoperabiliteit: de mate waarin de betekenis van gegevens gestandaardiseerd is, waarbij uitwisselbaarheid draait om het gezamenlijk spreken van dezelfde taal, met de Babylonische spraakverwarring als doembeeld. De behoefte van gebruikers aan semantische interoperabiliteit ligt in het verlengde van de behoefte aan samenhang: bij de behoefte aan samenhang gaat het primair om de wens dat informatieobjecten in verschillende datasets zo eenduidig mogelijk samenhangen met objecten in de werkelijkheid, bij de behoefte aan semantische interoperabiliteit draait het primair om de wens dat informatieobjecten uit verschillende bronnen te combineren en te integreren zijn, wanneer de samenhang al op orde is.
Het meest voor de hand liggende instrument om semantische interoperabiliteit te bevorderen, is het gebruik van gestandaardiseerde informatiemodellen. Met de hele NEN3610-piramide in het achterhoofd zou men wellicht denken dat de NGII op dit vlak geen uitdagingen meer kent. Immers: er is een hele reeks aan gestandaardiseerde informatiemodellen in gebruik, deels zelfs wettelijk verankerd. Toch ervaren gebruikers nog altijd problemen op het vlak van semantische interoperabiliteit. Bijvoorbeeld omdat identieke situaties in de werkelijkheid op meerdere (valide) wijzes kunnen worden beschreven volgens een informatiemodel. Maar ook omdat verschillende bronhouders een informatiemodel soms net anders interpreteren, waarmee de uiteindelijke vulling minder consistent is. Praktijkvoorbeelden van dit soort gevallen zijn o.a. in de Basisregistratie Grootschalige Topografie te vinden en vormen daar een obstakel voor automatische generalisatie. Nu data steeds vaker door grotere aantallen individuele bronhouders wordt ingewonnen en data ook steeds vaker decentraal beheerd blijft (zie ook paragraaf over architectuur) wordt het borgen van semantische interoperabiliteit een steeds grotere uitdaging. Informatiemodellen en de bijbehorende catalogi, handboeken, werkafspraken en processen zullen kritisch doorgelicht moeten worden op eenduidigheid: wordt er het maximale aan gedaan om te borgen dat identieke situaties in de werkelijkheid ook op identieke wijze terugkomen in data? Vrijheidsgraden in standaarden zullen zoveel mogelijk beperkt moeten worden en waar ze onvermijdelijk zijn, zullen de ondersteunende documenten zoveel mogelijk gericht moeten zijn op eenduidige toepassing van die vrijheidsgraden.
In de voorgaande paragrafen zijn de behoeften aan samenhang en interoperabiliteit beschouwd binnen het domein van de NGII. Voor beide behoeften geldt echter dat ze ook valide zijn over de grenzen van het geo-domein heen. Want de fysieke leefomgeving is niet alleen onderwerp in het geo-domein, maar o.a. ook in het bouwdomein en het assetmanagement-domein. Gebouwen, wegen, kunstwerken, kabels en leidingen en andere objecten in de openbare ruimte: in alle domeinen worden er gegevens over vastgelegd. Gebruikers verwachten de samenhang tussen deze bronnen en willen deze data ook kunnen combineren. Bovendien geldt in veel gevallen dat de overheid een rol speelt in deze domeinen. Eenduidige en consistente informatievoorziening voor elk betrokken onderdeel van de overheid is dan een voor de hand liggende behoefte. Dit maakt dat de NGII voor de uitdaging staat om samenhang en semantische interoperabiliteit niet alleen binnen de eigen infrastructuur, maar juist ook richting aanpalende domeinen te gaan bieden.
Hoewel gebruikers meestal geen expliciete verwachtingen hebben t.a.v. de complexiteit van informatiemodellen en standaarden, bestaat deze verwachting impliciet wel. Gebruikers geven namelijk bij ontsluiting vaak aan dat ze lichtere dataformaten willen kunnen gebruiken. Het is echter niet altijd mogelijk om bij ontsluiting voor een ander (lichter) dataformaat te kiezen: soms maken de onderliggende informatiemodellen gebruik van complexere constructies, die alleen in complexere dataformaten volledig kunnen worden weergegeven. In de praktijk zien we dit o.a. terug bij pogingen om INSPIRE-data naast GML ook in GeoPackage uit te kunnen leveren. Dit betekent dat gestandaardiseerde informatiemodellen daar waar mogelijk zo eenvoudig mogelijk gemaakt moeten worden, om laagdrempelige ontsluiting mogelijk te maken. Wanneer het gebruik van complexere constructies in informatiemodellen slechts voor een beperkt deel van de toepassingen noodzakelijk is, kan het verstandig zijn om standaarden modulair op te bouwen. Modulaire standaarden bestaan uit een relatief eenvoudige core en één of meer extensies, waarmee aanvullende eisen kunnen worden gesteld, die vervolgens alleen gelden voor specifieke gevallen. Op deze manier worden gebruikers niet langer met complexiteit geconfronteerd, wanneer die voor hun toepassing niet relevant is.
De meerwaarde van geo-informatie boven administratieve informatie zit natuurlijk in de ruimtelijke component: de kracht van locatie. Ook databronnen die niet expliciet aan elkaar gerelateerd zijn, kunnen met elkaar in verband worden gebracht, wanneer ze betrekking hebben op dezelfde locatie. Voor elke geospecialist is dit een open deur. Alleen: dit werkt uitsluitend, wanneer je er zeker van kunt zijn dat de locatie klopt. Niet voor niets wordt bij inwinning van geo-informatie veel aandacht besteed aan kwaliteit: precisie, nauwkeurigheid, volledigheid, betrouwbaarheid en actualiteit. Maar wanneer er in datagedreven werkprocessen gegevens uit meerdere bronnen worden gecombineerd, is eenzelfde aandacht voor kwaliteit nodig. Zeker wanneer deze bronnen in verschillende coördinaatreferentiesystemen (CRS) zijn vastgelegd, bijvoorbeeld door het combineren van nationale en internationale bronnen of het combineren van bronnen met primaire focus op land met bronnen met primaire focus op zee.
Deze opgaven illustreren ook goed, waarom we coördinaatreferentiesystemen als component van de NGII beschouwen. Het volstaat niet langer om alleen aan de voorkant van de keten (bij de landmeetkundige inwinning) aandacht te hebben voor juist CRS-gebruik, inmiddels is dit in elke fase van de keten noodzakelijk. Wanneer je streeft naar een NGII die datagedreven werken mogelijk maakt en die data als essentiële grondstof beschouwt, dan zal die NGII ook het eenvoudig en correct samenstellen van informatieproducten uit data in verschillende CRSen mogelijk moeten maken. Bovendien zien we dat geometrie steeds vaker echt in drie dimensies wordt beschreven, in plaats van in twee of in twee met een administratief attribuut Hoogte. Hiermee wordt de opgave om in alle stappen in de keten correct met CRSen om te gaan, alleen maar groter. Een opgave, waaraan zowel door geodetische als door informatiekundige specialisten gewerkt zal moeten worden.
Voor toepassingen waarbij nauwkeurigheid minder relevant is, zien we een groeiende behoefte aan eenvoudiger gebruik van coördinaatreferentiesystemen. Wanneer je ruimtelijke data wilt optimaliseren voor het gebruik door niet-geospecialisten op het web, raden de Spatial Data on the Web Best Practices aan om data ook altijd te publiceren in wereldwijd bruikbare CRSen, zoals WGS84 Lat/Long (EPSG:4326) voor vector data of WebMercator (EPSG:3857) voor rasterdata. Een goed praktijkvoorbeeld hiervan in Nederland is NL Maps, waarmee de BRT geoptimaliseerd voor dergelijke web map tooling wordt aangeboden. Voor veel webviewers en hun toepassingen is de lagere geometrische nauwkeurigheid geen bezwaar en kunnen toepassingen snel en eenvoudig worden gerealiseerd door aan te sluiten bij deze generiek toegepaste CRSen. Dit vormt een tweede opgave voor de NGII: om zoveel mogelijk drempels voor gebruik weg te nemen, zal data vaker in meerdere CRSen aangeboden moeten worden. Denk aan RD en ETRS89 voor nauwkeurige toepassingen en bijvoorbeeld WebMercator voor laagdrempelige online visualisatie (mits het onderwerp zich natuurlijk leent voor minder nauwkeurige weergave - wees kritisch op de nauwkeurigheid van de toepassing én van de onderliggende brondata).
In de NGII is het noodzakelijk dat gebruikers probleemloos met meerdere CRS-en kunnen werken. Het gaat in de eerste plaats om RD en ETRS89. Het goed kunnen transformeren van coördinaten van het ene naar het andere stelsel is een eerste vereiste. De RDNAPTRANS-procedure biedt hiervoor al sinds jaar en dag uitkomst, maar helaas was het zo dat deze procedure (zeker voor de komst van RDNAPTRANS 2018) in veel GIS-pakketten niet correct geïmplementeerd was, met soms grote afwijkingen tot gevolg. Met de komst van RDNAPTRANS 2018 is de transformatie tussen RD en ETRS89 eenvoudiger implementeerbaar geworden, doordat de opbouw van de transformatie meer lijkt op in andere landen toegepaste transformaties die al goed zijn geïmplementeerd in GIS-pakketten. Hierdoor vraagt implementatie van de Nederlandse transformatie minder specifiek ontwikkelwerk. Tegelijk met de publicatie van deze nieuwe procedure is ook veel aandacht besteed aan het vergroten van het bewustzijn van het belang van het gebruik van de juiste procedure. Maar het goed kunnen werken in meerdere stelsels, vraagt meer dan alleen het goed kunnen transformeren van coördinaten. Je wilt immers niet alleen de locatie van een punt correct in beide stelsels kunnen weergeven, maar volledige geometrieën inclusief ruimtelijke relaties in beide stelsels consistent kunnen gebruiken. Een voorbeeld: een rechte lijn in RD komt niet automatisch overeen met een rechte lijn in ETRS89: hoe langer het lijnstuk, hoe groter de afwijkingen. En daarmee kan een punt dat in RD aan de ene kant van zo’n lijn ligt, in ETRS89 aan de andere kant terecht komen. Wanneer dit optreedt in vraagstukken als eigendom of vergunningverlening, leidt dit tot volstrekt onwenselijke situaties. Dit probleem is te voorkomen door aanvullende tussenpunten te vereisen, ook wanneer die op een volmaakt rechte lijn lijken te liggen. Het borgen van dit soort keuzes bij het ontwerp en gebruik van landelijke voorzieningen en digitale stelsels is essentieel. Dit is een opgave voor de NGII: er kan niet langer worden volstaan door alleen aan de inwinningskant van geo-informatie aandacht te hebben voor gebruik van de juiste transformaties en het borgen van keuzes, dit onderwerp moet ook aan de gebruikers- en beheerderskant aandacht krijgen.
Hoewel het nu haast niet meer voor te stellen is, is het niet eens zo heel lang geleden dat basisdata nog op DVD per post werd gedistribueerd. Sindsdien is er veel gebeurd. Eén van de laatste belangrijke veranderingen is dat de granulariteit van ontsluiting verandert: de aandacht verschuift van het niveau van datasets naar het niveau van individuele objectinstanties. Tegelijk zien we ook de ontwikkeling richting meer samenhang: waar voorheen afzonderlijke datasets werden ontsloten, groeit nu het besef dat gebruikers gebaat zijn bij samengestelde bevragingen.
Voor deze twee gerelateerde ontwikkelingen zijn meerdere aanleidingen aan te wijzen. Een eerste belangrijke is de groeiende aandacht voor het scheiden van de datalaag en de applicatielaag in architectuur. Dat is an sich geen recent, vernieuwend idee, maar naarmate meer partijen de gevolgen van vendor lock-ins en daaropvolgende moeizame migraties zijn gaan ondervinden, wordt dit principe wel veel actiever nagestreefd. Een tweede belangrijke aanleiding is de beweging om drempels voor gebruik zo veel mogelijk weg te willen nemen. Waar voorheen een gebruiker hooguit de afzonderlijke bouwstenen (in de vorm van datasets) voor zijn informatiebehoefte kon krijgen, groeit het besef dat de gebruiker pas echt geholpen wordt, wanneer er direct in die informatiebehoefte voorzien wordt. Want niet elke gebruiker -en zeker niet buiten de kring van geo-specialisten- heeft de mogelijkheden (o.a. in termen van kennis, applicaties en tijd) om zelf het antwoord op een informatiebehoefte te vinden op basis van die afzonderlijke bouwstenen. Dat gebrek aan mogelijkheden maakte dat veel potentiële gebruikers de kracht van locatiedata niet konden benutten. Om die potentie wel te vervullen, zien we nieuwe vormen van ontsluiting opkomen.
In de huidige NGII is o.a. WFS beschikbaar als ontsluitingsmechanisme. WFS voorziet in een aantal van de hierboven genoemde behoeften (scheiden van applicatie en data en ontsluiten van data op instantieniveau), maar niet aan allemaal (o.a. laagdrempeliger, ook voor niet-geospecialisten). Voor de NGII 2.0 zijn verschillende ontsluitingsmechanismen beschikbaar, die wel beter aansluiten op die punten. De vraag welk mechanisme en welke bijbehorende standaarden het meest geschikt zijn, hangt onder meer af van de mate waarin de aanbiedende partij zicht heeft op de concrete informatiebehoefte van de gebruiker:
Wanneer er sprake is van een concrete informatiebehoefte – denk aan ‘mutaties in de BGT voor een op te geven gebied en tijdspanne’ of aan ‘alle pandinformatie die in BAG en BGT bekend is van een op te geven pand’ – dan vormen API’s een voor de hand liggend ontsluitingsmechanisme. API’s kennen een laagdrempelig en voorspelbaar interactiepatroon. Om die laagdrempeligheid ook voor ruimtelijke data te bieden, wordt bij de OGC in hoog tempo een hele familie aan ontsluitingsstandaarden, gebaseerd op REST API’s, ontwikkeld. Deze OGC API familie is te kenschetsen als de opvolger van de verzameling W*S standaarden. Hiermee sluiten de OGC-standaarden niet alleen beter aan op de nu meest gangbare technieken, maar maken deze nieuwe OGC API standaarden de toegang tot ruimtelijke data ook een stuk laagdrempeliger. Immers, de voorheen zeer geo-specifieke interactiepatronen worden nu vervangen door de generieke interactiepatronen die ook voor niet-ruimtelijke data gangbaar zijn. Bovendien worden deze interactiepatronen ook nog eens op een generieke (in de zin van: niet geo-specifieke) wijze beschreven door deze conform de Open API Specification (OAS) standaard vast te leggen. De beweging richting OGC API’s past hiermee ook uitstekend binnen de SDI.Next gedachte: er worden zo veel mogelijk drempels voor het gebruik van geodata weggenomen. Het aanbieden van data via API’s wordt nog laagdrempeliger, wanneer deze API’s gericht zijn op specifieke informatiebehoeften. Immers: hoe gerichter de vraag (bijvoorbeeld: geef het volledige adres bij deze postcode + huisnummer), hoe eenvoudiger het interactiepatroon kan zijn, en hoe eenvoudiger de API in gebruik is. Een API die probeert een brede range aan vragen te bedienen, zal altijd complexer in gebruik worden dan wanneer die range aan vragen wordt verspreid over een aantal specifieke API’s. Wanneer een WFS alleen opgevolgd wordt door een API conform de OGC API Features standaard, heeft dit wel het (ook voor niet-geospecialisten) voorspelbaardere interactiepatroon en betere vindbaarheid als voordeel, maar hiermee wordt nog niet direct in een concrete informatiebehoefte voorzien. Pas wanneer er specifiekere API's (de zgn. convenience API's) conform de OGC API Feature standaard worden gepubliceerd, wordt ook echt in die gerichte informatiebehoeften voorzien. Dergelijke convenience API's zijn erg geschikt zijn voor informatie-uitwisseling in ketens (omdat die ketens bekend zijn) en voor populaire, generieke vragen (zoals het net gegeven adres-voorbeeld). Bij deze laatste categorie speelt het argument vindbaarheid ook een belangrijke rol, want juist door de betere vindbaarheid neemt de kans dat gebruikers van buiten het geo-domein ook daadwerkelijk gaan profiteren van de kracht van locatiedata verder toe. Tegelijk is het belangrijk om te beseffen je met het uitsluitend aanbieden van convenience API's je nooit de volledige informatiebehoefte af kunt dekken: zie convenience API's als de beste manier om de veelgestelde vragen af te handelen, maar weet dat je voor andere vragen en analyses ook generieke API's, downloads of linked open data moet aanbieden.
Lang niet altijd zal er sprake zijn van een concrete informatiebehoefte, die bij de data-aanbieder bekend is. Hoe bied je dan je data zodanig aan, dat onbekende gebruikers met onbekende vragen toch zo veel mogelijk baat kunnen hebben bij je data? Voor die gevallen is de aanpak van linked open data een goede keuze, omdat deze aanpak het mogelijk maakt om zelf relaties te leggen, mede door het bieden van meer context bij de data. De essentie van deze aanpak is dat de onbekende data-gebruiker in staat moet zijn om zelf verbanden te leggen tussen verschillende informatiebronnen. Hiervoor moet niet alleen de data zelf op instantieniveau toegankelijk zijn, maar moeten er van die instanties ook duidelijke relaties gelegd worden naar de semantiek. Op die manier kunnen gebruikers in dat Web of Data zelf data ontdekken en interpreteren. Het linken naar de betekenis van data wordt mogelijk door het gebruik van begrippencatalogi. Ook is het mogelijk relaties te leggen van de ene instantie naar andere instanties, die zich in andere datasets kunnen bevinden, waardoor de data-interoperabiliteit flink verhoogd wordt. Een bekend voorbeeld van deze aanpak is het publiceren van de BAG als linked data. De mogelijkheid tot het combineren beperkt zich niet tot het combineren van de ene soort geodata met de andere soort geodata, maar strekt zich verder uit, ook voor het combineren met administratieve data. De link tussen geo en niet-geodata biedt in beide richtingen voordelen. Zo wordt het door geodata als linked data te publiceren mogelijk dat niet-geo-ict-ers die geodata gebruiken in combinatie met hun eigen administratieve databronnen, terwijl een geospecialist in zijn GIS ook linked data uit administratieve data bronnen naar binnen kan trekken en gebruiken.
Uit bovenstaande kan overigens niet de conclusie worden getrokken dat API's en Linked Data twee tegenovergestelde, elkaar uitsluitende aanpakken zijn. Zo is het bijvoorbeeld prima denkbaar om via API's samengestelde bevragingen aan te bieden, waarbij de antwoorden dankzij linked data technieken tot stand komen. Maar ook de eerder genoemde optie om de meestgestelde vragen via convenience API's af te dekken en voor generiekere vragen en analyses linked open data aan te bieden, is hier een voorbeeld van.
De overstap van geo-specifieke ontsluitingsmechanismen naar meer generieke mechanismen helpt bij het verbreden van de doelgroep van de NGII. Maar wanneer deze generieke mechanismen vervolgens nog steeds alleen geo-specifieke formaten uitleveren, dan mist deze overstap alsnog het beoogde effect. Daarom is he belangrijk om de data ook zoveel mogelijk in lichtere formaten aan te bieden. Want hoewel GML (Geography Markup Language) een hele krachtige uitwisselingsstandaard is, vormt GML voor veel gebruikers van buiten het geodomein een obstakel: GML wordt vaak gezien als complex en lastig te implementeren. Gelukkig komen er steeds meer goede alternatieven beschikbaar, die voor de meerderheid van de toepassingen ook volstaan. Denk hierbij o.a. aan HTML, JSON, GeoPackage en RDF. In de Handreiking Geometrie in uitwisselingsformaten worden handvaten geboden aan data-aanbieders om die formaten te selecteren, die het meest geschikt zijn voor hun situatie. Voor de NGII geldt dat er actiever gestuurd moet worden op het (ook) aanbieden in lichtere formaten.
Naast het ontsluiten van de data zelf, is de visualisatie van die data juist bij geodata ook heel zinvol. In de huidige NGII wordt hier vooral in voorzien middels de WMS en WMTS-mechanismen. Op het vlak van verbeelding groeit de behoefte aan mechanismen met goede performance, met mogelijkheden voor het aanpassen van de opmaak en met goede ondersteuning voor 3D geodata. In de afgelopen periode hebben het gebruik van o.a. (Mapbox) vector tiling, Cesium en i3S een vlucht genomen. Veel van deze standaarden zijn als de facto standaarden opgekomen, waarbij ze hun populariteit ontlenen aan gebruiksgemak en performance. Vervolgens zijn een aantal van deze standaarden van de facto standaarden gegroeid tot open standaarden, o.a. door de adoptie als OGC Community Standard. In de beweging om de hele familie W*S standaarden op te laten volgen door de nieuwe generatie OGC API standaarden, zullen voor visualisaties OGC API Maps (als opvolger van WMS) en OGC API Tiles (als opvolger van WMTS) voor de NGII 2.0 belangrijke standaarden worden om te voldoen aan de gebruikerswensen op het gebied van gebruiksgemak, performance en ondersteuning van 3D. Op het vlak van generieke webstandaarden wordt nagedacht over het native ondersteunen van kaarten in HTML. Dit zou het verbeelden van geo-informatie mogelijk maken, zonder dat daar specifieke geostandaarden voor nodig zijn. Ook vanuit het oogpunt van toegankelijkheid (voor gebruikers met een beperking) zou dit meerwaarde kunnen bieden, omdat de meeste toepassingen voor toegankelijkheid direct op HTML werken.
Met de verschuivende aandacht van efficiënte en doelmatige inwinning (NGII 1.0) naar datagedreven werken (NGII 2.0), ligt het voor de hand om de besturing van de NGII ook anders in te richten. Immers: in eerste instantie waren de bronhouders, de data-producenten, zelf de belangrijkste stakeholders. Zij profiteerden van de efficiëntere inwinning en consistentie van de eigen data met data van andere partijen. Dergelijke optimalisatieslagen waren goed te organiseren vanuit de afzonderlijke ketens. Nu de aandacht zich echter steeds nadrukkelijker richt op het creëren van maatschappelijke meerwaarde (door datagedreven bij te kunnen dragen aan de grote maatschappelijke opgaven), is een integralere en meer vraaggerichte sturing noodzakelijk, zowel op inhoud als op financiering. In dit kader wordt het aan tafel krijgen van 'de gebruiker' hier regelmatig als uitdaging of zelfs probleem gezien. Want in veel gevallen hebben aanbieders van (open) geodata -mede door eerdere beleidskaders rond open data ('toegankelijk zonder registratie')- slechts beperkt zicht op hun eindgebruikers. Toch hoeft dit geen fundamentele belemmering te vormen voor een meer vraaggerichte sturing. In de inleiding hebben we een beeld geschetst van een NGII 2.0, die het faciliteren van datagedreven werken aan de grote maatschappelijke opgaven als doel kent. De beleidsdepartementen die voor die maatschappelijke opgaven aan de lat staan, kunnen vanuit die beleidsverantwoordelijkheid de (publieke) gebruikersbelangen behartigen. De belangrijkste uitdaging hierbij is het creëren van voldoende bewustzijn voor het belang en de meerwaarde van data en datagedreven werken. Aansprekende concepten als digital twins kunnen hierbij helpen om de kracht van data, analyse en visualisatie tastbaar te maken.
De huidige governance van componenten in de NGII is nog versnipperd. Zolang de sturing per silo is ingericht, is het onvermijdelijk dat de verbeterslagen primair op de eigen silo gericht zijn. Met integrale sturing over alle databronnen en ontsluitingsvormen heen, kan er veel effectiever worden gestuurd op datgene wat echt meerwaarde biedt voor de gebruiker. Hierbij is ook aandacht nodig voor 'governance op het snijvlak' tussen databronnen: wanneer er meer relaties tussen databronnen gelegd worden, is hier ook specifieke sturing op nodig. Belangrijk bij de integrale sturing is dat alle betrokken partijen primair vanuit het belang van de gebruikers gaan werken, om zo zoveel mogelijk gebruikers daadwerkelijk van de kracht van locatiedata te laten profiteren.
Deze gezamenlijkheid is ook nodig om belangrijke silo-overstijgende onderwerpen te kunnen adresseren. Waar geodata vroeger de data was die 'eenvoudig' als open data gepubliceerd kon worden, omdat het alleen maar om fysieke objecten ging die iedereen kon zien, wordt locatie inmiddels steeds vaker een persoonskenmerk. Dit vraagt om duidelijke en praktische regels voor het verantwoord gebruik van locatiedata, zowel op ethische als op privacy-aspecten. Mede door het Locatiepact is dit onderwerp in Nederland al wel goed op de agenda gezet, maar de uitwerking en verankering in de NGII 2.0 is nog een punt van aandacht.
Op allerlei plaatsen lopen initiatieven rond Digital Twins, waarin naast meer statische data ook nadrukkelijk gebruik gemaakt wordt van rekenmodellen, dynamische data en visualisatie-services. In die context wordt er ook nagedacht over een Nationale Digital Twin Infrastructuur (NDTI) voor de fysieke leefomgeving. Doel van een dergelijke overheids-infrastructuur is niet om complete digital twins aan te bieden vanuit de overheid, maar om een gelijk speelveld te creëren. Een speelveld waarop gebruikers en leveranciers digital twin-componenten kunnen afnemen en aanbieden, dat zodanig is ingericht, dat gebruikers kunnen vertrouwen op de uitkomsten van de analyses en die veilig als uitgangspunt voor publiekrechtelijk handelen kunnen nemen. Waar liggen de overeenkomsten en verschillen tussen de NGII en een NDTI? Of anders gezegd: in welke voor digital twins benodigde componenten zal de NGII 2.0 voorzien en welke zullen aanvullend in een NDTI gerealiseerd moeten worden? Door de NDTI te benaderen als een extensie op de NGII 2.0 borg je niet alleen optimaal hergebruik van bestaande componenten, maar kan de upgrade naar de NGII 2.0 ook gezien worden als no regret stap richting een volledige NDTI.
Het is belangrijk om zich te realiseren dat er veel overeenkomsten zijn tussen beide infrastructuren en dat er geen sprake is van concurrerende infrastructuren. In beide gevallen is het doel om datagedreven werken aan vraagstukken met een ruimtelijke component zodanig te faciliteren, dat er vanuit de overheid een aantal ordeningsprincipes en waarborgen kunnen worden ingebouwd. Hierbij gaat het o.a. om ordening en waarborgen op de volgende aspecten:
Open standaarden spelen bij een aantal van deze aspecten een rol, maar ook andersoortige afspraken zijn onmisbaar.
Op een aantal aspecten gaat de NDTI verder dan de NGII 2.0. Dit verschil in scope komt o.a. in de volgende aspecten tot uiting:
De NGII is toe aan een upgrade. Maar welke consequenties heeft dat voor de architectuur onder de NGII? Een eerste vereiste voor het faciliteren van datagedreven werken, is het scheiden -conform het vijf-lagen model- van data en applicaties. Dit principe is in de bestaande NGII al goed terug te zien: dankzij gestandaardiseerde informatiemodellen en services die toegang verlenen tot data, kunnen applicaties rechtstreeks aansluiten op databronnen in de NGII. Hiermee worden onnodige kopieën en de bijbehorende risico's op het gebruik van verouderde data voorkomen. Een tweede vereiste voor het faciliteren van datagedreven werken, is het kunnen combineren van data en services uit verschillende bronnen. De NGII wordt daarmee onderdeel van een federatieve structuur van services die data en/of functionaliteit leveren. De vraag of de afsprakenstelsels, die nodig zijn om zo'n federatieve structuur te laten werken, volledig binnen scope van een nationale infrastructuur vallen, zal verschillend worden beantwoord voor de NGII 2.0 en de NDTI. In de NDTI wordt gedacht aan een federatieve structuur waarin ook tal van rekenmodellen, dynamische datasets en visualisatie-services door zowel publieke als private partijen worden aangeboden. Om dat ecosysteem goed te laten functioneren, is de ordening nadrukkelijk onderdeel van de NDTI. Maar ook in het kader van de NGII 2.0 is de federatieve structuur een belangrijk gegeven. Niet alleen zal de NGII 2.0 als één van die bronnen in zo'n federatieve structuur gecombineerd moeten kunnen worden met andere bronnen binnen én buiten de geo-sector, maar ook voor het functioneren van de NGII 2.0 zelf kan deze structuur meerwaarde bieden. Zo is het goed denkbaar dat centraal aangeboden ontsluiting (denk bijvoorbeeld aan een API voor samengestelde bevragingen) onder water gevoed wordt door een federatieve structuur van databronnen. En verder redenerend langs die lijn, zou het ook goed kunnen dat huidige ketens van bronhouders naar landelijke voorzieningen (in beide richtingen: zowel aanlevering als synchronisatie) meer op federatieve wijze worden ingericht. Data blijft dan dichter bij de bron, maar de federatieve structuur borgt dan de overkoepelende samenhang. Het resultaat (consistente, betrouwbare en uniforme datasets) blijft hetzelfde, maar de wijze waarop dat resultaat behaald wordt, zal wijzigen. Bij afwegingen over het al dan niet meer op federatieve wijze inrichten van ketens, zal altijd gekeken moeten worden op welke wijze de kwaliteit voor de gebruikers het best geborgd kan worden, welke inrichting het meest kosteneffectief is en hoe bronprocessen zo efficiënt en doelmatig mogelijk ingericht kunnen worden.
Eén federatieve structuur kent iedereen: het internet. Waar het wereldwijde web ooit begon als web of documents, worden en zijn er steeds meer stappen gezet om er ook een web of data van te maken. En mede dankzij initiatieven als de Spatial Data on the Web Best Practices, maakt ook ruimtelijke data steeds nadrukkelijker deel uit van dat web. Het ligt daarmee voor de hand om voor de ordening van federatieve structuren aan te sluiten bij de standaarden van het web, zowel de huidige als de toekomstige. Denk bijvoorbeeld aan een ontwikkeling als Solid (Social Linked data), geïnitieerd door Tim Berners-Lee, dat zich nadrukkelijk neerzet als decentralisatie-project op het web: data moet weer decentraal en onder volledige controle van data-eigenaren (in veel gevallen de burger!) komen te liggen. Dergelijke decentralisatie is wellicht de meest vergaande variant van een federatieve structuur. In Vlaanderen zien we de eerste voorzichtige stappen om dat gedachtengoed een plaats te geven binnen de ontwikkelingen van de digitale overheid.
Het is overigens goed om te benadrukken dat een overgang naar een federatieve structuur niet het einde van alle centrale voorzieningen betekent. Sterker nog, hoe meer de focus op de gebruiker wordt gelegd, hoe belangrijker een aantal centrale voorzieningen worden waar gebruikers eenvoudig data kunnen vinden en afnemen. Vergelijk dit met het concept achter MijnOverheid, dat voor burgers fungeert als centrale ingang voor tal van onderwerpen. Onder water komen deze gegevens uit allerlei verschillende systemen, maar de gebruiker wordt hier idealiter niet mee lastig gevallen: die vindt alle data op één plek. Voor een ontsluitingsvoorziening als PDOK geldt hetzelfde: wanneer de data-gebruiker niet alle achterliggende systemen en organisaties hoeft te kennen, dan neemt dit drempels weg voor breed gebruik van die data. En net als bij MijnOverheid betekent dit niet per sé dat alle data centraal bij PDOK opgeslagen hoeft te worden; het draait erom dat de gebruiker op één plek geholpen wordt. Want het zou -met de opmerking over de impact van federatieve structuren op ketens in het achterhoofd- goed kunnen dat niet elke Landelijke Voorziening straks meer de vorm heeft van een centrale database waarin alle data opgeslagen is; maar dat neemt niet weg dat een gebruiker de benodigde data net zo eenvoudig op één plek wil kunnen vinden. Als daarvoor onder water een federatieve structuur aangeroepen wordt, is dat prima, zolang de gebruiker er maar geen negatieve gevolgen ondervindt. Voorzieningen als MijnOverheid en PDOK 2.0 zijn daarmee (veel) meer dan alleen de verwijzer naar de afzonderlijke databronnen: de gebruiker wordt ontzorgd doordat de federatieve structuur één duidelijke voordeur heeft.
Een andere belangrijke eis aan de centrale ingangen van een federatieve structuur, is dat ze niet alleen gericht moeten zijn op de menselijke gebruiker, maar ook op de crawlers van zoekmachines. Want die crawlers brengen het immense web van data in beeld, waarmee het mogelijk wordt om in zoekmachines de gezochte data aan zoekende gebruikers te kunnen tonen. Uiteindelijk is het zoek-veld in Google of eender welke zoekmachine namelijk de meest generieke en best gekende centrale ingang voor het web. In het streven om geodata zo laagdrempelig mogelijk toepasbaar te maken, is het vindbaar zijn direct via die universele voordeur een must.
Een andere belangrijke ontwikkeling, die niet alleen voortkomt uit het toepassen van federatieve structuren, is de groeiende aandacht voor beveiliging. Door de digitale transitie groeit de afhankelijkheid van data, systemen en ontwikkelaars. Daarmee wordt de impact van een hack, sabotage of programmeerfout op de dienstverlening van de overheid steeds groter. Dat maakt dat de digitale infrastructuur steeds meer ook als vitale infrastructuur beschouwd moet gaan worden. Niet voor niets is 'digitale weerbaarheid' één van de zeven speerpunten van de Nederlandse Digitaliseringsstrategie 2021 en één van de tien van de I-strategie Rijk 2021-2025. Ook voor de NGII geldt dat er structureel aandacht nodig is voor mogelijke kwetsbaarheden, zowel op het niveau van systemen als op het niveau van de data zelf.
Bij steeds meer maatschappelijke vraagstukken lijkt datagedreven werken een onmisbare rol te gaan spelen. Tal van organisaties experimenteren hiermee, ook steeds vaker onder de noemer digital twin. De beweging die is ingezet, is onmiskenbaar. Maar wat vraagt dat van de NGII? Welk deel van datagedreven werken organiseer je binnen de NGII, en welk deel erbuiten? Welke rol speelt de overheid, en welke rol speelt de markt? Om datagedreven werken in het publieke domein goed te faciliteren, moet de NGII een aantal randvoorwaarden invullen. Om de stap naar de NGII 2.0 te maken, zijn (geordend per onderwerp) de volgende ontwikkelingen nodig:
Component Basisdata
Component Coördinaatreferentiesystemen
Component Ontsluiting
Component Governance
Architectuur
Wanneer de ambities verder reiken, en we niet alleen de NGII 2.0 willen realiseren, maar zelfs een Nationale Digital Twin Infrastructuur voor de fysieke leefomgeving, dan is er nog meer nodig. Want naast alle bovengenoemde componenten van de NGII 2.0 is het dan ook noodzakelijk om die afsprakenstelsels in te richten, die nodig zijn om tot een federatieve structuur te komen die naast de 'traditionele' NGII-inhoud ook services ontsluit van o.a. dynamische data, rekenmodellen, visualisatie en serious gaming. Die services kunnen door zowel publieke als private partijen worden aangeboden. De NDTI richt zich dan ook niet zozeer op het zelf aanbieden van al die services, maar juist op het veilig en effectief kunnen gebruiken van die services.