Wees realistisch, organiseer het onmogelijke
Wees realistisch, organiseer het onmogelijke
Tekst Theo Kremer
Theo Kremer is informatiespecialist bij ingenieursbureau Amsterdam
Amsterdam, stadhuis, 2010. Ja, goedemorgen... Wat zegt u? Of u op het plein een kantoortje kunt plaatsen? Geen idee, u bent de technicus. O, u bent op zoek naar informatie over de ondergrond van het Waterlooplein? Hoe de metro loopt, hoe de kabels en leidingen lopen en of er eventueel nog andere obstakels verwacht kunnen worden? Goede vragen, maar wat ik niet heb kan ik niet leveren. Veel van dit soort informatie is ontstaan in de periode van grote reorganisatorische veranderingen en juist uit deze periode is veel verdwenen. O, dan durft u de bouw niet aan? Jammer, maar leuker kan ik het nu niet maken.
Inmiddels is een groep van ongeveer twintig professionals vrijwel continu werkzaam met het in kaart brengen van ondergrond, bruggen, kades en andere aspecten van de Amsterdamse fysieke ruimte. Twintig? Tot 5 jaar geleden beschikten de technische afdelingen van de gemeente over een technisch onderlegde historicus en tot 1990 over een uitgebreide infrastructuur waarin de data werden vastgelegd. De historicus deed enkel het specialistische onderzoek naar obstakels die niet in de eigen archieven terug te vinden waren. Sinds de oude informatie-infrastructuur is opgeheven, is ook specialistische kennis nodig om informatie op te halen die vroeger voor iedere projectmedewerker gemakkelijk beschikbaar was. De behoeften zijn niet veranderd, de beschikbaarheid wel.
Waslijst
Waar hebben we het over, als we spreken over hergebruik van data? Data zijn de spiegel, de alter ego van het ecosysteem dat wij omschrijven als het ruimtelijk domein: de afvalwatersystemen, de drinkwatersystemen, de elektriciteitsvoorzieningen, de warmtevoorzieningen van traditioneel gas tot het palet van warmtekoudesystemen, afvalwarmte, warmtepompen, etcetera. Maar ook de wegen, kunstwerken als bruggen, tunnels, dijken. En niet te vergeten de obstakels vanuit het verleden, die zich nog steeds in de ondergrond bevinden, zoals oude stadsmuurresten, niet-getrokken palen, funderingsresten van gebouwen, vervuiling die al dan niet is opgeruimd. En ondanks deze waslijst is deze opsomming niet meer dan een aanzet tot een beeld. Het beeld dat ieder aspect in de fysieke leefomgeving een datacomponent heeft of heeft gehad en nu al dan niet beschikbaar en bruikbaar is.
Voorspellen is lastig
Hiervoor heb ik de waarde van versplinterde veelal papieren archieven onderstreept, of de digitale versie van dit papier, de gescande pdf. Maar bij hedendaagse ingrepen in het fysieke domein wordt vaak gewerkt met complexe data(bases). Ook deze fysieke ingrepen lossen alleen de huidige problemen op en normalerwijs is er maximaal over 20 jaar weer behoefte aan een nieuwe ingreep op dezelfde locatie, tenzij eerder ten gevolge van nieuwe inzichten over beheer, energiegebruik, duurzaamheid of een andere reden die we nu nog niet in beeld hebben. En een nieuwe ingreep vraagt om oude data. En dan rijst de vraag: hebben wij onze nu nieuwe data in de tussenliggende periode zodanig verzorgd dat deze bij toekomstig gebruik nog steeds interpreteerbaar en bruikbaar zal zijn, of loop je een serieus risico dat de computer nee zegt? Hierop is geen eenduidig antwoord. Voorspellen is lastig, zeker als het over de toekomst gaat, maar we kunnen er wel een risicoanalyse op loslaten. Bruikbaarheid van data over een lange termijn vraagt om open standaarden. Open, omdat we niet tot in de verre toekomst een betaalde relatie willen met onze softwareleveranciers om bij onze data te kunnen. Temeer omdat de bulk van de data bij grootschalige veranderingen alleen relevant is bij die grote ingrepen. En de bereidheid om langjarig fors te betalen voor de beschikbaarheid van software waar deze data in zitten versleuteld niet erg groot is.
Open standaarden
Stel dat er onverhoopt een bezuiniging nodig is tijdens deze 20 jaar. Hoe zeker weten wij dan dat dit databeheer buiten schot blijft? Besef ook dat beheer niet sexy is en relatief weinig mogelijkheid biedt tot profileren. Hooguit vormt het een afbreukrisico bij calamiteiten. Vaak zijn het juist calamiteiten die leiden tot een vaak kortstondig opleven van aandacht en daarmee de beschikbaarheid volgt van geldstromen om achterstallig onderhoud op te heffen... Tot de volgende bezuiniging. Open standaarden kunnen een deel van deze problematiek voorkomen, temeer omdat de community waarin dergelijke standaarden worden doorontwikkeld, naast lagere kosten, ook om betrokkenheid vragen die voorkomen dat de aandacht voor dergelijke cruciale data geheel uit beeld verdwijnt. De data krijgen daarmee een stem die de kans op verdwijnen kleiner maakt. Natuurlijk is het losknippen van data van de software de oplossing, waardoor de data applicatieonafhankelijk geraadpleegd kunnen worden. Maar weten we welke functionaliteit we nodig hebben om goed en slim gebruik te kunnen maken van deze data? Of lopen we het risico dat we wel de data hebben, maar niet de juiste applicaties om de vragen waar we in geval van een grootschalige renovatie of calamiteit antwoorden op willen snel beschikbaar en herbruikbaar te krijgen? En hoe weten we dat, als we de beschikbaarheid en de bruikbaarheid in de tussenliggende jaren niet hebben getest oftewel goed hebben beheerd?
Container
Misschien betekent hergebruik van data wel steeds meer integraal gebruik van data. En zouden we kunnen inzetten op integraal beheer van de fysieke ruimte, inclusief haar dataspiegel. Beheren als een ecosysteem, waarbij we zo veel mogelijk inzetten op het geheel. Hierbij speelt nog een andere uitdaging. We zijn traditioneel gewend om organisatiegebonden te denken. Iedere organisatie heeft haar eigen taak en is ook automatisch verantwoordelijk voor haar eigen geheugen. Verandert de taak, bijvoorbeeld omdat op moment x het bestuur van mening is dat beheer overgelaten moet worden aan de markt, dan stoppen organisatieonderdelen, worden onderdelen van het fysieke geheugen anders ingericht, afgestoten, overgedragen of een andere wijziging, waardoor het in de (nabije) toekomst alleen mogelijk is voor een specialist om data die op later moment toch relevant blijken te zijn beschikbaar te krijgen? Ik spreek hier nog niet over de wens/eis om data over de fysieke ruimte in systemen te hebben waar iedere technicus anno 2022 mee werkt. Een paar jaar geleden werd mij gevraagd om gegevens over een tunnel. Ik leverde een volle postcontainer met de complete vergunning aan. Op papier, digitaal was er niets beschikbaar. De container heeft 2 jaar naast het bureau van de medewerker gestaan. Onaangeroerd. Na die 2 jaar liet hij zich ontvallen dat hij die data nu toch echt wel nodig had. Ik wees naar de container. Nee, daar kon hij niets mee.
Aanbevelingen
Concluderend: willen we adequaat op dit vraagstuk reageren, dan kan alleen een integrale benadering ons helpen. Redenerend vanuit een gewenste eindsituatie van een data-omgeving die een spiegel is van het ecosysteem fysieke omgeving. En dat ook meegroeit. Praktisch heeft dat een aantal gevolgen:
- Organiseer de governance, zodat de verantwoordelijkheden goed onderkend zijn en iedereen in zijn of haar kracht staat. Maak een onderscheid tussen het beheren van data en het ter beschikking stellen van data. Beheren is fundamenteel iets anders dan het in mooie nieuwe omgevingen beschikbaar maken. En beide zijn nodig en je maakt velen ongelukkig als je dat mengt. Maak databeheerders en degenen die data beschikbaar maken niet verantwoordelijk voor inhoudelijke verificatie. Leg dit neer bij enerzijds de groep die de fysieke omgeving of delen ervan beheert of bij degenen die de grootschalige wijzigingen organiseren of uitvoeren, afhankelijk van de soort data. Laat deze mensen in een loop samenwerken. Over de domeinen heen.
- Organiseer de actuele situatie naar de toekomst (het verleden van morgen). Doe dit op het meest optimale niveau met open data. En betrek ook hierin alle disciplines, zowel archiefspecialisten als wetenschap (zowel technische universiteiten als archiefwetenschappen), maar ook de fysieke beheerders en degenen die de grote wijzigingen in de fysieke omgeving organiseren. Dus ook hier samenwerken over de domeinen heen.
- Organiseer het verleden. Maak met terugwerkende kracht die data beschikbaar die nu verspreid zijn over vele archieven, lades, systemen, mailboxen, verouderde databases, etcetera, en stel de vraag: leveren deze data inzicht in het ecosysteem van nu? En voeg dit dan in de dataset die het ecosysteem bedient. En ook hier: betrek alle disciplines die hiervoor beschreven zijn.
- En tot slot, besef dat we groot moeten denken, samen moet willen werken, domeinoverstijgend. Wees realistisch, vraag en organiseer wat door velen voor onmogelijk wordt gehouden.