Ze clanku mi vyplyva, ze to vytvari diru na trhu - pokud jsou data od statu v takto nepouzitelne podobe, neni nic jednodussiho, nez si na to udelat vlastni pipelinu, ktera je bude stahovat kazdou 1 hodinu (pokud urad poskytuje alespon hashe, lze overovat zmenu kazdou minutu a pripadne stahovat vsechny archivy jen pri zmene). Data zprocesovat do vlastni db a vystavit za poplatek pres graphql.
A kdo bude chtit data konzumovat v rozumne podobe, holt si zaplati tuto sluzbicku. IMO by na to do verejneho cloudu nemuselo ani padat moc prostredku - neni to prilis vysoka zatez.
Dobre, kdyz to reknete takhle, tak ano :)
Pokud nekdo potrebuje pristup k datum jednou za cas, zamorejme by pro nej bylo vyrazne lepsi, kdyby byla data rozumne pristupna rovnou od statu. Ja jsem to myslel spise tak, ze si sice je to nestastne, ale pokud nejaka firma potrebuje tato data analyzovat chvili, tak si takovouto pipelinu udela a nebude to ani tak narocne - ani na clovekohodiny, any na operational costs.