MIRRI Pracovná skupina K9.4 Lepšie dáta

Tiez som sa pri hlasovani na ostanej K9.4 uz zacinal stracat, ale teda v dokumente v0 5_SP_Otvorene_udaje.docx je teraz (26.9.2017, 23:19) v kapitole “2.1.2 Zlepšiť dostupnosť údajov verejnej správy vo forme otvorených údajov” toto:

Zvýšiť kvalitu publikovaných údajov štátnej správy

  • Podiel datasetov publikovaných minimálne v úrovni kvality 3★ (http://3stardata.info/ ) : 100%
  • Podiel datasetov publikovaných minimálne v úrovni kvality 4★ (http://4stardata.info/) s vysokým potenciálom na znovupoužitie : 90%
  • Podiel datasetov publikovaných minimálne v úrovni kvality 5★ (http://5stardata.info/ ) s vysokým potenciálom na znovupoužitie: 70%
  • Podiel datasetov publikovaných prostredníctvom aplikačného rozhrania (API): 70%

S takymito cielmi suhlasim.

Upresnenie pojmov:

  • tyka sa len/primarne “novych datasetov”, t.j. tych ktore vzniknu pocas implementacie novych alebo upgradu existujucich ISVS vramci OPVII (2018-2020)
  • 4* a 5* sa tyka len casti “novych datasetov” (to je to spojenie “s vysokým potenciálom na znovupoužitie”) ktore v kontexte SP Menezment udajov (cast “2.1.5 Prepojené dáta (Linked Data)”) znamena primarne “v rozsahu katalógu dátových prvkov, referenčných registrov, základných číselníkov a entít MetaIS s registráciou daných URI v MetaIS” a mozno niektore dalsie dolezite datasety (zalezitost posudi UPVII resp. centralny datovy kurator … dufajme ze aj nadalej v spolupraci s odbornikmi a verejnostou :slight_smile:)

S tym suhlasim (vid https://utopia.sk/wiki/display/opendata/Design+Open+Data+API ). Ale opat este ujasnenie pojmov:

Cize na PS bol IMHO chaos o.i. aj kvoli terminologii, kedy sa (asi) pozabudlo na to, ze pod 3*, 4* a 5* sa primarne myslia suborove dumpy. Kedze v dnesnej dobe bezne robime “multimodalne” (t.j. ta ista vec je dostupna vo viacerych “serializaciach”, typicky HTML, XML a/alebo JSON, zvykne byt pouzity aj HTTP autonegotiation), tak pridanie nejakeho 4* RDF je vcelku trivialne (a 5* je v SP “trochu orezane” na “dolezite veci”, cize nebudu a s nim trapit vsetci a ti co budu, budu to robit v spolupraci s centalnym datovym kuratorom/kancelariou).

Povedane inak, “dumpty su zvycajne lahke” (a ked nie, robi sa Open Data API) a teda vysoke ciele pre nove datasety na urovni 4* by nemali byt rizikom. A vysoke ciele pre 5* su IMHO tiez OK, kedze sa tykaju “uzsieho vyberu dolezitych datasetov”. A vcelku vysoke ciele pre Open Data API su … opat … IMHO OK.

A navzajom sa (zvycajne) nevylucuju. Samozrejme musime uznat, ze ak sa bude robit aj dump aj API (Open Data), tak to bude stat o trochu (ale nie 2x) viac nez keby bolo robene len jedno. Ale kedze balik OPII na Open Data sa rata na urovni 30-60 prip. viac milionov € a ze napr. vcelku komplikovane Open Data API RegisterUZ stalo cca 20 MD, tak by tym rozpocet na Open Data nemal vyrazne trpiet (“trpim” skor pri pohlade na niektore ine polozky v sekciach “projekty” :slight_smile: ).

2 Likes