IS CSRU - Rozbor

Chyba v úvahe. Neexistuje, aby sa ušetrilo na osobných nákladoch. :wink: To by bolo v rozpore siným projektom. Ktorý priamo v zadaní má:

“V súlade s cieľmi OPIS má byť na konci programového obdobia 2007-2013 vytvorených 1 541 pracovných miest ako priamy dôsledok implementácie programu.” - na analýzu ako sa to podarilo bolo vyčlenených 118 500,00 €. V tom projekte sa nehovorí nič o kontrole úbytku na základe odstránenia administratívy.

(Názov projektu: Zabezpečenie analýzy vplyvu operačného programu Informatizácia spoločnosti na tvorbu pracovných miest (21140120041))

Ako vypočítali tú tabuľku? Podľa tohto:

V záverečnej CBA, ktorú predkladali po ukončení projektu, sa im tá návratnosť ešte zlepšila na rok 4, nie 6.
Narástli tam totiž nepriame úspory času používateľov, čo sú vlastne úradníci na druhej strane, ak tomu dobre rozumiem:

V tej pôvodnej je len toto:

Tiež by ma zaujímalo, čo sú toky výmeny údajov, tipujem z brucha, že je to programovanie nejakého prepojenia dvoch systémov, ktoré nemali spolu komunikovať?

Samozrejme, nikde nie je popísané, že ako tá úspora HR nákladov skutočne nastane - vyhodia sa ľudia? Nebudú sa hireovať noví, lebo týchto presunieme inam?

2 Likes

:scream: Toto znamena, ze vychadzaju z toho, ze pokial sa ten system nespravi, sa budu kazdy rok cistit a opravovat stale tie iste udaje?

Tak ako píšu v tej štúdii: priemerný ročný počet údajov, ktoré vyžadujú korekciu, je 300 000.
Neviem čo presne tým myslia, ale tak asi čakajú, že sa každoročne nájdu nejaké chyby…

Teda predstavujem si to tak, že niekto v OR zadá meno firmy a zoznam konateľov spolu s adresami.
Potom si jeden z konateľov zmení trvalý pobyt.
Táto zmena sa prejaví niekde inde a v OR je teda “chyba”. Tak ju treba manuálne opraviť?
Alebo niekto v SP spraví preklep a nebude sa dať automaticky spojiť SZČO, registrovaný v SP, so SZČO v ŽR?
Alebo sú to iné chyby?

Ja to chapem takto:

V momente ked sa vyhlasi register za referencny, plati prechodne obdobie, ked sa musia v systemoch zacat pouzivat identifikatory, ktore smeruju na referencne registre/data. Cize napriklad teraz mame ako referencny RPO, tak vsetky systemy by mali zacat pouzivat identifikatory z RPO. Ak chcu mat okrem identifikatora aj ine udaje (to asi urcite chcu), tak si ich musia dotiahnut - proste tam musi byt nejaka synchronizacia.

Lenze, toto nema vobec nic s CSRU. Uspora toho, ze uz nebude treba robit taketo opravy nie je zasluha CSRU, ale toho, ze mame referecny register a iny system sa na neho napoji. CSRU toto cele len centralizuje a dava na jedno miesto. Z tech hladiska je jeden integracny bod dobry napad, ale ta uspora bude uplne ina a udeje sa uplne inde.

1 Like

S DFS to nebude take lahke.

Zvysok tu:

CSRU-plan.pdf (31.9 KB)

zonfp_CSRU.ZIP (4.4 MB)

neprepadaj panike, keďže termín tak takto, myslím, že chceme a možno aj vieme vyhovieť

1 Like

Bude to riesit aj service discovery pre uz existujuce API? Je to podla teba lepsie riesit centralne alebo nechat API na jednotlive projekty a spravit discovery API. Budu cez to komunikovat aj systemy medzi sebou v sulade s eat your own dog food?

Z toho co som cital to tak nevyzera.

Dokonca je to v zakone platnom od zaciatku roka, ze ina moznost ako sa dostat k ref udajom ako cez toto nie je.

Inak ten som otvoril a prestavam uplne rozumiet co ten system vlastne robi. Integracny_manual_sluzieb_v1.6.5 (1).odt (977.5 KB)

Toto su sluzby co to ma robit.

V tabulke pojmov.

Toto chcem vidiet v praxi. Ale ine ma zaujalo. Co su to teda tie konsolidovane udaje? Ked opravu treba vykonat v referencnom registri? CSRU predsa nemoze len tak nieco zmenit a poslat to konzumentom. Ci?

Toto je bez komentara.

Volajme to teda Schrodingerova operacia.

Toto sem musim dat cele. Nahrate na SFTP data, zavolate SOAP sluzbu s menom suborov, spusti sa import, potom sa spusti kontrola kvality udajov pricom vystup sa ulozi na SFTP a niekto dostane emailom odkaz na tento subor. WOW.

Nieco o tom ako bude prebiehat vymena dat.

V skratke - jedenkrat a dost, ale az zajtra. Kedze synchronizacia sa deje v davkach. Pripadne bude treba pouzit synchronne volanie, ktore prelezie cez ESB v CSRU, vojde do sluzby v zdrojovom/referencom registri a vrati to oblukom odpoved.

Tie casy odozvy pre synchronne sluzby dufam nie su v sekundach.

Z tohto co som doteraz videl to bohuzial vyzera tak, ze kupili Talend, k tomu prilepili ESB a vystavili sluzby Talendu cez nejaky divny SOAP/SFTP interface.

BTW ceny Talend

Roundtable youre counting 6k USD per developer plus maintenance per year, gut i guess its highly negotiable, depending on team size and skills of your sides negotiating skills :wink: But don’t quote me on that one.
https://www.quora.com/What-is-the-commercial-license-cost-of-the-Talend-ETL-tool

a

http://assets-production.govstore.service.gov.uk/G5/0895/5.G5.0895.018/QD4/Talend%20Pricing%20Document.pdf

Pozor rok 2013.

Myslim, ze teraz je naozaj na mieste otazka, ze co sa v tomto projekte urobilo za tych 12.5 miliona eur (teda celkova suma - licencie v SU). Naozaj velmi zaujimave by boli zdrojaky a vykazy.

1 Like

to mám pochopiť tak, že čoskoro pristane 211tka na toto? Alebo to som si mal iniciatívne domyslieť? :slight_smile:

cista provokacia :smiley:

1 Like

CSRU mal poskytovať ISVS údaje z iných ISVS. Napríklad ak k agende dane z nehnuteľnosti potrebujete potvrdenie o tom, že riešený človek je TZP tak by ste ho nemali vôbec zháňať, či pytať od občana (či elektronicky alebo listinne ) ale pri riešení agendy spravíte dopyt na CSRU a ono vám to vráti údaje, ktoré inak su v UPSVaR a teda nie je potrebné sa pre nejaké dáta integrovať na x IS, stačí na jeden. Tie sync naprieč IS (zmena bydliska to by mohol robiť tiež, ale nato momentalne pripraveny nie je (pokial ja viem). Ak si dobre pamatam, tak sa začal robit niekedy na jar 2015, v auguste sme uz mali testy na tu ich uni-sluzbu a v novembri nam pustili prod. Cize sa to robilo rychlo, preto aj by som celkom zvedavy na vykaz prac lebo to uz idu do stoviek ludi :). Ta cena je celkom sok. Som tak myslel ze to stalo desatinu. Za pol roka dat cca 10 mil, aj ked dam 800 Eur MD tak to vychadza ze tam muselo robit minimalne 80-100 ludi sucasne. A to by sme na slovensku asi pocitili. Ibaze by to HP robilo v indii.

5 Likes

A post was merged into an existing topic: Kto s kým a ako – alebo modul úradnej komunikácie (CSRU, G2G, MVSR-RFO a spol., RPO)

FYI: Poslal som dnes dalsiu infoziadost k projektu, pytam si vykazy, akceptacne protokoly, hw specifikaciu, etc. Az pride odpoved tak sem hodim.

Pribeh s DFS je smutnovtipny.

  1. Odpoved na prvu infoziadost som dostal z UPII aj MF. Bola takmer identicka (az na tel. kontakt), co ma zmiatlo az natolko, ze som volal na ine cislo a pytal, sa ako dopadlo vyciernovanie DFS a jej spristupnenie. Samozjreme pani na UPII netusila o com som sa rozpraval s pani na MF. :slight_smile:

  2. Budem tam musiet ist osobne, lebo: Vyciernovanie by zaberalo vela casu , su tam vraj nejake informacie (asi o kritickej infrastrukture), nemaju to v el. forme (!!!) a museli by to skenovat, a je to dlhe (300+ stran). Sice uplne nerozumiem ako vyciernovanie zaberie vela casu a pripravenie dokumentu, aby som do neho mohol nahliadnut sa lisi, ale budiz. Cize tam na buduci tyzden skocim a budem si to pozerat na mieste. Potom sem napisem nejake highlights.

vela odpovedi by mal poznat Albin Kotian
vsade kde zbadate jeho meno zacnite klast dobre otazky

Rychla info ku dnesnej navsteve na MF. Dali mi nahliadnut do DFS, bolo to vsak znacne vybielene co ma prekvapilo. Cakal som, ze vybielia klasicky - informacie o infrastrukture, lokacii hw, ip adresy. Tak som ako prve pozrel obsah, ze co mi to nespristupnili.

Nieco som nafotil, najdete to tu lepsie otocene a tu.

Zoznam toho co mi vyciernili (strany - co tam je podla obsahu):

  • 109-139 - model databazy ovm
  • 145 - nieco zo spravy pouzivatelov
  • 147 cast
  • 151 adminstracna konzola
  • 197 - softverove a aplikacne komponenty
  • 211 - 240 struktury poskytovanych dat

Z tohto ma samozrejme naviac zaujimali prilohy 211-240 kedze podla vsetkeho by z toho bolo jasne, ake data tam su, v akom rozsahu a pripadne aj ake sluzby (mimo tych generickych co som spominal uz vyssie) to vlastne poskytuje. Nedozvedel som sa takmer nic nove. V kazdom pripade mi nie je vobec jasne ako moze byt databazovy model alebo class diagram citliva informacia. Pri inych projektoch to bezne spristupnuju.

Z toho co som narychlo preletel.

Strana 140 - Potvrdzuje sa, ze gro projektu je Talend. Na obrazku su tie sive mimo Talend, zvysok je kupena krabica.

Keby niekto pochyboval tak hned na 141 je tabulka.

Zaujimalo ma co tam teda je okrem tej krabice Talend. Je tam cast ktora riesi logovanie requestov, je tam cast ktora riesi ziadosti o integracie (toto je vtipne lebo to vyzera byt len nieco co mohol nahradit lubovolny issue tracker), dalsia cast je administracia pristupovych prav, a samozrejme vrstva co riesi samotne sluzby smerom von (preklada ich na talend).

Na strane 202 ma zaujala poziadavka na zalohovanie 50TB a 10TB dat. Z priloh sa da tusit ake data tam su, neverim, ze toto je adekvatne.

Strana 202+ je implementacny plan.

Inak zaujimave ze v takomto dokumente su take trosku utrzky co vyzera ako manual Talendu + vysvetlovanie usecase diagramov. To som este nevidel. 250 stran za 2M+ eur je slusne. Nepride mi to nijako velmi zlozite. Specialne ked vsetko tazke riesi Talend.

Dalsie kroky:

  1. Vyziadame opatovne prilohy, a budeme ziadat zdovodnenie na zaklade coho boli tieto casti nespristupnene.
  2. Uz by sa tu mohol konecne ozvat niekto z HPE, ze co to vlastne okrem Talendu robi a ake sluzby to poskytuje.
4 Likes

Možno to bola špeciálne vybielená verzia pre SD / teba konkrétne.

Samozrejme, ze to bolo specialne vybielene pre mna. Ved ja som si to siel pozerat. Inak to bola original dokumentacia, len bola zospinkovana a zakryte casti (vid fotky) co som nemohol vidiet.

FYI: Oslovil som dodavatela HPE - nech sa vyjadria tu na platforme, ponukli mi stretnutie. Kedze mi tam bezia este nejake infoziadosti, tak som to nateraz este odmietol s tym, ze nech radsej vyjadria tu na platforme.