• Nem Talált Eredményt

Az okos kormányzás jogi kérdései

In document AZ OKOS VÁROS (Pldal 105-108)

Nemeslaki András

5.3. Az okos városigazgatás céljai és folyamata

5.3.4. Az okos kormányzás jogi kérdései

Az okos kormányzás nagyon fontos területe az IKT-fejlődés és a jogi szabályozási rend-szerek harmonikus egymáshoz illesztése. A magyar közigazgatás e-kormányzási tapasz-talatai a jogi szabályozás előreszaladását mutatják, amely igen sokszor vezet ahhoz, hogy a helyi és központi szervezetek csak komoly erőfeszítéssel tudnak megfelelni számos jogi determinizmusnak. Ezzel sokszor párosul az, hogy kisebb településeken a fejletlen infra-struktúra és eszközpark használatának nehézségei általánosan negatív élményeket jelentenek az állampolgároknak és a tisztviselőknek is.

Például a 2018. január 1-től hatályba lépő elektronikus ügyintézési törvény lehetővé teszi jogszabályi szinten, hogy az ügyfél ügyintézési cselekményeit elektronikus úton vé-gezze, nyilatkozatait elektronikus úton tegye meg. Ugyanakkor az empirikus adatok azt mutatják, hogy az ügyfelek és a kormányhivatalok egyaránt sokkal jobban preferálják a sze-mélyes ügyintézést – a nagyobb bizalom, az alacsonyabbnak tartott kockázatok és a hatéko-nyabbnak gondolt átfutási idők miatt [Kaiser 2017]. Az NKE Jó Állam Jelentése igazolja, hogy a kormányablakok elérése jelentősen javult az elmúlt időszakban, azaz a személyes ügyintézéshez szükséges idő csökkent. Ez a pozitív eredmény viszont abba az irányba hat, hogy a polgárnak ahelyett, hogy inkább online intézné ügyeit, jobban megéri befáradni a legközelebbi kormányablakba. A közigazgatás óvatos, hiszen senkit nem „hagyhatunk hátra”, de az okos kormányzás feladata az emberek jelenleginél hatékonyabb terelése az

on-KORREKTÚRAPÉLDÁNY PB

line felhasználás irányába. Nem elsősorban az idősebb korosztálytól kell valószínűleg ezt elvárni, hanem azoktól, akik már eleve internethasználók.

Jogi szempontból három nagy kihívást jelent az okosváros-koncepció a kormányzás, illetve az igazgatás számára; az első a magánszféra és a biztonság úgynevezett alkumodell-jének a feloldása, a második az adatvédelem és az információszabadság szorosan kapcsolódó területe, a harmadik pedig az egyelőre embrionális fázisban levő algoritmusetikai kérdések.

A magánszféra kérdéseit, azaz hogy az egyén hogyan viszonyul az őt érő támadá-sokhoz, ellenőrzéshez, esetleg szabadságának korlátozásához, számos esetben gondolták újra a jog és társadalomtudomány különböző területein [Székely–Somody–Szabó 2017a].

Említhetjük például 2001. szeptember 11-ét, amely után a világ nagyot változott a ma-gánszféra prioritása megítélésében – a „békén hagyás jogosultsága (the right to be left alone)” – a társadalmilag ugyancsak komoly értékkel bíró biztonság prioritásával szemben.

Azóta is számos terrortámadás történt a világ több pontján, amelyek folyamatosan napi-renden tartják a demokratikus államok egyik legnagyobb újkori kihívását; azt, hogy létezik-e alku a személyiségi jogokat érintő magánszféra feladása, illetve az állam gon-doskodó beavatkozása között a nagyobb társadalmi biztonság megteremtése érdekében.

Az USA-ban a National Security Agency (NSA) felállítása egyértelműen nemzeti érdekekre hivatkozással történt, ez a logika a terrorizmussal küzdő államokban, mint például Izrael, Libanon, Palesztina stb. igen jelentős érvként hangzik el. Ugyanakkor szinte észrevétlenül bekúszott a probléma azokba a társadalmakba is, amelyek az ilyen drámai konfliktusoknak nincsenek kitéve, mégpedig lényegében az IKT – különösen az internet és a robotika – fej-lődésének köszönhetően. Különösen a térfigyelő kamerák, a civil használatban levő drónok, a kereskedelmi tranzakciókban szinte kikerülhetetlen okostelefonos követési megoldások, az elsősorban bűnözési felderítéshez használt internetes megfigyelés, végül a jelenleg még hazánkban nem nagyon elterjedt, de dinamikájában gyorsan fejlődő biometrikus azonosítás emelhető ki [Szénay 2017a]. Az ebben publikált empirikus vizsgálatban részt vevő 9 or-szágból ezeket az IKT-innovációkat a magyar mintában részt vevők ítélték meg a legkevésbé aggodalmasnak magánszférájuk megsértésére, mégpedig a 72%-ban „aggodalmaskodó”

átlaggal szemben mindössze 38%-ban, ami a minket közvetlenül megelőző Egyesült Ki-rályság „aggódó” szintjének is alig fele. Úgy látszik, mi magyarok nem érezzük veszélyben privát szféránkat a modern megfigyelési technológiákkal szemben.

Székelyék cikke azért nagyon fontos elméleti kiindulópont, mert leszámol azzal a le-egyszerűsítő gondolatkörrel, hogy a magánszféra és a biztonság egyensúlya egy közgazda-ságilag zéró összegű játék lenne, illetve amellett érvel, hogy nem fog születni fenntartható

„biztonsági kormányzási modell” (governance of security), ha nem gondoljuk újra a magán-szféra koncepcióját az információs társadalom kontextusában [Székely– Somody–Szabó 2017a]. Ennek az újragondolásnak pedig a vezérfonala abba az irányba kell hogy elin-duljon, hogy ontológiailag nem egymással ellentétes fogalmakként kell szembeállítanunk a magánszférát és a biztonság iránti igényt, hanem mindkettőnél a közjószágból kiinduló felfogást kellene alkalmaznunk. A cél nem egy „alkumodell” optimalizálása, azaz egyen-súlykeresés, hanem a probléma átfogalmazása, a belső paradoxonok feloldása, illetve egy alaposabb magánszféra- és biztonságfogalom használata. Az IKT-eszközök elterjedése szempontjából ennek azért van igen nagy jelentősége, mert a privát szférát leggyakrabban nem a „kaszárnyaállam” támadja – természetesen a demokrácia szempontjából ez komoly probléma –, hanem a felhasználók mindennapi viselkedése, felkészületlensége, és olyan

be-PB KORREKTÚRAPÉLDÁNY

vett gyakorlatok, amelyek egy más technológiai paradigmához kötődnek (például a fizikai biztonsághoz, nem a digitális lábnyomok következmények nélkül hagyásához).

A jogi szabályozás egyik fontos pragmatikus iránya, hogy az európai hagyomá-nyok alapján – a Német Szövetségi Alkotmányból kiindulva, de azon messze túlmuta-tóan – a jogok konfliktusát az úgynevezett arányosság koncepciója szerint oldhatjuk fel [Székely–Somody–Szabó 2017b]. Ezt a koncepciót tette magáévá a strasbourgi Emberi Jogok Európai Bizottsága (EJEB), amely az Európai Emberi Jogi Egyezményben (EEJE) foglalt korlátozási klauzulákat az arányosság alapján értelmezte. A „strasbourgi módszer”

a jogkorlátozás legitim céljának azonosítását és a korlátozás szükségességének és arányos-ságának vizsgálatát foglalja magában. Az EJEB ítélkezési gyakorlata és az EEJE kerete alapján például [Székely–Somody–Szabó 2017b] az arányossági teszt alkalmazását döntéstámogatási algoritmusként mutatják be, amely rendkívül pragmatikus, „mérnöki”

módon ad eszközt a döntéshozók kezébe az arányossági elv alkalmazására. A döntési algoritmus kérdései a jogkorlátozás céljaira, az adott megoldás alkalmasságára és szük-ségességére – tények alapján adott válaszokra alapoznak. A morálisan megítélhető vagy szűk értelmezésű arányossági mérlegelés a szerzők modelljében csak ezután következik, ami nagymértékben szűkíti az alkumodell „elfogultságát”, azaz az érintettek jogainak indokolatlan korlátozását.

Azzal, hogy szinte minden és mindenki valamilyen formában a kibertérben is meg-jelenik, ezzel kitetté válik arra, hogy a magánszférájába való beavatkozás – akármilyen formája is legyen – technikailag a személyes adatok megszerzésére irányul. Az adatvédelem számos eleme garantálható jogszabályokkal, determinista technológiai megoldásokkal (például az e-közigazgatásban a szakrendszerek tudatos szétválasztásával, az adatok össze-kapcsolásának elvi lehetetlenné tételével) vagy a legkorszerűbb privátszférát erősítő tech-nológiák (Privacy Enhancing Technologies, PET) alkalmazásával védi az állampolgárokat, de ezek sem garantálják azt, hogy a biztonsági incidenseknek kiszűrhető legyen az az igen magas százaléka, amit a munkavállalók, magánszemélyek hanyagsága, gondatlansága vagy egyszerűen ismerethiánya okoz [Szabó–Révész 2017].

A PET-ek fokozatos elterjedése, azok használatának elsajátítása remek példája az úgy-nevezett beépített adatvédelem elvének (privacy by design) [Kiss–Krasznay 2017]. Ennek lényege, hogy a magánszféra-védelem és az adatvédelmi szabályozás elveit integrálni kell a különböző adatkezelési technológiák követelményrendszerébe, így ezeknek az IKT-esz-közök integráns részeivé kell válniuk anélkül, hogy azok funkcionalitása korlátozódna.

A felhasználói viselkedéselemzés szempontjából ezek elterjesztése azért rendkívül fontos, mert az internetes üzleti modellek igen nagy része azon alapszik, hogy a használat során keletkező nagy mennyiségű adat elemzésével felhasználói profilokat készít, és a termékek és szolgáltatások testre szabását, árazását, sőt kiszállítását is ennek megfelelően ajánlja fel.

Igen sokszor ehhez a profilírozáshoz bizonyos előnyök érdekében önként hozzájárulunk, de annak a kockázata is igen nagy, hogy az adatgazdák/adatkezelő tudatosan vagy valamilyen külső támadás következtében kiszivárogtatják védett adatainkat; felhívják a figyelmet arra, hogy a 2018-ban életbe lépő kötelező érvényű Általános Adatvédelmi Rendelet (General Data Protection Regulation, GDPR) igen szigorú rendelkezéseket ír elő a hozzáférési jogok és az elszámoltathatóság vonatkozásában.

A gépi tanulás és a mesterséges intelligencia szoftveres algoritmusai lényegében a robotok uralmához vezetnek el minket [Ságvári 2017]. Ságvári a magyar társadalomtudományban

KORREKTÚRAPÉLDÁNY PB

úttörő módon és alapossággal mutatja be ezzel kapcsolatban két fogalomkör összekapcsoló-dását, és ezek potenciális következményeit. Az egyik a már viszonylag ismert és alkalmazott adatgyűjtés és adatfeldolgozás (big data) világa, a másik az egyre dominánsabb és életünket meghatározó – többnyire ismeretlen és védett – algoritmusok világa. Gondoljunk például Sergey Brin és Larry Page Google-alapítók híres-hírhedt keresőalgoritmusára, amely válla-latok forgalmának sorsát dönti el aszerint, hogy hova sorolja be a találatukat. De ugyanilyen iparági versenyt meghatározó erejű algoritmust rejt a Tripadvisor szállodai értékelő kódja, a tőzsdei kereskedést meghatározó robotok vagy akár a nagy e-kereskedelmi cégek (E-bay, Amazon, Netflix stb.) ajánlórendszerei is. Mennyire bízhatunk ezekben a kódokban? Ho-gyan ellenőrizhetők ezek a transzparencia, diszkriminációmentesség vagy az adatvédelem szempontjából? Mennyire érzékenyek az algoritmusokat készítők ezekre a problémákra, és milyen általános társadalmi kontrollmechanizmusok építhetők be az egyre jobban ter-jedő – egyáltalán nem csak a repetitív, rutinszerű, hanem a kognitív intelligenciát is drámai módon érintő humán képességek automatizálását célzó megoldások auditjára?

Élénken emlékszem, mennyire meglepett Kiss Attila kollégám előadása, ahol megmu-tatta, hogy az irányítószám, születési dátum és nem alapján bizonyos esetekben milyen nagy valószínűséggel tudunk azonosítani konkrét személyeket Magyar ország néhány területén.

Az internetes viselkedés nyilván bizonyos fizikai folyamatok kibertérbe kerülésével válik olyan problémává, amely biztonságos megoldás, mi több, bizalomerősítő jogi szabályozás nélkül nem fogja lehetővé tenni a széles körű bevezetést.

In document AZ OKOS VÁROS (Pldal 105-108)