EkonomikaUmelá inteligencia by mala byť politickou témou. Ovplyvní nás viac ako pandémia a vojna, hovorí právnik (+ podcast)

Radovan Geist a Matúš Mesarčík. Foto N - Tomáš Hrivňák
Radovan Geist a Matúš Mesarčík. Foto N – Tomáš Hrivňák

Prečítajte si viac o počúvaní Denníka N.

V J&T BANKE zodpovedne spravujeme majetok rodín už tri desaťročia. V investovaní si budeme rozumieť.

Zákony sú na nové technológie málokedy vopred pripravené a často veľmi ťažko dobiehajú ich rýchly vývoj. Štáty napríklad dodnes nenašli recept na účinné regulovanie sociálnych sietí a prvý ucelený súbor pravidiel pre kryptomeny na svete existuje len mesiac. Poslanci Európskeho parlamentu ho schválili štrnásť rokov po vzniku Bitcoinu.

Preto je správne, že na regulácii umelej inteligencie začala Európska komisia pracovať ešte pred jej masovým rozšírením, v roku 2021. Do toho však v novembri 2022 vstúpil ChatGPT a ďalšie výkonné modely umelej inteligencie, ktoré dokážu písať texty a tvoriť obrázky skoro tak dobre ako ľudia.

Poslanci Európskeho parlamentu sa preto snažili ešte za behu doplniť do Aktu o umelej inteligencii ďalšie pravidlá tak, aby odolal novým rizikám. Na znení upraveného návrhu sa dohodli minulý týždeň. Do rokovaní o jeho konečnej podobe vstúpia ešte ďalšie orgány Európskej únie, no ak všetko pôjde dobre, definitívnu verziu pravidiel môže mať Únia do konca tohto roka.

O čo presne pôjde? Európske pravidlá niektoré nástroje úplne zakážu, napríklad sledovanie obyvateľstva prostredníctvom biometrie či takzvané spoločenské bodovanie – systém vyvinutý komunistickým režimom v Číne, ktorý priraďuje ľuďom a firmám body na určovanie ich postavenia v spoločnosti.

Ďalšie systémy bude schvaľovať a kontrolovať Európska komisia alebo členské štáty. „Bude sa kontrolovať, či bol systém nadizajnovaný tak, že jeho rozhodnutia bude vedieť človek zvrátiť alebo dohľadať, prečo sa tak stali,“ hovorí výskumník z Kempelenovho inštitútu inteligentných technológií a právnickej fakulty Univerzity Komenského v Bratislave Matúš Mesarčík.

Nastavenie pravidiel pre technológie, ktoré majú potenciál zásadne ovplyvniť životy ľudí, je dôležité, pretože ak by štáty nechali rozhodnutia o budúcnosti umelej inteligencie v rukách veľkých technologických firiem, hlavným princípom jej vývoja by bol zisk, nie blaho verejnosti.

O tom, ako čo najlepšie regulovať umelú inteligenciu, sme sa rozprávali s Matúšom Mesarčíkom a so šéfredaktorom portálu Euractiv Radovanom Geistom.

V rozhovore sa dozviete: 

  • na akých princípoch budú stáť európske zákony pre umelú inteligenciu;
  • prečo nenechávať reguláciu v rukách trhu;
  • ako chce EÚ kontrolovať modely ako ChatGPT;
  • prečo by pre umelú inteligenciu mala existovať podobná medzinárodná organizácia ako pre vývoj jadrovej energie.

Čoho sa pri umelej inteligencii treba obávať? Aké sú riziká, pre ktoré ju musíme kontrolovať? 

Matúš Mesarčík: Riziká možno rozdeliť na dlhodobejšie a krátkodobejšie.

Tie dlhodobejšie sú tie, ktoré komunikuje malé percento vedcov a smerujú k tomu, že nás umelá inteligencia ovládne alebo vyhubí. Ale to sú riziká, ktoré sú na úrovni science fiction a ktorým verí minorita.

Regulácia umelej inteligencie sa však bude zameriavať skôr na jej krátkodobé riziká, ktoré vidíme už teraz. Sú to riziká ochrany súkromia, osobných údajov, diskriminácie, predsudkov, životného prostredia a podobne.

Dnes sa zdá, že zatiaľ ešte nemáme konkrétnu legislatívu, ktorá by AI (skratka z ang. artificial intelligence – pozn. E) regulovala. Aké pravidlá pre ňu platia teraz?

Matúš Mesarčík: Zatiaľ vychádzame z právnych úprav, ktoré už máme. Napríklad na ochranu osobných údajov existuje všeobecné nariadenie o ochrane údajov (GDPR), na ochranu autorských práv máme tiež samostatné zákony a tak ďalej.

Tieto právne rámce však boli prijaté v inom kontexte a nie celkom reflektujú výzvy, ktoré prináša umelá inteligencia.

Nebolo by lepšie nechať trh, aby novú technológiu zreguloval sám?

Radovan Geist: Účelom právnej regulácie je nájsť spôsob, ako maximalizovať použitie technológie tak, aby bolo vo verejnom záujme alebo aby aspoň nešlo proti nemu. Účastníci trhu vrátane veľkých firiem sa prirodzene správajú na základe inej logiky. Pre nich je dôležitá maximalizácia ziskov. V niektorých prípadoch môže samoregulácia fungovať, ale to je najmä vtedy, keď reaguje na tlak verejnosti alebo verejných inštitúcií.

Pravidlá potrebujeme preto, aby sme chránili užívateľov technológií, ale aj preto, aby sme dali signál vývojárom, ktorým smerom sa majú uberať.

A opäť, nie je to žiaden nový problém. Napríklad v 19. storočí boli strašne populárne tapety.

Farba, ktorá sa používala v týchto tapetách, však obsahovala arzén, ktorý umožňoval, aby ostala jasná a zachovala sa. Už v tom období sa objavili informácie o tom, že arzén je nebezpečný. Väčšina európskych krajín preto v priebehu 19. storočia prijala zákaz používania arzénu, s výnimkou Veľkej Británie. Tá reguláciu pod vplyvom jedného veľkého výrobcu tapiet – Williama Morrisa – neprijala. Nakoniec to trh vyriešil sám, ľudia pochopili, že arzén je nebezpečný, a prestali ho kupovať, ale trvalo to desiatky rokov, počas ktorých bolo poškodené zdravie mnohých ľudí.

Veľké firmy v sektore, napríklad OpenAI, ktoré vytvorilo ChatGPT, podporujú reguláciu umelej inteligencie. Chcú mať jasné pravidlá, podľa ktorých sa môžu riadiť. Podobné je to aj v kryptopriemysle, kde firmy žiadajú mantinely, v rámci ktorých ich štát nemôže stíhať. Nepoškodzuje to však firmy, ktoré sa ešte len dostávajú na trh? Ich silnejší konkurenti vyrástli v čase, keď ich nikto neobmedzoval, a nové startupy ich skrz regulácie už nemusia vedieť dobehnúť. 

Matúš Mesarčík: Táto dvojkoľajnosť je zdrojom kritiky pôvodného návrhu regulácie Európskej únie – Aktu o umelej inteligencii, pretože systémy, ktoré fungujú už teraz, nebudú musieť pri vstupe na trh spĺňať požiadavky tejto legislatívy. Ale tie nové systémy, ktoré prídu na trh už po účinnosti legislatívy, ju budú musieť dodržiavať. Čiže v určitom rozmere je to pravdepodobne nefér voči tým firmám, ktoré ešte niečo vyvinú a budú chcieť prísť na trh.

Radovan Geist: Zároveň cieľom je, aby sa technológia používala bezpečným spôsobom. Čiže áno, môže to zvýšiť bariéry pre vstup nových aktérov na trh, ale tie bariéry sú odôvodnené ochranou verejného zdravia, práv ľudí a tak ďalej.

Ako ste už spomínali, Európska únia pripravuje zhruba od roku 2021 vlastný Akt o umelej inteligencii. Môžete vysvetliť, na akých základoch a princípoch stojí? 

Matúš Mesarčík: Pripravované európske zákony kategorizujú systémy umelej inteligencie podľa veľkosti rizika, ktoré predstavujú.

Niektoré priamo zakazuje, napríklad sledovanie obyvateľstva prostredníctvom biometrie či zákaz spoločenského bodovania. Gro regulácie sa však bude vzťahovať na takzvané vysokorizikové systémy. To sú napríklad také, ktoré majú filtrovať životopisy uchádzačov o zamestnanie, alebo také, ktoré by chceli použiť bezpečnostné zložky.

Keď niekto bude chcieť takýto systém používať a zároveň fungovať na európskom trhu, bude musieť prejsť kontrolou. To znamená, že tieto umelé inteligencie budú musieť minimalizovať efekty zaujatosti, alebo to, aby sa AI trénovala na najpresnejších, najreprezentatívnejších dátach. Bude sa kontrolovať, či bol systém nadizajnovaný tak, že jeho rozhodnutia bude vedieť človek zvrátiť alebo dohľadať, prečo sa tak stali. 

Keď tieto požiadavky splní, vysokorizikový systém dostane klasické označenie CE a bude môcť byť používaný na európskom trhu. Ale tam sa to ešte nekončí. Ten akt ešte bude vyžadovať, aby aj po tom, čo ten vysokorizikový systém AI bol uvedený na trh, bolo možné sledovať, či robí to, čo má, alebo či nemá byť náhodou stiahnutý z trhu. No a nad tým všetkým musí byť nejaký robustný dohľad – či už zo strany EÚ, alebo aj národných štátov – a za prípadné porušenia budú hroziť pomerne vysoké sankcie. Tá najvyššia je vo výške šiestich percent celosvetového obratu firmy.

Foto N – Tomáš Hrivňák

Ani vývojari, ktorí napríklad vymysleli ChatGPT, presne nerozumejú, prečo funguje tak, ako funguje. Nebude problém takýto nepredvídateľný sektor regulovať?

Radovan Geist: Možno práve preto je dôležitá regulácia. Keď nevieme, ako technológia úplne funguje, mali by sme nájsť spôsob, ako zamedziť jej škodlivej aplikácii. Samozrejme, regulácia sa nevytvára pri stole s úradníkmi v EÚ, pripravuje sa v diskusii so zástupcami sektora a s odborníkmi. Je to dlhý proces, koniec koncov tento trvá 3 roky a pravdepodobne sa ešte o niečo predĺži práve pre túto generatívnu AI, ktorá dokáže „sama“ vytvárať obsah, často ťažko rozlíšiteľný od obsahu vytvoreného človekom. Tak ako pri každej legislatíve ani táto nebude nepriestrelná a pravdepodobne ju bude treba v budúcnosti aktualizovať. Aj preto, že technológia sama sa vyvíja a vyvíja sa aj naše poznanie toho, ako funguje.

Myslíte si, že keď európska regulácia začne platiť, môže napríklad zakázať ChatGPT?  

Matúš Mesarčík: V pôvodnom návrhu Európskej komisie tie generatívne modely vôbec neboli ani spomínané. Pravidlá sa teraz tvoria za behu, no vyzerá to tak, že Akt o umelej inteligencii bude nakoniec regulovať aj takéto systémy.

Veľké jazykové modely, na ktorých napríklad stojí aj ten známy ChatGPT, budú mať ešte striktnejšie pravidlá ako tie vysokorizikové systémy. Všetko, čo som o nich spomínal, bude platiť aj na tieto jazykové modely, no naviac budú musieť mať každý rok audit od nezávislého experta. Dohľad nad nimi bude pravdepodobne vykonávať sama Európska komisia, nie národné štáty.

V ďalšej úrovni regulácie budú modely na generovanie obrazu, tam bude chcieť legislatíva riešiť dáta, ktoré používali na vstupe a na výstupe, či tam nepoužívali nejaké chránené autorské diela alebo nejaké osobné údaje a tak ďalej. Ale vyzerá to tak, že v tomto bude Akt o umelej inteligencii odkazovať na existujúcu reguláciu, lebo netreba vymýšľať pravidlá, ktoré už máme.

Neurónové siete sú technologicky veľmi náročné na pochopenie. Zatiaľ možno nemáme jazyk, ktorým sa o nich rozprávať, keď človek nemá doktorát z informatiky. Nehrozí, že sa preto zákonodarcovia nechajú oklamať technologickými spoločnosťami, že dodržiavajú pravidlá, aj keď ich budú v skutočnosti obchádzať?

Matúš Mesarčík: Toto bude výsostne závisieť od toho, ako sa nastaví dohľad a kto ho bude vykonávať. Či už na úrovni členských štátov, alebo Európskej únie by tu malo vzniknúť niekoľko orgánov, ktoré sa budú starať o to, či sa pravidlá dodržiavajú. V týchto orgánoch by mali byť informatici, technologickí experti, filozofi, sociológovia, ekonómovia a aj právnici. A práve o tom je aj téma umelej inteligencie, o multidisciplinarite. Jednoducho to je téma, ktorú človek iba z jedného odvetvia neuchopí. Keď sa ako právnik pozriem na tú navrhovanú definíciu systému AI, skončil som, lebo nebudem vedieť nejakému klientovi povedať, či jeho systém napĺňa predpisy. To mi bude musieť povedať informatik.

Radovan Geist: Plus regulácia je do istej miery iteratívny proces. Učíte sa z toho, ako poznávate technológiu. Môžeme si pomôcť tým, ako prebieha snaha o reguláciu sociálnych sietí. Dnes už asi nikoho nepresvedčia, že sú neutrálnym priestorom, kde každý môže povedať, čo chce. Fungujú na základe algoritmov, ktoré podporujú alebo nepodporujú určité druhy prejavu. Aj tam sa ešte učíme. Stále nemáme účinnú reguláciu ich použitia a premýšľame, ako regulovať ich použitie napríklad pri snahe o ovplyvňovanie verejných nálad, politiky a tak ďalej. Ale určite sme ďalej, než sme boli pred desiatimi rokmi.

Diskutuje sa v Európskej únii aj o tom, ako informácie o AI komunikovať verejnosti tak, aby nevznikal veľký priestor pre paniku a nedorozumenia? 

Radovan Geist: Asi sa o tom nediskutuje dosť. No za posledný rok počet diskusií o AI rástol tak rýchlo ako vývoj technológie samotnej.

Matúš Mesarčík: Je to veľmi dôležitá téma, ktorá by možno mala byť prenesená aj do tej politickej diskusie. Umelá inteligencia nás ovplyvní z dlhodobého hľadiska oveľa zásadnejším spôsobom ako napríklad ruská vojna proti Ukrajine alebo pandémia, ktorých dôsledky už relatívne hmatateľne cítime.

Viac ako tisíc vedcov a odborníkov na AI podpísalo list, ktorým žiadali, aby sa vývoj na šesť mesiacov zastavil. Podľa vás by sa mal ten vývoj presunúť do verejného sektora?

Matúš Mesarčík: Nie som si istý, či to je celkom dobrý nápad. Samotná výzva je diskutabilná, keďže medzi jej hlavných signatárov patrí Elon Musk, ktorý dva týždne nato oznámil, že pracuje na vlastnej umelej inteligencii. Čo sa týka verejného sektora, ťažko povedať. Umelú inteligenciu bude určite využívať aj verejný sektor, ale ťažko zakážete tomu súkromnému, aby ju prestal vyvíjať.

Prečo? Napríklad jadrový výskum sa väčšinou robí v gescii nejakých štátov alebo medzinárodných inštitúcií, pretože sa považuje za rizikové, aby veľké korporácie vyvíjali vlastné jadrové zbrane a podobne. 

Radovan Geist: Vo výskume jadrovej energie pôsobí mnoho súkromných firiem. V zbrojárskom priemysle tiež. Čím je ten sektor nebezpečnejší, tým väčšiu úlohu tam hrá verejný sektor, ale v rôznej forme. Štát v týchto prípadoch vystupuje viac ako regulátor a objednávateľ. A aj v tomto prípade, a hlavne pri generatívnej AI, je škála použitia strašne veľká. Od v zásade nevinného písania básničiek a tvorby fotografie pápeža v zimnej bunde po naozaj nebezpečné veci, ako je spoločenské bodovanie a tak ďalej. Čiže svoju úlohu tam hrá určite aj verejný sektor, ale dôležitý je súkromný sektor, ktorý by mal byť správnym spôsobom regulovaný.

Matúš Mesarčík: Práve v analógii k nukleárnej energii viacero hlavne právnych vedcov volá po tom, aby umelá inteligencia podobne ako nukleárna energia mala medzinárodnú organizáciu, ktorá stanovuje pravidlá. Na tom, čo presne by tá organizácia robila a čo by mohla regulovať, by sa muselo zhodovať celé medzinárodné spoločenstvo. Takáto organizácia by mohla určiť niektoré červené čiary, ktoré sa nebudú prekračovať a zhodne sa na nich celý svet. Rozprávame sa napríklad o zákaze použitia systémov AI na vojenské účely alebo zákaze nejakých detských sexuálnych robotov a tak ďalej. Čiže niečo, na čom sa dokážeme zhodnúť všetci.

No tu je potom tá druhá strana mince, že niektoré krajiny majú veľmi liberálny prístup k tej regulácii. Napríklad britský alebo americký prístup bude diametrálne odlišný a liberálnejší ako európsky. Čína pred dvoma týždňami predstavila svoj spôsob regulovania generatívnych modelov. Tam to bude pravdepodobne nastavené tak, že štát bude chcieť, aby každý generatívny model, ktorý bude chcieť ísť na trh, prešiel kontrolou zo strany štátu, či to, čo ten systém generuje, reflektuje socialistické hodnoty.

Máte pripomienku alebo ste našli chybu? Prosíme, napíšte na [email protected].

Dnes na DennikE.sk