Myšlienka, že technológie AI musia byť regulované, je bežným názorom. Na tom sa zhoduje väčšina vlád, vývojárov produktov AI a dokonca aj bežných používateľov produktov AI. Bohužiaľ, najlepší spôsob, ako regulovať toto rýchlo rastúce pole, je nevyriešená hádanka.
Ak technológie AI zostanú bez kontroly, môžu negatívne narušiť náš spôsob života a ohroziť našu existenciu. Ako sa však môžu vlády orientovať v labyrinte výziev, ktoré so sebou prináša táto rýchlo sa rozvíjajúca oblasť?
1. Nariadenia o ochrane osobných údajov a ochrane údajov
Jedným z hlavných problémov s technológiami AI je súkromie a bezpečnosť údajov. Systémy umelej inteligencie sú stroje náročné na dáta. Potrebujú dáta, aby fungovali, viac dát, aby boli efektívni, a ešte viac dát na zlepšenie. Aj keď to nie je problém, spôsob, akým sa tieto údaje získavajú, ich povaha a ako sa spracúvajú a ukladajú, sú jedným z najväčších tém okolo predpisov o AI.
Vzhľadom na to je logickou cestou zaviesť prísne nariadenia o ochrane osobných údajov, ktoré upravujú údaje zhromažďovanie, uchovávanie a spracovanie, ako aj práva jednotlivcov – ktorých údaje sa používajú – na prístup a kontrolu ich údaje. Otázky, ktoré by tieto nariadenia pravdepodobne riešili, sú:
- Aké údaje možno zbierať?
- Mali by byť niektoré súkromné údaje v AI považované za tabu?
- Ako by mali spoločnosti AI nakladať s citlivými osobnými údajmi, ako sú zdravotné záznamy alebo biometrické informácie?
- Malo by sa od spoločností AI vyžadovať, aby zaviedli mechanizmy, aby jednotlivci mohli jednoducho požiadať o vymazanie alebo opravu svojich osobných údajov?
- Aké sú dôsledky pre spoločnosti AI, ktoré nedodržiavajú nariadenia o ochrane osobných údajov? Ako by sa malo monitorovať dodržiavanie a ako by sa malo zabezpečiť presadzovanie?
- Azda najdôležitejšie je, aký štandard by mali spoločnosti AI implementovať, aby zaistili bezpečnosť citlivej povahy informácií, ktoré vlastnia?
Tieto otázky a niekoľko ďalších tvorili jadro prečo bol ChatGPT dočasne zakázaný v Taliansku. Ak sa tieto obavy nevyriešia, priestor umelej inteligencie môže byť divokým západom pre súkromie údajov a taliansky zákaz sa môže ukázať ako vzor pre zákazy iných krajín na celom svete.
2. Vývoj etického rámca AI
Spoločnosti AI sa často chvália svojim záväzkom dodržiavať etické usmernenia pri vývoji systémov AI. Aspoň na papieri sú všetci zástancami zodpovedného vývoja AI. Vedúci spoločnosti Google v médiách zdôrazňovali, ako spoločnosť berie bezpečnosť a etiku AI vážne. Podobne „Bezpečná a etická AI“ je mantrou generálneho riaditeľa OpenAI, Sama Altmana. Tie sú celkom chvályhodné.
Ale kto tvorí pravidlá? Kto rozhoduje o tom, ktoré etické pokyny AI sú dostatočne dobré? Kto rozhoduje o tom, ako vyzerá bezpečný vývoj AI? Zdá sa, že v súčasnosti sa každá spoločnosť zaoberajúca sa umelou inteligenciou orientuje na zodpovedný a etický vývoj AI. OpenAI, Anthropic, Google, Meta, Microsoft, všetci. Spoliehať sa na spoločnosti AI, že urobia správnu vec, je nebezpečné.
The dôsledky nekontrolovaného priestoru AI môžu byť katastrofálne. Nechať jednotlivé spoločnosti rozhodnúť o tom, aké etické usmernenia prijmú a ktoré sa zrušia, je podobné ako námesačná cesta do apokalypsy AI. Riešenie? Jasný etický rámec AI, ktorý zaisťuje:
- Systémy AI nespravodlivo neznevýhodňujú ani nediskriminujú jednotlivcov alebo určité skupiny na základe rasy, pohlavia alebo sociálno-ekonomického postavenia.
- Systémy AI sú bezpečné, zabezpečené a spoľahlivé a minimalizujú riziko neúmyselných následkov alebo škodlivého správania.
- Systémy AI sú postavené s ohľadom na širší spoločenský vplyv technológií AI.
- Aby si ľudia zachovali konečnú kontrolu nad systémami AI a transparentným rozhodovaním.
- Systémy AI sú zámerne obmedzené spôsobmi, ktoré sú výhodné pre ľudí.
3. Vyhradená regulačná agentúra
Vzhľadom na potenciálny vplyv na ľudskú civilizáciu sa diskusia o bezpečnosti AI zvyčajne spája s rizikom zdravotnej krízy alebo jadrovej katastrofy. Predchádzanie potenciálnym jadrovým incidentom si vyžaduje špecializovanú agentúru, akou je americká NRC (Nuclear Regulatory Commission). Predchádzanie riziku nebezpečných zdravotných kríz si vyžaduje zriadenie FDA (Food and Drug Administration)
Podobne, aby sa zabezpečilo, že sa veci v priestore AI nepokazia, je potrebná špecializovaná agentúra podobná FDA a NRC, pretože AI naďalej agresívne preniká do všetkých oblastí nášho života. Bohužiaľ, otázka regulácie umelej inteligencie v krajine je zložitá. Práca akejkoľvek špecializovanej regulačnej agentúry bude bez cezhraničnej spolupráce pravdepodobne mučivo ťažká. Rovnako ako americká NRC (Nuclear Regulatory Commission) musí pracovať ruka v ruke s Medzinárodnou atómovou energiou Aby agentúra (MAAE) fungovala čo najlepšie, každá špecializovaná agentúra pre reguláciu AI v danej krajine by potrebovala aj medzinárodný analóg.
Takáto agentúra by bola zodpovedná za:
- Vývoj predpisov AI
- Zabezpečenie dodržiavania a presadzovania
- Dohľad nad procesom etického hodnotenia projektov AI
- Spolupráca a medzištátna spolupráca v oblasti bezpečnosti a etiky AI
4. Riešenie problémov týkajúcich sa autorských práv a duševného vlastníctva
Existujúce zákony o autorských právach a právne rámce sa rúcajú tvárou v tvár umelej inteligencii. Spôsob, akým sú nástroje AI, najmä generatívne nástroje AI, navrhnuté, spôsobuje, že vyzerajú ako verejne podporovaný stroj na porušovanie autorských práv, s ktorým nemôžete nič robiť.
Ako? Mnohé z dnešných systémov AI sú trénované pomocou materiálov chránených autorskými právami. Viete, články chránené autorskými právami, piesne chránené autorskými právami, obrázky chránené autorskými právami atď. Takto vyzerajú nástroje ChatGPT, Bing AI a Google Bard môžu robiť úžasné veci, ktoré robia.
Aj keď tieto systémy jasne využívajú duševné vlastníctvo ľudí, spôsob, akým to tieto systémy AI robia sa nelíši od človeka, ktorý číta knihu chránenú autorskými právami, počúva piesne chránené autorskými právami alebo sa pozerá na autorsky chránené snímky.
Môžete si prečítať knihu chránenú autorskými právami, dozvedieť sa z nej nové fakty a použiť tieto fakty ako základ pre svoju vlastnú knihu. Môžete si tiež vypočuť skladbu chránenú autorskými právami ako inšpiráciu na vytvorenie vlastnej hudby. V oboch prípadoch ste použili materiály chránené autorskými právami, ale to nevyhnutne neznamená, že odvodený produkt porušuje autorské práva originálu.
Aj keď je to logické vysvetlenie na vysvetlenie neporiadku, ktorý AI robí so zákonmi o autorských právach, stále to poškodzuje vlastníkov autorských práv a duševného vlastníctva. Vzhľadom na to sú potrebné predpisy:
- Jasne definujte zodpovednosť a zodpovednosti všetkých strán zapojených do životného cyklu systému AI. To zahŕňa objasnenie úloh každej strany, od vývojárov AI až po koncových používateľov, aby sa zabezpečila zodpovednosť strany sú brané na zodpovednosť za akékoľvek porušenie autorských práv alebo duševného vlastníctva spáchané AI systémov.
- Posilniť existujúce rámce autorských práv a možno zaviesť zákony o autorských právach špecifické pre AI.
- Aby sme zabezpečili inovácie v priestore AI a zároveň chránili práva pôvodných tvorcov, AI nariadenia by mali nanovo definovať koncepty fair use a transformatívnej práce v kontexte Obsah generovaný AI. Sú potrebné jasnejšie definície a usmernenia, aby sa zabezpečilo, že priestor umelej inteligencie sa bude môcť naďalej zlepšovať pri rešpektovaní hraníc autorských práv. Je nevyhnutné dosiahnuť rovnováhu medzi inováciami a ochranou práv tvorcov obsahu.
- Jasné cesty spolupráce s držiteľmi práv. Ak systémy AI budú aj tak využívať duševné vlastníctvo ľudí, mali by existovať jasné cesty alebo rámce pre vývojárov AI a vlastníkov práv spolupracovať, najmä pokiaľ ide o finančné kompenzácie, ak ide o odvodené dielo takéhoto duševného vlastníctva komercializované.
Regulácia AI je zúfalo potrebná oprava
Zatiaľ čo umelá inteligencia sa ukázala ako sľubná oprava mnohých našich spoločenských problémov, samotná AI sa rýchlo stáva problémom, ktorý potrebuje naliehavú opravu. Je čas urobiť krok späť, zamyslieť sa a urobiť potrebné opravy, aby sa zabezpečil pozitívny vplyv AI na spoločnosť. Zúfalo potrebujeme naliehavú rekalibráciu nášho prístupu k budovaniu a používaniu systémov AI.