Umelá inteligencia (AI) je rovnako kontroverzná ako pôsobivá. Môže to uľahčiť mnohé časti práce a každodenného života, no nastoľuje aj niektoré etické otázky. Najmä používanie AI vládou USA spôsobuje, že niektorí ľudia sa cítia nesvoji.

V súčasnosti sa používa alebo vyvíja veľa vládnych projektov AI a niektoré urobili veľa dobrého. Zároveň vyvolávajú množstvo obáv o súkromie umelej inteligencie. Tu je bližší pohľad na tieto projekty a na to, čo znamenajú pre verejné súkromie.

Príklady vládnych AI a automatizačných projektov

Najzákladnejšie príklady umelej inteligencie používanej vládou USA zahŕňajú automatizáciu bežnej kancelárskej práce. V roku 2019 použil Seattle Robotická automatizácia procesov (RPA) starať sa o zadávanie údajov a aplikácie na spracovanie. Odvtedy mesto prešlo viac ako 6 000 nevybavenými žiadosťami a ušetrilo stovky pracovných hodín.

Iné vládne projekty AI sú pútavejšie. Newyorský hasičský zbor testuje robotických psov z Boston Dynamics zmerať poškodenie konštrukcie a toxické výpary pred vstupom hasičov. Pred projektom hasičského robota plánovalo newyorské policajné oddelenie implementovať rovnaké roboty.

instagram viewer

Policajné oddelenia a ďalšie vládne agentúry v celej krajine zvažujú použitie podobných technológií. Keď sa však tieto vládne projekty AI rozbehli, ich potenciálne nedostatky v oblasti ochrany súkromia sa stali jasnejšie.

Je umelá inteligencia hrozbou pre súkromie a bezpečnosť?

Či v budúcnosti uvidíte policajných robotov, je stále neisté, ale zdá sa, že veci idú týmto smerom. Tieto projekty majú veľa výhod, ale obavy o súkromie umelej inteligencie sú pri rokovaní s vládou vážnejšie. Tu sú niektoré z najväčších problémov s týmito technológiami.

Umelá inteligencia sa spolieha na zhromažďovanie a analýzu údajov. Výsledkom je, že viac vládnych projektov AI znamená, že tieto agentúry budú zhromažďovať a uchovávať ďalšie informácie o svojich občanoch. Niektorí ľudia majú pocit, že všetky tieto informácie zbierajú narúša ich súkromie a porušuje ich práva.

Technológie ako projekt hasičského psa sú obzvlášť znepokojujúce, pretože môžu spôsobiť, že vládny dohľad bude zavádzajúci. Agentúry tvrdia, že robot je tu na to, aby kontroloval obavy o bezpečnosť, no ľudia nemajú možnosť povedať, aké údaje zhromažďuje. Mohlo by to mať kamery a senzory, ktoré skenujú ich tváre alebo sledujú ich mobilné telefóny bez toho, aby o tom vedeli.

Niektorí ľudia sa obávajú, že „cool faktor“ robotov skryje ich potenciál sledovania. Policajné roboty by v budúcnosti mohli špehovať občanov bez toho, aby vyvolali veľké podozrenie, pretože ľudia len vidia novú technológiu namiesto narušenia ich súkromia.

Nejasné zodpovednosti

Tieto projekty AI a automatizácie tiež vyvolávajú otázku zodpovednosti. Ak robot urobí chybu, ktorá spôsobí škodu, kto je za ňu zodpovedný? Keď štátny zamestnanec prekročí svoje hranice a poruší niečie práva, súdy ho môžu brať na zodpovednosť, ale čo robot?

Tento problém môžete vidieť v samoriadiacich autách. Ľudia v niektorých prípadoch havárie autopilota obvinili výrobcu v rámci nároku na zodpovednosť za výrobok, zatiaľ čo iní vinia vodiča. V jednom prípade, Národná rada pre bezpečnosť dopravy zodpovednosť uložila výrobcovi aj vodičovi, ale v konečnom dôsledku sa musí rozhodnúť od prípadu k prípadu. Policajné roboty kalia vody rovnakým spôsobom. Ak porušia vaše súkromie, nie je jasné, či obviňovať výrobcu, policajné oddelenie alebo ľudských dozorcov.

Tento zmätok by mohol spomaliť a skomplikovať súdne konanie. Obetiam porušovania súkromia alebo porušovania ich práv môže chvíľu trvať, kým dostanú spravodlivosť, ktorú si zaslúžia. Nové zákony a právny precedens by mohli veci objasniť a vyriešiť tento problém, no momentálne je to neisté.

Riziká narušenia údajov

Umelá inteligencia používaná vládou USA by tiež mohla rozšíriť obavy o súkromie AI, ktoré vidíte v súkromnom sektore. Zhromažďovanie niektorých údajov môže byť úplne legálne, ale čím viac organizácií zhromažďuje, tým viac je ohrozené. Spoločnosť alebo vláda nesmie použiť tieto informácie na nič nezákonné, ale môže spôsobiť, že ľudia budú zraniteľní voči počítačovej kriminalite.

Boli tam viac ako 28 000 kybernetických útokov proti vláde USA len v roku 2019. Ak budú mať agentúry viac súkromných informácií občanov, tieto útoky by mohli ovplyvniť nielen vládu. Úspešné porušenie údajov môže ohroziť mnoho ľudí bez toho, aby o tom vedeli. Porušenia často zostávajú nepovšimnuté, takže musíte skontrolujte, či vaše údaje už nie sú na predaj.

Ak napríklad policajný robot v budúcnosti použije rozpoznávanie tváre na hľadanie hľadaných zločincov, môže uložiť biometrické údaje mnohých občanov. Hackeri, ktorí sa dostanú do systému, môžu tieto informácie ukradnúť a použiť ich na preniknutie do bankových účtov ľudí. Vládne projekty AI musia mať prísne opatrenia v oblasti kybernetickej bezpečnosti, ak nechcú ohroziť údaje ľudí.

Vládna AI má výhody, ale vyvoláva obavy

Stále nie je jasné, ako bude americká vláda využívať umelú inteligenciu v budúcnosti. Nové ochrany a zákony by mohli vyriešiť tieto problémy a priniesť všetky výhody AI bez jej rizík. Zatiaľ však tieto obavy vyvolávajú určité obavy.

Obavy o súkromie sú všade tam, kde funguje AI. Tieto otázky sa stávajú závažnejšími, keďže hrá väčšiu úlohu vo vláde. Štátne projekty umelej inteligencie by mohli priniesť veľa úžitku, ale majú aj značný potenciál ublížiť.

Microsoft varuje, že „1984“ sa môže stať skutočnosťou o tri roky

Prečítajte si ďalej

zdieľamTweetujtezdieľamEmail

Súvisiace témy

  • Bezpečnosť
  • Umela inteligencia
  • Súkromie online

O autorovi

Shannon Flynn (79 publikovaných článkov)

Shannon je tvorca obsahu so sídlom vo Philly, PA. Píše v oblasti techniky asi 5 rokov po ukončení štúdia v odbore IT. Shannon je šéfredaktorkou časopisu ReHack Magazine a zaoberá sa témami ako kybernetická bezpečnosť, hranie hier a obchodné technológie.

Viac od Shannona Flynna

prihlásiť sa ku odberu noviniek

Pripojte sa k nášmu bulletinu a získajte technické tipy, recenzie, bezplatné e-knihy a exkluzívne ponuky!

Kliknutím sem sa prihlásite na odber