Váš obľúbený generatívny chatbot s umelou inteligenciou sa zdá byť neškodný, ale so správnymi odbornými znalosťami by mohol o vás odhaliť chúlostivé informácie.

Kľúčové informácie

  • Útoky inverzie modelu neurónovej siete využívajú AI chatbotov na odhaľovanie a rekonštrukciu osobných informácií z digitálnych stôp.
  • Hackeri vytvárajú inverzné modely, ktoré predpovedajú vstupy na základe výstupov neurónovej siete a odhaľujú citlivé údaje.
  • Techniky ako diferenciálne súkromie, výpočty viacerých strán a federatívne učenie môžu pomôcť chrániť sa pred inverznými útokmi, ale je to neustály boj. Používatelia by mali byť selektívni zdieľatelia, aktualizovať softvér a byť opatrní pri poskytovaní osobných údajov.

Predstavte si, že ste v reštaurácii a práve ste ochutnali ten najlepší koláč, aký ste kedy jedli. Späť u vás doma ste odhodlaní znovu vytvoriť toto kulinárske majstrovské dielo. Namiesto toho, aby ste požiadali o recept, spoliehate sa na svoje chuťové poháriky a znalosti, aby ste dezert dekonštruovali a pripravili si svoj vlastný.

instagram viewer

Čo keby to niekto mohol urobiť s vašimi osobnými údajmi? Niekto okúsi digitálnu stopu, ktorú po sebe zanecháte, a zrekonštruuje vaše súkromné ​​detaily.

To je podstata inverzného útoku modelu neurónovej siete, techniky, ktorá by mohla premeniť chatbot s umelou inteligenciou na nástroj kybernetického sledovania.

Pochopenie inverzných útokov modelu neurónovej siete

A neurónová sieť je „mozog“ modernej umelej inteligencie (AI). Sú zodpovední za pôsobivú funkčnosť rozpoznávania hlasu, humanizovaných chatbotov a generatívnej AI.

Neurónové siete sú v podstate sériou algoritmov navrhnutých na rozpoznávanie vzorcov, myslenie a dokonca učenie sa ako ľudský mozog. Robia tak v rozsahu a rýchlosti, ktorá ďaleko prevyšuje naše organické schopnosti.

Kniha tajomstiev AI

Rovnako ako náš ľudský mozog, aj neurónové siete môžu skrývať tajomstvá. Tieto tajomstvá sú údajmi, ktoré im dali používatelia. Pri modelovom inverznom útoku hacker používa výstupy neurónovej siete (napríklad odpovede chatbota) na reverzný inžinier vstupy (informácie, ktoré ste poskytli).

Na vykonanie útoku hackeri používajú svoj vlastný model strojového učenia nazývaný „model inverzie“. Tento model je navrhnutý tak, aby bol zrkadlovým obrazom svojho druhu, trénovaný nie na pôvodných údajoch, ale na výstupoch generovaných serverom cieľ.

Účelom tohto inverzného modelu je predpovedať vstupy – pôvodné, často citlivé údaje, ktoré ste vložili do chatbota.

Vytvorenie inverzného modelu

Vytvorenie inverzie si možno predstaviť ako rekonštrukciu skartovaného dokumentu. Ale namiesto skladania pásikov papiera je to skladanie príbehu rozprávaného na odpovede cieľového modelu.

Inverzný model sa učí jazyk výstupov neurónovej siete. Hľadá výpovedné znaky, ktoré časom odhalia povahu vstupov. S každým novým údajom a každou odpoveďou, ktorú analyzuje, lepšie predpovedá informácie, ktoré poskytnete.

Tento proces je neustálym cyklom hypotéz a testovania. S dostatočným množstvom výstupov dokáže inverzný model presne odvodiť váš podrobný profil, dokonca aj z tých najnebezpečnejších údajov.

Proces inverzného modelu je hrou spájania bodov. Každý údaj uniknutý prostredníctvom interakcie umožňuje modelu vytvoriť profil a s dostatkom času je profil, ktorý vytvorí, neočakávane podrobný.

Nakoniec sa odhalia prehľady o aktivitách, preferenciách a identite používateľa. Štatistiky, ktoré neboli určené na zverejnenie alebo zverejnenie.

Čo to umožňuje?

V rámci neurónových sietí je každý dotaz a odpoveď dátovým bodom. Kvalifikovaní útočníci využívajú pokročilé štatistické metódy na analýzu týchto údajových bodov a hľadajú korelácie a vzorce, ktoré sú pre ľudské chápanie nepostrehnuteľné.

Techniky, ako je regresná analýza (skúmajúca vzťah medzi dvoma premennými) na predpovedanie hodnôt vstupu na základe výstupov, ktoré dostanete.

Hackeri používajú algoritmy strojového učenia vo svojich vlastných inverzných modeloch na spresnenie svojich predpovedí. Preberajú výstupy z chatbota a vkladajú ich do svojich algoritmov, aby ich naučili aproximovať inverznú funkciu cieľovej neurónovej siete.

Zjednodušene povedané, „inverzná funkcia“ znamená, ako hackeri zvrátia tok údajov z výstupu na vstup. Cieľom útočníka je natrénovať svoje inverzné modely na opačnú úlohu ako pôvodná neurónová sieť.

V podstate takto vytvárajú model, ktorý sa vzhľadom na samotný výstup snaží vypočítať, aký musel byť vstup.

Ako sa proti vám dajú použiť inverzné útoky

Predstavte si, že používate populárny online nástroj na hodnotenie zdravotného stavu. Zadáte svoje príznaky, predchádzajúce stavy, stravovacie návyky a dokonca aj užívanie drog, aby ste získali určitý prehľad o svojej pohode.

To je citlivé a osobné informácie.

S inverzným útokom zameraným na systém AI, ktorý používate, môže byť hacker schopný prijať všeobecnú radu, ktorú vám chatbot dáva, a použiť ju na odvodenie vašej súkromnej zdravotnej histórie. Odpoveď od chatbota môže byť napríklad takáto:

Antinukleárna protilátka (ANA) sa môže použiť na indikáciu prítomnosti autoimunitných ochorení, ako je lupus.

Inverzný model môže predpovedať, že cieľový používateľ kládol otázky súvisiace s autoimunitným stavom. S ďalšími informáciami a viacerými odpoveďami môžu hackeri usúdiť, že cieľ má vážny zdravotný stav. Zrazu sa z užitočného online nástroja stane digitálne nahliadnutie do vášho osobného zdravia.

Čo možno urobiť s inverznými útokmi?

Môžeme vybudovať pevnosť okolo našich osobných údajov? No je to zložité. Vývojári neurónových sietí môžu sťažiť vykonávanie útokov inverzným modelom pridaním vrstiev zabezpečenia a zatemnením ich fungovania. Tu je niekoľko príkladov techník používaných na ochranu používateľov:

  • Rozdielové súkromie: To zaisťuje, že výstupy AI sú dostatočne „hlučné“ na maskovanie jednotlivých dátových bodov. Je to trochu ako šepkanie v dave – vaše slová sa strácajú v kolektívnom štebotaní ľudí okolo vás.
  • Výpočet viacerých strán: Táto technika je ako tím pracujúci na dôvernom projekte zdieľaním iba výsledkov svojich individuálnych úloh, nie citlivých detailov. Umožňuje viacerým systémom spracovávať dáta spoločne bez toho, aby boli jednotlivé užívateľské dáta vystavené sieti alebo sebe navzájom.
  • Federované vzdelávanie: Zahŕňa trénovanie AI na viacerých zariadeniach, a to všetko pri zachovaní lokálnych údajov jednotlivých používateľov. Je to trochu ako spoločný spev zboru; môžete počuť každý hlas, ale žiadny hlas nemožno izolovať ani identifikovať.

Aj keď sú tieto riešenia do značnej miery účinné, ochrana pred inverznými útokmi je hra na mačku a myš. So zlepšovaním obranyschopnosti sa zlepšujú aj techniky na ich obchádzanie. Zodpovednosť teda padá na spoločnosti a vývojárov, ktorí zhromažďujú a uchovávajú naše údaje, no existujú spôsoby, ako sa môžete chrániť.

Ako sa chrániť pred inverznými útokmi

Obrazový kredit: Mike MacKenzie/Flickr

Relatívne povedané, neurónové siete a technológie AI sú stále v plienkach. Kým systémy nebudú spoľahlivé, je na používateľovi, aby bol prvou obrannou líniou ochranu vašich údajov.

Tu je niekoľko tipov, ako znížiť riziko, že sa stanete obeťou inverzného útoku:

  • Staňte sa selektívnym zdieľateľom: Zaobchádzajte so svojimi osobnými údajmi ako s tajným rodinným receptom. Buďte selektívni v tom, s kým ich zdieľate, najmä pri vypĺňaní formulárov online a interakcii s chatbotmi. Spochybňujte nevyhnutnosť každého údaju, ktorý sa od vás požaduje. Ak nechcete zdieľať informácie s cudzím človekom, nezdieľajte ich s chatbotom.
  • Udržujte softvér aktualizovaný: Aktualizácie front-end softvéru, prehliadačov a dokonca aj vášho operačného systému sú navrhnutý tak, aby vás udržal v bezpečí. Zatiaľ čo vývojári sú zaneprázdnení ochranou neurónových sietí, môžete tiež znížiť riziko zachytenia údajov pravidelným používaním opráv a aktualizácií.
  • Udržujte osobné údaje osobné: Kedykoľvek si aplikácia alebo chatbot vyžiada osobné údaje, zastavte sa a zvážte zámer. Ak sa požadované informácie zdajú byť pre poskytovanú službu irelevantné, pravdepodobne sú.

Citlivé informácie ako zdravie, financie alebo identita by ste novému známemu neposkytli len preto, že povedali, že to vyžadujú. Podobne zmerajte, aké informácie sú skutočne potrebné na fungovanie aplikácie, a odhláste sa zo zdieľania ďalších.

Ochrana našich osobných údajov vo veku AI

Naše osobné údaje sú naším najcennejším majetkom. Jeho stráženie si vyžaduje ostražitosť, pokiaľ ide o spôsob zdieľania informácií, ako aj o vytváranie bezpečnostných opatrení pre služby, ktoré používame.

Uvedomenie si týchto hrozieb a podniknutie krokov, ako sú tie, ktoré sú uvedené v tomto článku, prispieva k silnejšej obrane proti týmto zdanlivo neviditeľným vektorom útoku.

Zaviažme sa k budúcnosti, kde naše súkromné ​​informácie zostanú len také: súkromné.