Chatboti a im podobní sa môžu zdať ako dobrá zábava, no sú užitoční aj pre hackerov. Tu je dôvod, prečo všetci potrebujeme poznať bezpečnostné riziko AI.

AI za posledných pár rokov výrazne pokročila. Sofistikované jazykové modely dokážu skladať celovečerné romány, kódovať základné webové stránky a analyzovať matematické problémy.

Hoci je generatívna AI pôsobivá, predstavuje aj bezpečnostné riziká. Niektorí ľudia používajú chatboty iba na podvádzanie pri skúškach, iní ich však priamo využívajú na počítačovú kriminalitu. Tu je osem dôvodov, prečo budú tieto problémy nielen pretrvávať napriek tomu Pokroky AI, ale pretože aj z nich.

1. Chatboty AI s otvoreným zdrojom odhaľujú zadné kódy

Viac spoločností s umelou inteligenciou poskytuje systémy s otvoreným zdrojom. Otvorene zdieľajú svoje jazykové modely namiesto toho, aby ich držali uzavreté alebo chránené. Vezmite si ako príklad Meta. Na rozdiel od Google, Microsoftu a OpenAI umožňuje miliónom používateľov prístup k jeho jazykovému modelu, LLaMA.

instagram viewer

Aj keď kódy s otvoreným zdrojom môžu zlepšiť AI, je to tiež riskantné. OpenAI už má problémy s ovládaním ChatGPT, jeho proprietárneho chatbota, tak si predstavte, čo by podvodníci mohli robiť so slobodným softvérom. Majú úplnú kontrolu nad týmito projektmi.

Aj keď Meta náhle stiahne svoj jazykový model, desiatky ďalších laboratórií AI už zverejnili svoje kódy. Pozrime sa na HuggingChat. Keďže jeho vývojár HuggingFace je hrdý na transparentnosť, zobrazuje svoje množiny údajov, jazykový model a predchádzajúce verzie.

2. Jailbreak Prompts Trick LLMs

AI je vo svojej podstate amorálna. Nerozumie správnemu a nesprávnemu – dokonca aj pokročilé systémy sa riadia pokynmi na školenie, usmerneniami a súbormi údajov. Iba rozpoznávajú vzory.

Na boj proti nezákonným aktivitám vývojári kontrolujú funkčnosť a obmedzenia nastavením obmedzení. Systémy AI majú stále prístup k škodlivým informáciám. Bezpečnostné pokyny im však bránia zdieľať ich s používateľmi.

Pozrime sa na ChatGPT. Hoci odpovedá na všeobecné otázky o trójskych koňoch, nebude diskutovať o procese ich vývoja.

To znamená, že obmedzenia nie sú spoľahlivé. Používatelia obchádzajú limity preformulovaním výziev, používaním mätúcich jazykov a zostavovaním explicitne podrobných pokynov.

Prečítajte si nižšie Výzva na útek z väzenia ChatGPT. Oklame ChatGPT, aby používal hrubý jazyk a robil nepodložené predpovede – oba činy porušujú pokyny OpenAI.

Tu je ChatGPT s odvážnym, ale nepravdivým vyhlásením.

3. AI ohrozuje bezpečnosť pre všestrannosť

Vývojári AI uprednostňujú všestrannosť pred bezpečnosťou. Svoje zdroje míňajú na školiace platformy na plnenie rôznorodejších úloh, čím v konečnom dôsledku znižujú obmedzenia. Koniec koncov, trh víta funkčných chatbotov.

Poďme porovnajte ChatGPT a Bing Chat, napríklad. Zatiaľ čo Bing obsahuje sofistikovanejší jazykový model, ktorý získava údaje v reálnom čase, používatelia sa stále hrnú po všestrannejšej možnosti, ChatGPT. Pevné obmedzenia Bingu zakazujú mnohé úlohy. Alternatívne je ChatGPT vybavený flexibilnou platformou, ktorá produkuje výrazne odlišné výstupy v závislosti od vašich výziev

Tu je hranie rolí ChatGPT ako fiktívna postava.

A tu je Bing Chat, ktorý odmieta hrať „nemorálnu“ osobu.

Open source kódy umožňujú startupom zapojiť sa do pretekov AI. Integrujú ich do svojich aplikácií namiesto vytvárania jazykových modelov od začiatku, čím šetria obrovské zdroje. Dokonca aj nezávislí kóderi experimentujú s open-source kódmi.

Neproprietárny softvér opäť pomáha napredovať v AI, ale hromadné uvoľnenie slabo vyškolených, no sofistikovaných systémov spôsobuje viac škody ako úžitku. Podvodníci rýchlo zneužijú zraniteľné miesta. Môžu dokonca trénovať nezabezpečené nástroje AI na vykonávanie nezákonných činností.

Napriek týmto rizikám budú technologické spoločnosti naďalej vydávať nestabilné beta verzie platforiem poháňaných AI. Preteky AI odmeňujú rýchlosť. Chyby pravdepodobne vyriešia neskôr, ako oneskorenie spustenia nových produktov.

5. Generatívna AI má nízke bariéry vstupu

Nástroje umelej inteligencie znižujú prekážky vstupu pre trestné činy. Kyberzločinci navrhujú spamové e-maily, píšu malvérový kód a vytvárajú phishingové odkazy ich zneužívaním. Nepotrebujú ani technické skúsenosti. Keďže AI už pristupuje k rozsiahlym súborom údajov, používatelia ju musia len oklamať, aby vytvorila škodlivé a nebezpečné informácie.

OpenAI nikdy nenavrhol ChatGPT na nezákonné aktivity. Dokonca má proti nim usmernenia. Ešte podvodníci takmer okamžite dostali kódovací malvér ChatGPT a písanie phishingových e-mailov.

OpenAI síce problém rýchlo vyriešil, no zdôrazňuje dôležitosť systémovej regulácie a riadenia rizík. AI dozrieva rýchlejšie, než ktokoľvek očakával. Dokonca aj tech lídri sa obávajú, že táto superinteligentná technológia by mohla spôsobiť obrovské škody v nesprávnych rukách.

6. AI sa stále vyvíja

AI sa stále vyvíja. Zatiaľ čo používanie AI v kybernetike sa datuje od roku 1940, moderné systémy strojového učenia a jazykové modely sa objavili len nedávno. Nemôžete ich porovnávať s prvými implementáciami AI. Dokonca aj relatívne pokročilé nástroje ako Siri a Alexa blednú v porovnaní s chatbotmi poháňanými LLM.

Aj keď môžu byť inovatívne, experimentálne funkcie tiež vytvárajú nové problémy. Významné nehody s technológiami strojového učenia siahajú od chybných Google SERP až po zaujatých chatbotov chrliacich rasové nadávky.

Samozrejme, vývojári môžu tieto problémy vyriešiť. Len si všimnite, že podvodníci nebudú váhať využiť aj zdanlivo neškodné chyby – niektoré škody sú nezvratné. Buďte preto opatrní pri objavovaní nových platforiem.

7. Mnohí ešte nerozumejú AI

Zatiaľ čo široká verejnosť má prístup k sofistikovaným jazykovým modelom a systémom, len málokto vie, ako fungujú. Ľudia by mali prestať zaobchádzať s AI ako s hračkou. Rovnaké chatboty, ktoré generujú mémy a odpovedajú na drobnosti, masovo kódujú aj vírusy.

Bohužiaľ, centralizovaný tréning AI je nereálny. Globálni tech lídri sa zameriavajú na uvádzanie systémov poháňaných AI, nie na bezplatné vzdelávacie zdroje. Výsledkom je, že používatelia získajú prístup k robustným a výkonným nástrojom, ktorým sotva rozumejú. Verejnosť nemôže držať krok s pretekmi AI.

Vezmite si ako príklad ChatGPT. Kyberzločinci zneužívajú jej popularitu tým, že oklamú obete spyware maskovaný ako aplikácie ChatGPT. Žiadna z týchto možností nepochádza z OpenAI.

8. Black-Hat hackeri môžu získať viac ako White-Hat hackeri

Black-hat hackeri zvyčajne majú získať viac ako etickí hackeri. Áno, testovanie pera pre svetových technologických lídrov sa dobre vypláca, ale iba percento profesionálov v oblasti kybernetickej bezpečnosti získa túto prácu. Väčšina z nich pracuje na voľnej nohe online. Platformy ako HackerOne a Bugcrowd zaplatiť niekoľko stoviek dolárov za bežné chyby.

Prípadne podvodníci zarábajú desaťtisíce využívaním neistoty. Mohli by vydierať spoločnosti únikom dôverných údajov alebo spáchať krádeže ID ukradnutými Osobne identifikovateľné informácie (PII).

Každá inštitúcia, malá alebo veľká, musí správne implementovať systémy AI. Na rozdiel od všeobecného presvedčenia, hackeri idú nad rámec technologických startupov a malých a stredných podnikov. Niektoré z najviac historické úniky údajov za posledné desaťročie zapojiť Facebook, Yahoo! a dokonca aj vládu USA.

Chráňte sa pred bezpečnostnými rizikami AI

Vzhľadom na tieto body, mali by ste sa AI úplne vyhnúť? Samozrejme, že nie. AI je vo svojej podstate amorálna; všetky bezpečnostné riziká pochádzajú od ľudí, ktorí ich skutočne používajú. A nájdu spôsoby, ako využiť systémy AI bez ohľadu na to, ako ďaleko sa tieto vyvíjajú.

Namiesto toho, aby ste sa báli hrozieb kybernetickej bezpečnosti, ktoré prináša AI, pochopte, ako im môžete zabrániť. Nerobte si starosti: jednoduché bezpečnostné opatrenia idú dlho. Dávajte si pozor na tienisté aplikácie AI, vyhýbajte sa zvláštnym hypertextovým odkazom a pozerajte obsah AI skepticky, už bojujú proti niekoľkým rizikám.