Umelá inteligencia môže znieť ako prezident. Alebo to môže znieť ako vy alebo ja. Aké riziko kybernetickej bezpečnosti teda predstavuje softvér na klonovanie hlasu AI?
Umelá inteligencia (AI) je účinná technológia, ktorá sľubuje, že zmení naše životy. Nikdy to nebolo také jasné ako dnes, keď sú výkonné nástroje dostupné každému, kto má internetové pripojenie.
To zahŕňa hlasové generátory AI, pokročilý softvér schopný napodobňovať ľudskú reč tak kompetentne, že je nemožné medzi nimi rozlíšiť. Čo to znamená pre kybernetickú bezpečnosť?
Ako fungujú generátory hlasu AI?
Syntéza reči, proces umelej produkcie ľudskej reči, existuje už desaťročia. A ako každá technológia, aj ona prešla v priebehu rokov hlbokými zmenami.
Tí, ktorí používali Windows 2000 a XP, si možno pamätajú Microsoft Sam, predvolený mužský hlas pre prevod textu na reč operačného systému. Microsoft Sam to urobil, ale zvuky, ktoré produkoval, boli robotické, strnulé a neprirodzené. Nástroje, ktoré máme dnes k dispozícii, sú podstatne pokročilejšie, najmä vďaka hlbokému učeniu.
Hlboké učenie je a metóda strojového učenia ktorý je založený na umelých neurónových sieťach. Vďaka týmto neurónovým sieťam je moderná AI schopná spracovávať dáta takmer tak, ako neuróny v ľudskom mozgu interpretujú informácie. To znamená, že čím viac sa AI podobá ľuďom, tým lepšie dokáže napodobňovať ľudské správanie.
Takto v skratke fungujú moderné hlasové generátory AI. Čím väčšiemu množstvu rečových údajov sú vystavení, tým sú zdatnejší v napodobňovaní ľudskej reči. Vďaka relatívne nedávnemu pokroku v tejto technológii môže najmodernejší softvér na prevod textu na reč v podstate replikovať zvuky, ktoré vydáva.
Ako aktéri hrozieb používajú generátory hlasu AI
Nie je prekvapením, že túto technológiu zneužívajú aktéri hrozieb. A nielen kyberzločinci v typickom zmysle slova, ale aj dezinformační agenti, podvodníci, obchodníci s čiernymi klobúkmi a trolovia.
V momente, keď spoločnosť ElevenLabs vydala v januári 2023 beta verziu svojho softvéru na prevod textu na reč, krajne pravicoví trollovia na nástenke 4chan to začali zneužívať. Pomocou pokročilej AI reprodukovali hlasy jednotlivcov ako David Attenborough a Emma Watson, takže sa zdalo, že celebrity páchajú odporné, nenávistné tirády.
Ako Vice Spoločnosť ElevenLabs v tom čase pripustila, že ľudia zneužívali jej softvér, najmä klonovanie hlasu. Táto funkcia umožňuje komukoľvek „naklonovať“ hlas inej osoby; všetko, čo musíte urobiť, je nahrať minútovú nahrávku a zvyšok nechať AI. Je pravdepodobné, že čím je záznam dlhší, tým lepší je výstup.
V marci 2023 upútalo pozornosť virálne video TikTok The New York Times. Vo videu bolo počuť, ako slávny podcaster Joe Rogan a Dr. Andrew Huberman, častý hosť na The Joe Rogan Experience, diskutovali o kofeínovom nápoji na zvýšenie libida. Video vyvolalo dojem, že Rogan aj Huberman produkt jednoznačne podporujú. V skutočnosti boli ich hlasy klonované pomocou AI.
Približne v rovnakom čase sa v dôsledku chýb v riadení rizika a iných problémov zrútila banka Silicon Valley so sídlom v Santa Clare v Kalifornii a prevzala ju štátna vláda. Išlo o najväčší krach banky v Spojených štátoch od finančnej krízy v roku 2008, čo spôsobilo otrasy na globálnych trhoch.
K panike prispela falošná zvuková nahrávka amerického prezidenta Joea Bidena. V nahrávke bolo zrejme počuť, že Biden varoval pred blížiacim sa „kolapsom“ a nariadil svojej administratíve, aby „použila celú silu médií na upokojenie verejnosti“. Kontrolóri faktov ako PolitiFact rýchlo odhalili klip, ale je pravdepodobné, že ho už vtedy počuli milióny ľudí.
Ak sa hlasové generátory AI dajú použiť na vydávanie sa za celebrity, dajú sa použiť aj na vydávanie sa za bežných ľudí, a to je presne to, čo kyberzločinci robia. Podľa ZDNet, tisíce Američanov padajú na podvody známe ako vishing alebo hlasové phishing každý rok. Jeden starší pár sa v roku 2023 dostal na celoštátne titulky, keď dostal telefonát od svojho „vnuka“, ktorý tvrdil, že je vo väzení a žiadal peniaze.
Ak ste niekedy odovzdali video na YouTube (alebo ste sa v ňom objavili), zúčastnili ste sa veľkého skupinového hovoru s ľuďmi, ktorých viete, alebo ste nahrali svoj hlas na internet v nejakej kapacite, vy alebo vaši blízki by ste teoreticky mohli byť v nebezpečenstve. Čo by zabránilo podvodníkovi nahrať váš hlas do generátora AI, naklonovať ho a kontaktovať vašu rodinu?
Generátory hlasu AI narúšajú kybernetickú bezpečnosť
Nie je potrebné, aby expert na kybernetickú bezpečnosť rozpoznal, aká nebezpečná môže byť AI v nesprávnych rukách. A hoci je pravda, že to isté možno povedať o všetkých technológiách, AI je jedinečnou hrozbou z niekoľkých dôvodov.
Jednak je relatívne nový, čo znamená, že vlastne nevieme, čo od neho môžeme očakávať. Moderné nástroje AI umožňujú počítačovým zločincom škálovať a automatizovať svoje operácie bezprecedentným spôsobom, pričom využívajú relatívnu nevedomosť verejnosti, pokiaľ ide o túto záležitosť. Generatívna AI tiež umožňuje aktérom hrozby s malými znalosťami a zručnosťami vytvárať škodlivý kód, vytvárať podvodné stránky, šíriť spam, písať phishingové e-maily, vytvárať realistické obrázkya produkovať nekonečné hodiny falošného audio a video obsahu.
Rozhodujúce je, že to funguje oboma spôsobmi: AI sa používa aj na ochranu systémov a pravdepodobne to tak bude aj v nasledujúcich desaťročiach. Nebolo by nerozumné predpokladať, že to, čo nás čaká, sú akési preteky v zbrojení AI medzi kyberzločincami a priemysel kybernetickej bezpečnosti, keďže obranné a útočné kapacity týchto nástrojov sú neodmysliteľne rovný.
Pre bežného človeka si nástup rozšírenej generatívnej AI vyžaduje radikálne riešenie prehodnotiť bezpečnostné postupy. Akokoľvek môže byť AI vzrušujúca a užitočná, môže prinajmenšom zmazať hranicu medzi tým, čo je skutočné a čím nie je a prinajhoršom zhoršiť existujúce bezpečnostné problémy a vytvoriť nový priestor na manévrovanie aktérov hrozieb v.
Hlasové generátory ukazujú deštruktívny potenciál AI
Hneď ako sa ChatGPT dostal na trh, začali sa hovoriť o regulácii AI. Akýkoľvek pokus obmedziť túto technológiu by si pravdepodobne vyžadoval medzinárodnú spoluprácu do takej miery, akú sme nevideli celé desaťročia, čo ho robí nepravdepodobným.
Džin je vonku z fľaše a najlepšie, čo môžeme urobiť, je zvyknúť si. To a dúfam, že sektor kybernetickej bezpečnosti sa tomu prispôsobí.