Chcete skontrolovať, či niečo vytvorila umelá inteligencia? Detektory často nefungujú a to je zlá správa pre vašu bezpečnosť.

Umelá inteligencia (AI) premení celé segmenty našej spoločnosti, či sa nám to páči alebo nie, a to vrátane World Wide Web.

So softvérom, ako je ChatGPT, ktorý je dostupný komukoľvek s internetovým pripojením, je čoraz ťažšie oddeliť obsah generovaný AI od obsahu vytvoreného ľudskou bytosťou. Dobrá vec, že ​​máme detektory obsahu AI, však?

Fungujú detektory obsahu AI?

Detektory obsahu AI sú špecializované nástroje, ktoré určujú, či niečo napísal počítačový program alebo človek. Ak si zadáte do Googlu slová „AI content detector“, uvidíte sú tu desiatky detektorov tam vonku, všetci tvrdia, že dokážu spoľahlivo rozlíšiť medzi ľudským a neľudským textom.

Spôsob, akým fungujú, je pomerne jednoduchý: vložíte text a nástroj vám povie, či ho vygenerovala AI alebo nie. Technickejšie povedané, pomocou kombinácie techník spracovania prirodzeného jazyka a stroja učiacich sa algoritmov, detektory obsahu AI hľadajú vzory a predvídateľnosť a uskutočňujú hovory na základe že.

instagram viewer

Na papieri to znie skvele, ale ak ste niekedy použili nástroj na detekciu AI, veľmi dobre viete, že sú, mierne povedané, hit-a-minúť. Častejšie rozpoznávajú obsah písaný ľuďmi ako AI alebo text vytvorený ľuďmi ako generovaný AI. V skutočnosti sú niektorí trápne zlí v tom, čo by mali robiť.

Aké presné sú detektory obsahu AI?

Ak ste v Spojených štátoch, prvý výsledok vyhľadávania Google pre výraz „AI content detector“ je spisovateľ.com (predtým známy ako Qordoba; ide o platformu obsahu AI, ktorá má tiež svoj vlastný detektor). Ale keď prilepíte časť tohto náhodného Vydavateľstvo článok do nástroja, tvrdí, že je veľmi dobrá šanca, že ho vygenerovala umelá inteligencia.

Spisovateľ.com to má teda zle.

Aby sme boli spravodliví, iné detektory obsahu AI nie sú o nič lepšie. Nielenže produkujú falošné pozitíva, ale tiež označujú obsah AI ako ľudský. A aj keď to tak nie je, stačí vykonať drobné úpravy textu generovaného AI.

Vo februári 2023 prednášajúci na University of Wollongong Armin Alimardani a docent na UNSW Sydney Emma A. Jane testovala množstvo populárnych detektorov obsahu AI a zistila, že žiadny z nich nie je spoľahlivý. Vo svojej analýze, ktorá bola uverejnená v r KonverzáciaAlimardani a Jane dospeli k záveru, že tieto „preteky v zbrojení“ AI medzi generátormi textu a detektormi budú v budúcnosti predstavovať významnú výzvu, najmä pre pedagógov.

Ale nie sú to len pedagógovia a učitelia, ktorí majú dôvod na obavy: každý má. Keď sa text generovaný AI stáva všadeprítomným a dokáže rozlišovať medzi tým, čo je „skutočné“ a čo nie, t. j. vlastne zisťovanie, keď niečo napíše AI, bude ťažšie. To bude mať obrovský dopad na prakticky všetky odvetvia a oblasti spoločnosti, dokonca aj na osobné vzťahy.

Dôsledky AI pre kybernetickú bezpečnosť a súkromie

Skutočnosť, že neexistujú spoľahlivé mechanizmy na určenie, či niečo vytvoril softvér alebo človek, má vážne dôsledky na kybernetickú bezpečnosť a súkromie.

Ohrození aktéri už sú pomocou ChatGPT na písanie škodlivého softvéru, generovať phishingové e-maily, písať spam, vytvárať podvodné stránky a ďalšie. A aj keď existujú spôsoby, ako sa tomu brániť, je určite znepokojujúce, že neexistuje žiadny softvér, ktorý by dokázal spoľahlivo rozlíšiť organický obsah od obsahu botov.

Aj falošné správy sú už teraz obrovským problémom. S generatívnou AI na obrázku sú dezinformační agenti schopní škálovať svoje operácie bezprecedentným spôsobom. Bežný človek medzitým nemá možnosť zistiť, či niečo, čo číta online, vytvoril softvér alebo ľudská bytosť.

Súkromie je úplne iná záležitosť. Vezmite si napríklad ChatGPT. To bolo nakŕmil viac ako 300 miliárd slov pred jeho spustením. Tento obsah bol stiahnutý z kníh, blogov a príspevkov na fórach, článkov a sociálnych médií. Boli zhromaždené bez súhlasu kohokoľvek a so zdanlivo úplným ignorovaním ochrany súkromia a autorských práv.

Potom je tu aj problém falošných poplachov. Ak je obsah omylom označený ako vygenerovaný AI, nemôže to viesť k cenzúre, čo je aj tak obrovský problém? Nehovoriac o škodách, ktoré by obvinenie z používania textu vytvoreného umelou inteligenciou mohlo spôsobiť vašej povesti, či už online alebo v reálnom živote.

Ak skutočne existujú preteky v zbrojení medzi generatívnou AI a detektormi obsahu, prvý vyhráva. Čo je horšie, zdá sa, že neexistuje žiadne riešenie. Všetko, čo máme, sú naše polotovary, ktoré ani polovicu času nefungujú, alebo sa dajú veľmi ľahko oklamať.

Ako zistiť obsah AI: potenciálne riešenia

To, že v súčasnosti nemáme skutočné odpovede na tento problém, neznamená, že v budúcnosti žiadne nebudeme mať. V skutočnosti už existuje niekoľko serióznych návrhov, ktoré by mohli fungovať. Vodoznak je jeden.

Pokiaľ ide o AI a hlboké jazykové modely, vodoznak sa vzťahuje na vloženie tajného kódu do textu vygenerovaného AI (napr. vzor slova, štýl interpunkcie). Takýto vodoznak by bol voľným okom neviditeľný, a teda takmer nemožné ho odstrániť, no špecializovaný softvér by ho dokázal odhaliť.

V skutočnosti ešte v roku 2022 University of Maryland výskumníci vyvinuli novú metódu vodoznaku pre umelé neurónové siete. Vedúci výskumu Tom Goldstein vtedy povedal, že jeho tímu sa podarilo „matematicky dokázať“, že ich vodoznak nemožno úplne odstrániť.

Bežný človek sa zatiaľ môže spoľahnúť na svoj inštinkt a zdravý rozum. Ak je na obsahu, ktorý čítate, niečo zlé – ak vám to pripadá neprirodzené, opakujúce sa, nenápadité, banálne – mohol byť vytvorený softvérom. Samozrejme, mali by ste tiež overiť všetky informácie, ktoré vidíte online, skontrolovať zdroj a držať sa ďalej od tienistých webových stránok.

Revolúcia AI prebieha

Niektorí tvrdia, že piata priemyselná revolúcia je už tu, keďže umelá inteligencia je stredobodom toho, čo sa označuje ako zbližovanie digitálneho a fyzického. Či je to naozaj tak, alebo nie, jediné, čo môžeme urobiť, je prispôsobiť sa.

Dobrou správou je, že odvetvie kybernetickej bezpečnosti sa prispôsobuje tejto novej realite a implementuje nové obranné stratégie s AI a strojovým učením v popredí.