Každý si myslí, že dokáže rozpoznať hlboké falošné video, ale rýchlo sa zlepšujúca technológia vrátane nástrojov AI robí odhalenie falošného videa ťažšie ako kedykoľvek predtým.

Kľúčové informácie

  • Deepfakes predstavujú významné hrozby pre spoločnosť, vrátane šírenia dezinformácií, poškodzovania reputácie prostredníctvom odcudzenia identity a podnecovania konfliktov pre národnú bezpečnosť.
  • Aj keď technológia AI ponúka nástroje na detekciu deepfake, nie sú dokonalé a pri identifikácii deepfake zostáva rozhodujúca ľudská diskrétnosť.
  • Ľudia a nástroje na detekciu AI majú rôzne silné a slabé stránky pri identifikácii deepfakes a Kombinácia ich schopností môže zlepšiť mieru úspešnosti pri odhaľovaní a zmierňovaní nebezpečenstva deepfake technológie.

Deepfakes ohrozujú každý aspekt spoločnosti. Naša schopnosť identifikovať falošný obsah je kľúčová pre anulovanie dezinformácií, ale so zdokonaľovaním technológie AI môžeme dôverovať, že dokáže odhaliť falšovanie: človek alebo stroj?

Nebezpečenstvo Deepfakes

instagram viewer

Ako napreduje technológia AI, nebezpečenstvá deepfakes predstavujú čoraz väčšiu hrozbu pre nás všetkých. Tu je rýchly súhrn niektorých najpálčivejších problémov, ktoré predstavujú deepfakes:

  • dezinformácie: Hlbokofalšované videá a hlasové nahrávky môžu šíriť dezinformácie, ako sú falošné správy.
  • Odcudzenie identity: Odcudzením identity jednotlivcov môžu deepfakes poškodiť povesť ľudí alebo oklamať kohokoľvek, koho poznajú.
  • Národná bezpečnosť: Zjavným scenárom súdneho dňa s deepfakes sú vymyslené zábery alebo zvuk globálneho lídra podnecujúceho konflikt.
  • Občianske nepokoje: Podvodné zábery a zvuk môžu strany použiť aj na podnecovanie hnevu a občianskych nepokojov medzi konkrétnymi skupinami.
  • Kyber ochrana: Kyberzločinci už používajú nástroje na klonovanie hlasu AI, aby sa zamerali na jednotlivcov s presvedčivými správami od ľudí, ktorých poznajú.
  • Súkromie a súhlas: Zlomyseľné používanie deepfakes sa podobá jednotlivcom bez ich súhlasu.
  • Dôvera a dôvera: Ak nedokážete rozlíšiť medzi pravdou a podvodom, presné informácie sa stávajú rovnako nedôveryhodné.

Deepfakes budú len presvedčivejšie, takže potrebujeme robustné nástroje a procesy na ich odhaľovanie. AI poskytuje jeden takýto nástroj vo forme modelov detekcie hlbokých falošných správ. Avšak, ako algoritmy navrhnuté na identifikáciu zápisu generovaného AI, nástroje na detekciu hlbokých falošných správ nie sú dokonalé.

V tejto dobe je ľudská diskrétnosť jediným ďalším nástrojom, na ktorý sa môžeme spoľahnúť. Sme teda v identifikácii deepfakes lepší ako algoritmy?

Môžu algoritmy odhaliť Deepfakes lepšie ako ľudia?

Deepfakes sú dostatočne vážnou hrozbou, že technologickí giganti a výskumné skupiny venujú obrovské zdroje na výskum a vývoj. V roku 2019 spoločnosti ako Meta, Microsoft a Amazon ponúkli ceny 1 000 000 USD počas Deepfake Detection Challenge pre čo najpresnejší model detekcie.

Model s najvyššou výkonnosťou mal presnosť 82,56 % v porovnaní so súborom údajov verejne dostupných videí. Keď sa však tie isté modely testovali na „súbore údajov čiernej skrinky“ s 10 000 neviditeľnými videami, model s najvyšším výkonom bol presný len na 65,18 %.

Máme tiež veľa štúdií, ktoré analyzujú výkon nástrojov na detekciu hlbokých falošných správ AI proti ľudským bytostiam. Samozrejme, výsledky sa líšia od jednej štúdie k druhej, ale vo všeobecnosti sa ľudia rovnajú alebo prekonávajú úspešnosť nástrojov na detekciu hlbokých falošných správ.

Jedna štúdia z roku 2021 zverejnená na PNAS zistili, že „bežní ľudskí pozorovatelia“ dosiahli o niečo vyššiu mieru presnosti ako popredné nástroje na detekciu deepfake. Štúdia však tiež zistila, že ľudskí účastníci a modely AI boli náchylné na rôzne typy chýb.

Zaujímavé je, že výskum, ktorý vykonal Univerzita v Sydney zistil, že ľudský mozog je nevedome efektívnejší pri odhaľovaní falzifikátov ako naše vedomé úsilie.

Detekcia vizuálnych stôp v Deepfakes

Detekcia deepfake je zložitá a požadovaná analýza sa líši v závislosti od povahy záznamu. Napríklad neslávne známe deepfake video severokórejského vodcu Kim Čong-una z roku 2020 je v podstate video s hovoriacou hlavou. V tomto prípade môže byť najúčinnejšou metódou detekcie hlbokých falošných správ analyzovanie nezrovnalostí visemy (pohyby úst) a fonémy (fonetické zvuky).

Ľudskí experti, náhodní diváci a algoritmy môžu vykonávať tento druh analýzy, aj keď sa výsledky líšia. The MIT definuje osem otázok, ktoré vám pomôžu identifikovať hlboko falošné videá:

  • Venujte pozornosť tvári. Špičkové manipulácie DeepFake sú takmer vždy transformácie tváre.
  • Venujte pozornosť lícam a čele. Zdá sa vám pokožka príliš hladká alebo príliš vráskavá? Je starnutie pokožky podobné starnutiu vlasov a očí? DeepFakes môžu byť v niektorých dimenziách nekongruentné.
  • Venujte pozornosť očiam a obočiu. Objavujú sa tiene na miestach, ktoré by ste očakávali? DeepFakes nemusí plne reprezentovať prirodzenú fyziku scény.
  • Venujte pozornosť okuliarom. Je tam nejaký odlesk? Je tam príliš veľa odleskov? Mení sa uhol oslnenia, keď sa osoba pohybuje? DeepFakes opäť nemusí plne reprezentovať prirodzenú fyziku osvetlenia.
  • Venujte pozornosť ochlpeniu tváre alebo jeho nedostatku. Vyzerajú tieto chĺpky na tvári ako skutočné? DeepFakes môže pridať alebo odstrániť fúzy, bokombrady alebo bradu. DeepFakes však môže zlyhať pri plnení prirodzených premien ochlpenia na tvári.
  • Venujte pozornosť krtkom na tvári. Vyzerá krtek ako skutočný?
  • Venujte pozornosť blikaniu. Žmurká osoba dostatočne alebo príliš veľa?
  • Venujte pozornosť pohybom pier. Niektoré deepfakes sú založené na synchronizácii pier. Vyzerajú pohyby pier prirodzene?

Najnovšie nástroje na detekciu hlbokých falošných správ AI dokážu analyzovať rovnaké faktory, opäť s rôznym stupňom úspechu. Vedci zaoberajúci sa údajmi neustále vyvíjajú aj nové metódy, ako je zisťovanie prirodzeného prietoku krvi v tvárach reproduktorov na obrazovke. Nové prístupy a vylepšenia existujúcich by mohli viesť k tomu, že nástroje na detekciu hlbokých falošných správ AI budú v budúcnosti neustále prekonávať ľudí.

Detekcia zvukových stôp v Deepfakes

Detekcia hlbokého falošného zvuku je úplne iná výzva. Bez vizuálnych náznakov videa a možnosti identifikovať audiovizuálne nezrovnalosti, deepfake detekcia sa vo veľkej miere spolieha na analýzu zvuku (v niektorých môžu pomôcť aj iné metódy, ako je overenie metadát prípady).

Štúdiu, ktorú zverejnil University College London v roku 2023 sa zistilo, že ľudia dokážu rozpoznať hlboko falošnú reč v 73 % prípadov (angličtina a mandarínčina). Rovnako ako v prípade hlboko falošných videí, ľudskí poslucháči často intuitívne detegujú neprirodzené rečové vzory v reči vygenerovanej AI, aj keď nevedia špecifikovať, čo sa zdá byť nesprávne.

Bežné znaky zahŕňajú:

  • Slintanie
  • Nedostatok prejavu
  • Šum pozadia alebo rušivý šum
  • Nekonzistentnosť hlasu alebo reči
  • Nedostatok "plnosti" v hlasoch
  • Príliš naskriptované doručenie
  • Nedostatok nedokonalostí (chybné štarty, korekcie, prečistenie hrdla atď.)

Algoritmy môžu opäť analyzovať reč na rovnaké hlboké falošné signály, ale nové metódy zefektívňujú nástroje. Výskum podľa USENIX identifikované vzory v rekonštrukcii hlasového traktu AI, ktoré nedokážu napodobniť prirodzenú reč. Zhrňuje, že hlasové generátory AI produkujú zvuk zodpovedajúci úzkym hlasovým traktom (približne veľkosti slamky na pitie) bez prirodzených pohybov ľudskej reči.

Skorší výskum z Inštitút Horsta Görtza analyzoval pravý a hlboko falošný zvuk v angličtine a japončine, pričom odhalil jemné rozdiely vo vyšších frekvenciách pravej reči a hlbokých falošných prejavov.

Vokálny trakt aj vysokofrekvenčné nezrovnalosti sú vnímateľné ľudskými poslucháčmi a detekčnými modelmi AI. V prípade vysokofrekvenčných rozdielov by modely AI mohli byť teoreticky čoraz presnejšie – hoci to isté by sa dalo povedať aj o deepfakes AI.

Ľudia aj algoritmy sú oklamaní Deepfakes, ale rôznymi spôsobmi

Štúdie naznačujú, že ľudia a najnovšie detekčné nástroje AI sú podobne schopné identifikovať deepfakes. Miera úspešnosti sa môže pohybovať medzi 50 % a 90+ %, v závislosti od parametrov testu.

V širšom zmysle sú ľudia a stroje tiež oklamaní deepfakemi v podobnom rozsahu. Rozhodujúce však je, že sme náchylní rôznymi spôsobmi, a to by mohla byť naša najväčšia devíza pri riešení nebezpečenstiev deepfake technológie. Kombinácia silných stránok ľudí a nástrojov na detekciu hlbokých falošných správ zmierni slabé stránky každého z nich a zlepší mieru úspešnosti.

Napríklad, MIT výskum zistil, že ľudia boli lepší v identifikácii deepfakes svetových lídrov a slávnych ľudí ako modely AI. Odhalilo tiež, že modely AI zápasili so zábermi s viacerými ľuďmi, aj keď to naznačovalo, že by to mohlo byť výsledkom trénovania algoritmov na záberoch s jednotlivými reproduktormi.

Naopak, rovnaká štúdia zistila, že modely AI prekonali ľudí s nekvalitným záznamom (rozmazaný, zrnitý, tmavý atď.), ktorý by mohol byť zámerne použitý na oklamanie ľudských divákov. Podobne nedávne metódy detekcie AI, ako je monitorovanie prietoku krvi v konkrétnych oblastiach tváre, zahŕňajú analýzu, ktorú ľudia nedokážu.

S vývojom ďalších metód sa bude schopnosť umelej inteligencie detekovať znaky, ktoré nedokážeme, len zlepšiť, ale aj jej schopnosť klamať. Veľkou otázkou je, či technológia detekcie deepfake bude aj naďalej prekonávať samotné deepfake.

Vidieť veci inak vo veku Deepfakes

Nástroje AI na detekciu deepfake sa budú naďalej zlepšovať, rovnako ako samotná kvalita deepfake obsahu. Ak schopnosť umelej inteligencie klamať prevyšuje jej schopnosť detegovať (ako je to v prípade textu generovaného AI), ľudská diskrétnosť môže byť jediným nástrojom, ktorý nám zostáva na boj proti deepfake.

Každý je zodpovedný za to, aby sa naučil príznaky deepfakes a ako ich rozpoznať. Okrem ochrany pred podvodmi a bezpečnostnými hrozbami je všetko, o čom diskutujeme a zdieľame online, náchylné na dezinformácie, ak stratíme prehľad o realite.