Technológia Deepfake môže byť zábavná, ale jej potenciál ublížiť je značný. Tu je to, čo môže priniesť budúcnosť deepfakes.
Výpovedné znaky hlbokého falošného obrazu boli kedysi ľahko rozpoznateľné, ale generatívna AI nás núti spochybňovať všetko, čo teraz vidíme a počujeme. S každým novým modelom AI, ktorý je uvedený na trh, sa náznaky falošného obrazu zmenšujú a pridávajú sa zmätku, teraz môžete vytvárať hlboké falošné videá, hlasové klony svojich blízkych a vyrábať falošné články iba sekúnd.
Aby ste sa nenechali oklamať AI deepfakes, stojí za to vedieť, aké nebezpečenstvo predstavujú.
Evolúcia Deepfakes
Deepfake ukazuje, že človek robí niečo, čo sa v skutočnom živote nikdy nestalo. Je to úplne falošné. Smejeme sa na deepfakes, keď sú zdieľané na internete ako meme alebo vtip, ale len veľmi málo ľudí považuje za vtipné, keď sú zvyknutí nás zavádzať.
V minulosti sa deepfakes vytvárali nasnímaním existujúcej fotografie a jej úpravou v softvéri na úpravu obrázkov, ako je Photoshop. Ale to, čo odlišuje AI deepfake, je to, že môže byť generované úplne od začiatku pomocou algoritmov hlbokého učenia.
The Slovník Merriam-Webster definuje deepfake ako:
Obraz alebo záznam, ktorý bol presvedčivo pozmenený a zmanipulovaný tak, aby skresľoval niekoho, kto robí alebo hovorí niečo, čo v skutočnosti nebolo urobené alebo povedané.
Ale s pokrokom v technológii AI sa táto definícia začína zdať zastaraná. Pomocou nástrojov AI teraz deepfakes zahŕňajú obrázky, text, videá a hlasové klonovanie. Niekedy sa všetky štyri režimy generovania AI používajú naraz.
Keďže ide o automatizovaný proces, ktorý je neuveriteľne rýchly a lacný na používanie, je to dokonalý nástroj na hromadenie deepfakes rýchlosťou, ktorú sme nikdy predtým nevideli – a to všetko bez toho, aby ste museli vedieť čo i len o tom, ako upravovať fotografie, videá alebo audio.
Veľké nebezpečenstvo AI Deepfakes
Zástupca AI video generátory už existujú spolu s mnohými AI hlasové generátory. Vhodiť a veľký jazykový model ako GPT-4 a máte recept na vytvorenie tých najdôveryhodnejších deepfakes, aké sme doteraz v modernej histórii videli.
Uvedomenie si rôznych druhov hlbokých falzifikátov AI a toho, ako môžu byť použité na oklamanie, je jedným zo spôsobov, ako sa vyhnúť zavádzaniu. Tu je len niekoľko vážnych príkladov toho, ako technológia AI deepfake predstavuje skutočnú hrozbu.
1. Krádež identity AI
Možno ste ich už videli. Medzi prvými skutočne vírusovými AI deepfake, ktoré sa rozšírili po celom svete, bol obrázok zatknutého Donalda Trumpa a jeden z pápežov Františka v bielej bunde.
Zatiaľ čo jeden vyzerá ako nevinná re-predstava toho, čo si môže slávna náboženská osobnosť obliecť počas chladného dňa v Ríme; druhý obrázok, ktorý ukazuje politickú osobnosť vo vážnej situácii so zákonom, má oveľa väčšie dôsledky, ak sa považuje za skutočný.
Doteraz sa ľudia pri vytváraní deepfakes AI zameriavali najmä na celebrity, politické osobnosti a iné známe osobnosti. Čiastočne je to preto, že slávni jedinci majú na internete množstvo ich fotografií, ktoré pravdepodobne pomohli vycvičiť modelku.
V prípade generátora obrázkov AI, ako je Midjourney, ktorý sa používa v Trumpovi aj pápežovi, musí používateľ jednoducho zadať text s popisom toho, čo chce vidieť. Kľúčové slová možno použiť na určenie umeleckého štýlu, ako je fotografia alebo fotorealizmus, a výsledky možno doladiť zvýšením rozlíšenia.
Môžete rovnako ľahko Naučte sa používať Midjourney a otestujte si to sami, ale zo zjavných morálnych a právnych dôvodov by ste sa mali vyhýbať zverejňovaniu týchto obrázkov.
Bohužiaľ, to, že ste priemerný, neslávny človek, vám nezaručí, že ste v bezpečí pred AI deepfake.
Problém spočíva v kľúčovej funkcii, ktorú ponúkajú generátory obrázkov AI: možnosť nahrať svoj vlastný obrázok a manipulovať s ním pomocou AI. A podobný nástroj Maľba v DALL-E 2 môže rozšíriť existujúci obrázok za jeho hranice zadaním textovej výzvy a popisom toho, čo by ste ešte chceli vygenerovať.
Ak by to s vašimi fotografiami urobil niekto iný, nebezpečenstvo by mohlo byť podstatne väčšie ako falšovanie pápeža v bielom saku – môžu ho použiť kdekoľvek a predstierať, že ste vy. Zatiaľ čo väčšina ľudí vo všeobecnosti používa AI s dobrými úmyslami, existuje len veľmi málo obmedzení, ktoré bránia ľuďom v jej používaní na spôsobenie škody, najmä v prípadoch krádeže identity.
2. Deepfake Voice Clone Scams
S pomocou AI prekročili deepfakes hranicu, na ktorú väčšina z nás nebola pripravená: falošné hlasové klony. Len s malým množstvom originálneho zvuku – možno z videa TikTok, ktoré ste raz zverejnili, alebo z videa YouTube, v ktorom sa objavíte – dokáže model AI replikovať váš jedinečný hlas.
Je neuveriteľné a zároveň desivé predstaviť si telefonát, ktorý znie ako od člena rodiny, priateľa alebo kolegu. Hlboké hlasové klony sú dosť vážnym problémom Federálna obchodná komisia (FTC) vydal na to varovanie.
Neverte hlasu. Zavolajte osobe, ktorá vás údajne kontaktovala, a overte si príbeh. Použite telefónne číslo, o ktorom viete, že je ich. Ak nemôžete zastihnúť svojho blízkeho, skúste sa s ním spojiť prostredníctvom iného člena rodiny alebo jeho priateľov.
Informoval o tom denník The Washington Post prípad páru vo veku 70 rokov, ktorý dostal telefonát od niekoho, kto znel rovnako ako ich vnuk. Bol vo väzení a súrne potreboval peniaze na kauciu. Keďže nemali žiadny iný dôvod pochybovať o tom, s kým sa rozprávajú, pokračovali a odovzdali peniaze podvodníkovi.
Ohrozená nie je len staršia generácia, Informoval denník The Guardian ďalší príklad bankového manažéra, ktorý schválil transakciu v hodnote 35 miliónov dolárov po sérii „hlboko falošných hovorov“ od niekoho, o kom si myslel, že je riaditeľom banky.
3. Masovo produkované falošné správy
Veľké jazykové modely, napr ChatGPT sú veľmi, veľmi dobrí vo vytváraní textu, ktorý znie rovnako ako človek, a v súčasnosti nemáme účinné nástroje na rozpoznanie rozdielu. V nesprávnych rukách bude výroba falošných správ a konšpiračných teórií lacná a ich odhalenie bude trvať dlhšie.
Šírenie dezinformácií samozrejme nie je nič nové, ale ide o výskumný dokument uverejnené na arXiv v januári 2023 vysvetľuje, že problém spočíva v tom, aké ľahké je zväčšiť výstup pomocou nástrojov AI. Hovoria o tom ako o „vplyvových kampaniach generovaných AI“, ktoré by podľa nich mohli napríklad politici využiť na outsourcing svojich politických kampaní.
Kombinácia viac ako jedného zdroja generovaného AI vytvára hlboký falošný obraz na vysokej úrovni. Napríklad model AI môže generovať dobre napísaný a presvedčivý spravodajský príbeh, ktorý sa hodí k falošnému obrazu zatknutého Donalda Trumpa. To mu dáva väčšiu legitimitu, ako keby bol obrázok zdieľaný samostatne.
Falošné správy sa neobmedzujú len na obrázky a písanie, vývoj v oblasti generovania videa AI znamená, že sa objavuje viac hlboko falošných videí. Tu je jeden z Roberta Downeyho Jr. naočkovaný na video Elona Muska, ktoré zverejnil YouTube kanál Deepfakery.
Vytvorenie deepfake môže byť také jednoduché ako stiahnutie aplikácie. Môžete použiť aplikáciu ako napr TokkingHeads na premenu statických obrázkov na animované avatary, ktorá vám umožňuje nahrať vlastný obrázok a zvuk, aby sa zdalo, že daná osoba hovorí.
Väčšinou je to zábavné a zábavné, no je tu aj potenciál na problémy. Ukazuje nám, aké ľahké je použiť niekoho obraz, aby to vyzeralo, ako keby ten človek vyslovil slová, ktoré nikdy nepovedal.
Nenechajte sa oklamať AI Deepfake
Deepfakes je možné rýchlo nasadiť s veľmi nízkymi nákladmi as nízkou úrovňou odborných znalostí alebo požadovaným výpočtovým výkonom. Môžu mať tvar vygenerovaného obrázka, hlasového klonu alebo kombinácie obrázkov, zvuku a textu vygenerovaných AI.
Kedysi bolo oveľa zložitejšie a pracnejšie vytvoriť deepfake, ale teraz, s množstvom aplikácií AI, má takmer každý prístup k nástrojom používaným na vytváranie deepfake. Keďže technológia AI deepfake je stále pokročilejšia, stojí za to pozorne sledovať nebezpečenstvá, ktoré predstavuje.