Pripojili ste sa k zoznamovacej aplikácii? Alebo hľadáš lásku inde? Podvodníci vás môžu využiť pomocou umelej inteligencie. Tu je návod.

Online zoznamovacie aplikácie boli vždy semeniskom pre romantické podvody. Kyberzločinci idú nad rámec kradnutia peňazí, osobných informácií a explicitných fotografií. Ich falošné profily nájdete všade.

A s rozšírením generatívnych nástrojov AI sa podvody s romantikou stávajú ešte jednoduchšie. Znižujú bariéry vstupu. Tu je sedem bežných spôsobov, ako podvodníci s romantikou využívajú AI – a ako sa môžete chrániť.

1. Hromadné odosielanie e-mailov generovaných AI

Spamové e-maily sa filtrujú čoraz ťažšie. Romantickí podvodníci zneužívajú generatívne nástroje AI na písanie zavádzajúcich, presvedčivých správ a vytváranie viacerých účtov v priebehu niekoľkých hodín. Takmer okamžite sa približujú k stovkám.

Spamové správy vygenerované AI uvidíte na rôznych platformách, nielen vo vašej e-mailovej schránke. Vezmite si podvod s nesprávnym číslom ako príklad. Podvodníci hromadne posielajú roztomilé selfie či sugestívne fotky. A ak niekto odpovie, bude to hrať ako nevinnú chybu.

instagram viewer

Keď je niekto na linke, bude presmerovaný na inú platformu na odosielanie správ (napr. WhatsApp alebo Telegram). Väčšina schém trvá týždne. Podvodníci si postupne budujú dôveru predtým, ako požiadajú ciele, aby sa pripojili k investičným schémam, znášali svoje účty alebo platili za cesty.

Zostaňte v bezpečí a úplne sa vyhýbajte spamovým správam. Obmedzte svoje vzťahy s cudzími ľuďmi bez ohľadu na to, ako vyzerajú alebo čo ponúkajú.

2. Rýchla odpoveď na ďalšie konverzácie

Boti sa šíria online ako požiar. Imperva uvádza, že zlé roboty tvorili v roku 2022 30 percent automatizovanej webovej návštevnosti. Jeden nájdete v priebehu niekoľkých sekúnd po prejdení cez zápasy Tinder.

Jedným z dôvodov tohto náhleho nárastu počtu robotov je šírenie generatívnych nástrojov AI. Hromadne chrlia roboty. Stačí zadať správnu výzvu a váš nástroj predstaví úplný a efektívny útržok kódu na generovanie robotov.

Zistite, kedy hovoríte s robotom. Hoci AI používa prirodzený, konverzačný tón, jej dialógy stále vyznievajú monotónne a trápne. Koniec koncov, chatboti iba sledujú vzorce. Môže produkovať podobné odpovede na rôzne otázky, vyhlásenia a požiadavky.

3. Vytváranie viacerých identít z ukradnutých obrázkov

2 obrázky

Generátory umenia AI manipulovať s obrázkami. Vezmite si nižšie uvedenú ukážku ako príklad. Naplnili sme Playground AI úprimnou fotografiou slávneho speváka – platforma vytvorila tri variácie v priebehu niekoľkých sekúnd.

Áno, majú nedostatky. Upozorňujeme však, že sme použili bezplatný nástroj so zastaraným modelom prevodu textu na obrázok. Podvodníci vytvárajú realistickejší výstup so sofistikovanými iteráciami. Dokážu rýchlo vykresliť stovky prispôsobených, upravených fotografií z niekoľkých vzoriek.

Bohužiaľ, obrázky AI je ťažké odhaliť. Najlepším riešením by bolo urobiť a spätné vyhľadávanie obrázkov a preosiať relevantné výsledky.

4. Vytváranie klamlivo autenticky vyzerajúcich profilov

Boti sa masovo približujú k obetiam. Takže romantickí podvodníci, ktorí uprednostňujú cielenú schému, si vytvoria iba jeden alebo dva autenticky vyzerajúce profily. Použijú AI, aby vyzerali presvedčivo. Generatívne nástroje AI dokážu vytvárať autenticky vyzerajúce popisy, ktoré znejú prirodzene a autenticky; zlá gramatika už nebude problémom.

Tu je ChatGPT, ktorý navrhuje nejaké koníčky, ktoré by ste mali uviesť na zoznamovací profil.

A tu je ChatGPT, ktorý píše celú biografiu pre váš zoznamovací profil.

Keďže tento proces zaberá toľko času, vyžaduje si aj väčšiu návratnosť. Takže podvodníci majú tendenciu žiadať viac. Keď si získajú vašu dôveru, požiadajú o pomoc s rôznymi „problémami“, ako sú účty za nemocnice, platby za pôžičky alebo školné. Niektorí budú dokonca tvrdiť, že vás navštívia, ak im prenesiete lístok.

Títo kyberzločinci sú zruční v manipulácii s obeťami. Najlepšou taktikou je vyhnúť sa ich kontaktu hneď od začiatku. Nedovoľte im nič povedať. V opačnom prípade by ste mohli postupne prepadnúť ich klamaniu a metódam gaslightingu.

5. Využívanie technológie Deepfake na sexuálne vydieranie

Umelá inteligencia zdokonalila nástroje deepfake alarmujúco rýchlou rýchlosťou. Nové technológie znižujú drobné nedokonalosti v deepfake videách, ako je neprirodzené blikanie, nerovnomerné odtiene pokožky, skreslený zvuk a nekonzistentné prvky.

Bohužiaľ, tieto chyby slúžia aj ako červené vlajky. Ak používateľom umožníte ich odstránenie, sťaží sa rozlišovanie medzi legitímnymi a hlboko falošnými videami.

Bloomberg ukazuje, ako môže ktokoľvek so základnými technickými znalosťami manipulovať so svojím hlasom a vizuálmi, aby replikoval ostatných.

Okrem vytvárania realistických zoznamovacích profilov podvodníci využívajú deepfake nástroje na sexuálne vydieranie. Spájajú verejné fotografie a videá s pornografiou. Po manipulácii s nezákonným obsahom budú obete vydierať a požadovať peniaze, osobné údaje alebo sexuálne služby.

Neustupujte, ak vás zacielia. Ak sa ocitnete v tejto situácii, zavolajte na číslo 1-800-CALL-FBI, pošlite tip FBI alebo navštívte miestnu pobočku FBI.

6. Integrácia modelov AI so systémami hackovania hrubou silou

Aj keď jazykové modely s otvoreným zdrojovým kódom podporujú niektoré vylepšenia AI, sú tiež náchylné na zneužívanie. Zločinci využijú čokoľvek. Nemôžete očakávať, že budú ignorovať algoritmus vysoko sofistikovaných jazykových modelov, ako je LLaMA a OpenAssistant.

V romantických podvodoch hackeri často integrujú jazykové modely s prelomením hesiel. Možnosti NLP a strojového učenia AI umožňujú systémom brutálnych hackingov vytvárať kombinácie hesiel rýchlo a efektívne. Mohli by dokonca robiť informované predpovede, ak by mali dostatok kontextu.

Nemáte žiadnu kontrolu nad tým, čo robia podvodníci. Ak chcete chrániť svoje účty, uistite sa vytvorte skutočne bezpečné heslo obsahujúce špeciálne znaky, alfanumerické kombinácie a viac ako 14 znakov.

7. Napodobňovanie skutočných ľudí pomocou klonovania hlasu

Generátory hlasu AI začali ako skvelá hračka. Používatelia by premenili ukážkové skladby svojich obľúbených interpretov na cover verzie alebo dokonca nové skladby. Ako príklad si vezmite Heart on My Sleeve. Používateľ TikTok Ghostwriter977 vytvoril superrealistickú pieseň napodobňujúcu Drakea a The Weeknda, hoci ju nenaspieval ani jeden umelec.

Napriek vtipom a memom okolo toho, syntéza reči je veľmi nebezpečná. Umožňuje zločincom vykonávať sofistikované útoky. Napríklad romantickí podvodníci využívajú nástroje na klonovanie hlasu na volanie cieľov a zanechávajú klamlivé nahrávky. Obete, ktoré nepoznajú syntézu reči, si nevšimnú nič neobvyklé.

Chráňte sa pred podvodmi s klonovaním hlasu AI štúdiom, ako znejú syntetizované výstupy. Preskúmajte tieto generátory. Vytvárajú iba takmer identické klony – stále nájdete nejaké nedokonalosti a nezrovnalosti.

Chráňte sa pred podvodníkmi zo zoznamiek AI

S rozvojom generatívnych nástrojov AI budú podvodníci s romantikou vyvíjať nové spôsoby, ako ich využiť. Vývojári nemôžu zastaviť týchto zločincov. Prevezmite proaktívnu úlohu v boji proti počítačovej kriminalite namiesto toho, aby ste verili, že bezpečnostné obmedzenia fungujú. Stále môžete používať zoznamovacie aplikácie. Pred kontaktom s osobou na druhej strane obrazovky sa však uistite, že poznáte osobu.

A dávajte si pozor na ďalšie schémy podporované AI. Okrem romantických podvodov používajú zločinci AI na krádeže identity, kybernetické vydieranie, vydieranie, útoky ransomware a hackovanie hrubou silou. Naučte sa bojovať aj s týmito hrozbami.