Či už ide o zlé údaje alebo zlých používateľov, AI vytvorená pomocou strojového učenia môže nakoniec robiť vážne chyby.

Strojové učenie je skvelý spôsob, ako vytvoriť umelú inteligenciu, ktorá je výkonná a prispôsobuje sa svojim tréningovým údajom. Niekedy však tieto údaje môžu spôsobiť problémy. Inokedy je problémom spôsob, akým ľudia používajú tieto nástroje AI.

Tu je pohľad na niektoré významné incidenty, pri ktorých strojové učenie viedlo k problematickým výsledkom.

1. Chyby vo výsledkoch vyhľadávania obrázkov Google

Vyhľadávanie Google výrazne uľahčilo navigáciu na webe. Algoritmus motora berie do úvahy rôzne veci pri hromadení výsledkov. Algoritmus sa však učí aj z návštevnosti používateľov, čo môže spôsobiť problémy s kvalitou výsledkov vyhľadávania.

Nikde to nie je zjavnejšie ako vo výsledkoch obrázkov. Keďže stránky s vysokou návštevnosťou majú väčšiu pravdepodobnosť, že sa budú zobrazovať ich obrázky, príbehy, ktoré priťahujú vysoký počet používateľov, vrátane clickbaitov, môžu skončiť prioritne.

instagram viewer

Napríklad výsledky vyhľadávania obrázkov pre „tábory squatterov v Juhoafrickej republike“ vyvolali kontroverziu, keď sa zistilo, že v nich boli prevažne bieli Juhoafričania. A to aj napriek štatistikám, ktoré ukazujú, že drvivú väčšinu ľudí žijúcich v neformálnom bývaní tvoria čierni Juhoafričania.

Faktory použité v algoritme Google tiež znamenajú, že používatelia internetu môžu manipulovať s výsledkami. Napríklad kampaň používateľov ovplyvnila výsledky vyhľadávania obrázkov Google do tej miery, že pri vyhľadávaní výrazu „idiot“ sa na určité obdobie zobrazili obrázky bývalého prezidenta USA Donalda Trumpa.

2. Microsoft Bot Tay sa zmenil na nacistu

Chatboty poháňané AI sú mimoriadne populárne, najmä tie, ktoré využívajú veľké jazykové modely, ako je ChatGPT. ChatGPT má niekoľko problémov, no jeho tvorcovia sa poučili aj z chýb iných spoločností.

Jedným z najvýznamnejších incidentov chatbotov, ktoré sa pokazili, bol pokus spoločnosti Microsoft spustiť chatbot Tay.

Tay napodobňovala jazykové vzorce dospievajúceho dievčaťa a učila sa prostredníctvom interakcií s ostatnými používateľmi Twitteru. Stala sa však jedným z najneslávnejších prešľapov AI, keď začala zdieľať nacistické vyhlásenia a rasové osočovanie. Ukázalo sa, že trolovia proti nej použili strojové učenie AI a zaplavili ju interakciami plnými fanatizmu.

Netrvalo dlho a Microsoft Tay definitívne prerušil.

3. Problémy s rozpoznávaním tváre AI

Umelá inteligencia na rozpoznávanie tváre sa často dostáva na titulky zo všetkých nesprávnych dôvodov, ako sú napríklad príbehy o rozpoznávaní tváre a obavách o súkromie. Ale táto AI má problematickú históriu, keď sa pokúša rozpoznať ľudí inej farby pleti.

V roku 2015 používatelia zistili, že Fotky Google kategorizujú niektorých černochov ako gorily. V roku 2018 výskum ACLU ukázal, že softvér na identifikáciu tváre Amazon Rekognition identifikoval 28 členov Kongresu USA ako podozrivých z polície, pričom falošne pozitívne výsledky neúmerne ovplyvňujú ľudí z farba.

Ďalší incident sa týkal toho, že softvér Face ID od Apple nesprávne identifikoval dve rôzne Číňanky ako tú istú osobu. Vďaka tomu mohol kolega majiteľa iPhonu X telefón odomknúť.

Ako príklad extrémnych dôsledkov viedla umelá inteligencia na rozpoznávanie tváre k neoprávnenému zatknutiu niekoľkých ľudí. Drôtové informovali o troch takýchto prípadoch.

Počítačová vedkyňa Joy Buolamwiniová si medzitým spomenula, že pri práci na technológii rozpoznávania tváre musela často nosiť bielu masku, aby ju softvér rozpoznal. Na vyriešenie problémov, ako je tento, Buolamwini a ďalší IT profesionáli upozorňujú na problém skreslenia AI a potrebu inkluzívnejších súborov údajov.

4. Deepfakes používané pre hoaxy

Zatiaľ čo ľudia už dlho používajú Photoshop na vytváranie falošných obrázkov, strojové učenie to posúva na novú úroveň. Deepfakes používajú AI na vytváranie falošných obrázkov a videí. Softvér ako FaceApp vám umožňuje vymieňať si tváre z jedného videa do druhého.

Mnoho ľudí však využíva softvér na rôzne škodlivé účely, vrátane prekrývania tvárí celebrít do videí pre dospelých alebo vytvárania falošných videí. Používatelia internetu medzitým pomohli vylepšiť technológiu, aby bolo čoraz ťažšie rozlíšiť skutočné videá od falošných. Výsledkom je, že tento typ AI je veľmi silný, pokiaľ ide o šírenie falošných správ a hoaxov.

Aby predviedli silu tejto technológie, režisér Jordan Peele a generálny riaditeľ BuzzFeed Jonah Peretti vytvorili a deepfake video zobrazujúce to, čo vyzerá ako bývalý americký prezident Barack Obama, ktorý podáva PSA na sile deepfakes.

Sila falošných obrázkov bola zrýchlená pomocou generátorov obrázkov poháňaných AI. Virálne príspevky v roku 2023 zobrazujúce zatknutie Donalda Trumpa a katolíckeho pápeža v nafúknutej bunde sa ukázali byť výsledkom generatívnej AI.

Existujú tipy, podľa ktorých môžete rozpoznať obrázok vygenerovaný AI, ale technológia je čoraz sofistikovanejšia.

5. Zamestnanci tvrdia, že umelá inteligencia Amazonu sa rozhodla najímať mužov lepšie

V októbri 2018 Reuters oznámili, že Amazon musel zrušiť nástroj na nábor práce po tom, čo AI softvéru rozhodla, že mužskí kandidáti sú preferovaní.

Zamestnanci, ktorí si želali zostať v anonymite, sa prihlásili, aby agentúre Reuters povedali o svojej práci na projekte. Vývojári chceli, aby AI identifikovala najlepších kandidátov na prácu na základe ich životopisov. Ľudia zapojení do projektu si však čoskoro všimli, že AI penalizovala kandidátky. Vysvetlili, že AI používala životopisy z posledného desaťročia, z ktorých väčšina pochádzala od mužov, ako svoj tréningový súbor údajov.

Výsledkom bolo, že AI začala filtrovať životopisy na základe kľúčového slova „ženy“. Kľúčové slovo sa v životopise objavilo pod aktivitami ako „kapitánka ženského šachového klubu“. Zatiaľ čo vývojári zmenili AI, aby zabránili penalizácii ženských životopisov, Amazon nakoniec projekt zrušil.

6. Jailbreaknuté chatboty

Zatiaľ čo novšie chatboty majú zavedené obmedzenia, ktoré im bránia v poskytovaní odpovedí, ktoré sú v rozpore s ich zmluvnými podmienkami, používatelia nachádzajú spôsoby, ako utiecť z väzenia pomocou nástrojov na poskytovanie zakázaného obsahu.

V roku 2023 bol bezpečnostný výskumník Forcepoint Aaron Mulgrew schopný vytvoriť zero-day malvér pomocou výziev ChatGPT.

"Jednoducho použitím výziev ChatGPT a bez písania akéhokoľvek kódu sme boli schopní vytvoriť veľmi pokročilý útok len za pár hodín," povedal Mulgrew. Príspevok Forcepoint.

Používateľom sa tiež údajne podarilo získať chatbotov, aby im dali pokyny, ako postaviť bomby alebo ukradnúť autá.

7. Nehody samoriadiacich áut

Nadšenie pre autonómne vozidlá bolo utlmené od počiatočnej fázy humbuku kvôli chybám, ktoré urobila samoriadiaca AI. V roku 2022 The Washington Post oznámili, že približne za rok bolo Národnému úradu pre bezpečnosť cestnej premávky USA nahlásených 392 nehôd zahŕňajúcich pokročilé asistenčné systémy pre vodiča.

Tieto nehody si vyžiadali ťažké zranenia a šesť mŕtvych.

Aj keď to nezabránilo spoločnostiam ako Tesla v presadzovaní úplne autonómnych vozidiel, je to tak vyvolalo obavy z nárastu nehôd, keďže sa na ňu dostane viac áut so softvérom na autonómne riadenie cesty.

Umelá inteligencia strojového učenia nie je spoľahlivá

Aj keď strojové učenie môže vytvárať výkonné nástroje AI, nie sú imúnne voči zlým údajom ani ľudskej manipulácii. Či už kvôli chybným tréningovým údajom, obmedzeniam technológie AI alebo používaniu zlými hráčmi, tento typ AI viedol k mnohým negatívnym incidentom.