Generatívna AI je skvelá, no svoje informácie vždy prezentuje s absolútnou autoritou. Čo je skvelé, pokiaľ to nie je halucinácia pravdy.

Halucinácie umelej inteligencie (AI) znejú mätúco. Pravdepodobne si hovoríte: "Nie sú halucinácie ľudský fenomén?" No áno, kedysi to bol výlučne človek fenomén, kým AI nezačala vykazovať ľudské vlastnosti, ako je rozpoznávanie tváre, samoučenie a reč uznanie.

Bohužiaľ, AI prevzala niektoré negatívne atribúty, vrátane halucinácií. Je teda halucinácia AI podobná halucinácii, ktorú zažívajú ľudia?

Čo je halucinácia AI?

K halucinácii umelej inteligencie dochádza, keď model AI generuje výstupy odlišné od očakávaných. Všimnite si, že niektoré modely AI sú trénované tak, aby zámerne generovali výstupy, ktoré nesúvisia s akýmkoľvek skutočným vstupom (údajmi).

Napríklad, špičkové generátory AI textu na umenie, ako napríklad DALL-E 2, dokáže kreatívne vytvárať nové obrázky, ktoré môžeme označiť ako „halucinácie“, pretože nie sú založené na údajoch z reálneho sveta.

instagram viewer

Halucinácie AI v modeloch spracovania veľkých jazykov

Pozrime sa, ako by halucinácie AI vyzerali vo veľkom modeli spracovania jazyka, akým je ChatGPT. Halucinácia ChatGPT by viedla k tomu, že bot by vám poskytol nesprávny fakt s určitým tvrdením, takže by ste takéto fakty prirodzene považovali za pravdu.

Jednoducho povedané, ide o vymyslené vyhlásenia umelo inteligentného chatbota. Tu je príklad:

Na ďalší dotaz sa ChatGPT objavil s týmto:

Halucinácie AI v počítačovom videní

Pozrime sa na ďalšiu oblasť AI, ktorá môže zažiť halucinácie AI: Počítačové videnie. Kvíz nižšie ukazuje montáž 4x4 s dvoma entitami, ktoré sa tak veľmi podobajú. Obrázky sú zmesou BBQ zemiakových lupienkov a listov.

Úlohou je vybrať zemiakové lupienky bez toho, aby ste narazili na listy v montáži. Tento obrázok môže byť pre počítač zložitý a nemusí byť schopný rozlíšiť medzi BBQ zemiakovými lupienkami a listami.

Tu je ďalšia montáž s kombináciou obrázkov pudlíka a bravčovej nite. Počítač by ich s najväčšou pravdepodobnosťou nedokázal rozlíšiť, a preto by sa obrázky zmiešali.

Prečo sa vyskytujú halucinácie AI?

Halucinácie AI sa môžu vyskytnúť v dôsledku protichodných príkladov – vstupných údajov, ktoré oklamú aplikáciu AI, aby ich nesprávne klasifikovala. Napríklad pri trénovaní aplikácií AI vývojári používajú údaje (obrázok, text alebo iné); ak sa údaje zmenia alebo skreslia, aplikácia interpretuje vstup inak a poskytne nesprávny výstup.

Na rozdiel od toho môže človek stále rozpoznať a identifikovať údaje presne napriek skresleniam. Môžeme to označiť za zdravý rozum – ľudskú vlastnosť AI ešte nemá. Pozrite si, ako je AI oklamaná príkladmi protivníkov v tomto videu:

Čo sa týka veľkých jazykovo založených modelov ako napr ChatGPT a jeho alternatívy, môžu vzniknúť halucinácie z nepresného dekódovania z transformátora (model strojového učenia).

V AI je transformátor model hlbokého učenia, ktorý využíva sebapozornosť (sémantické vzťahy medzi slovami v veta) na vytvorenie textu podobného tomu, ktorý by napísal človek pomocou kódovača-dekodéra (vstup-výstup) sekvencie.

Takže transformátory, poloriadený model strojového učenia, môžu generovať nový text (výstup) z veľkého korpusu textových údajov použitých pri jeho trénovaní (vstupe). Robí to predpovedaním ďalšieho slova v rade na základe predchádzajúcich slov.

Pokiaľ ide o halucinácie, ak by sa jazykový model trénoval na nedostatočných a nepresných údajoch a zdrojoch, očakáva sa, že výstup by bol vymyslený a nepresný. Jazykový model môže generovať príbeh alebo rozprávanie bez logických nezrovnalostí alebo nejasných súvislostí.

V nižšie uvedenom príklade bol ChatGPT požiadaný, aby dal slovo podobné „revolt“ a začína na „b“. Tu je jeho odpoveď:

Pri ďalšom skúmaní stále dával nesprávne odpovede s vysokou úrovňou istoty.

Prečo teda ChatGPT nedokáže poskytnúť presnú odpoveď na tieto výzvy?

Môže sa stať, že jazykový model nie je vybavený na to, aby zvládal pomerne zložité výzvy, ako sú tieto alebo tamto nedokáže presne interpretovať výzvu, ignoruje výzvu na zadanie podobného slova s ​​konkrétnym abeceda.

Ako spoznáte halucinácie AI?

Teraz je zrejmé, že aplikácie AI majú potenciál halucinovať – generovať reakcie inak na základe očakávaného výstupu (fakt alebo pravda) bez akéhokoľvek škodlivého úmyslu. A rozpoznanie a rozpoznanie halucinácií AI je na používateľoch takýchto aplikácií.

Tu je niekoľko spôsobov, ako rozpoznať halucinácie AI pri používaní bežných aplikácií AI:

1. Veľké modely spracovania jazykov

Hoci je to zriedkavé, ak si všimnete gramatickú chybu v obsahu produkovanom veľkým modelom spracovania, ako je ChatGPT, malo by to zdvihnúť obočie a vzbudiť podozrenie na halucináciu. Podobne, keď obsah generovaný textom neznie logicky, nekoreluje s daným kontextom alebo sa nezhoduje so vstupnými údajmi, mali by ste mať podozrenie na halucináciu.

Použitie ľudského úsudku alebo zdravého rozumu môže pomôcť odhaliť halucinácie, pretože ľudia môžu ľahko identifikovať, keď text nedáva zmysel alebo sa neriadi realitou.

2. Počítačové videnie

Počítačové videnie ako odvetvie umelej inteligencie, strojového učenia a počítačovej vedy umožňuje počítačom rozpoznávať a spracovávať obrazy ako ľudské oči. Použitím konvolučné neurónové siete, spoliehajú sa na neskutočné množstvo vizuálnych dát používaných pri ich tréningu.

Odchýlka od vzorcov vizuálnych údajov používaných pri tréningu bude mať za následok halucinácie. Napríklad, ak počítač nebol trénovaný s obrázkami tenisovej loptičky, mohol by ju identifikovať ako zelenú oranžovú. Alebo ak počítač rozpozná koňa vedľa ľudskej sochy ako koňa vedľa skutočného človeka, potom nastala halucinácia AI.

Aby ste si všimli halucináciu počítačového videnia, porovnajte generovaný výstup s tým, čo sa očakáva od [normálneho] človeka.

3. Samoriadiace autá

Kredit za obrázok: Ford

Vďaka AI postupne na automobilový trh prenikajú samoriadiace autá. Priekopníci ako Tesla Autopilot a Ford's BlueCruise presadzujú scénu samoriadiacich áut. Môžete sa odhlásiť ako a čo vidí Autopilot Tesla aby sme trochu pochopili, ako AI poháňa samoriadiace autá.

Ak vlastníte jedno z takýchto áut, chceli by ste vedieť, či vaše auto s umelou inteligenciou nemá halucinácie. Jedným znakom bude, ak sa zdá, že sa vaše vozidlo počas jazdy odchyľuje od bežných vzorcov správania. Ak napríklad vozidlo náhle zabrzdí alebo vybočí bez zjavného dôvodu, vaše vozidlo s umelou inteligenciou môže mať halucinácie.

Systémy AI môžu tiež halucinovať

Ľudia a modely AI prežívajú halucinácie odlišne. Pokiaľ ide o AI, halucinácie sa týkajú chybných výstupov, ktoré sú na míle vzdialené od reality alebo nedávajú zmysel v kontexte danej výzvy. Napríklad AI chatbot môže poskytnúť gramaticky alebo logicky nesprávnu odpoveď alebo nesprávne identifikovať objekt v dôsledku hluku alebo iných štrukturálnych faktorov.

Halucinácie AI nevyplývajú z vedomej alebo podvedomej mysle, ako by ste to pozorovali u ľudí. Vyplýva to skôr z neadekvátnosti alebo nedostatočnosti údajov používaných pri trénovaní a programovaní systému AI.