Tay AI od Microsoftu prešla zo sľubnej AI do totálnej katastrofy za menej ako jeden deň. Tu je to, čo sa spoločnosť naučila.

Chatboty s umelou inteligenciou, ako je ChatGPT, sa čoraz viac stávajú integrálnou súčasťou moderných technológií, no mnohým nie je známe, že generatívna umelá inteligencia nebola vždy taká dobrá ako dnes. V skutočnosti nám v roku 2016 chatbot Tay od spoločnosti Microsoft ukázal, ako rýchlo sa môže AI obrátiť proti.

Pozrime sa, aký bol chatbot Microsoft AI Tay, prečo zlyhal, aké sú jeho kontroverzie a aké lekcie sa spoločnosť naučila po katastrofálnom zlyhaní.

Aký bol Microsoft's Tay?

Tay bol AI chatbot vyvinutý spoločnosťou Microsoft a sprístupnený cez Twitter 23. marca 2016. Chatbot bol vyvinutý pre 18 až 24-ročných v USA na „zábavné účely“ a na „experimentovanie a uskutočňovanie výskumu porozumenia konverzácie“.

Tay nemal byť sofistikovaným chatbotom ako ChatGPT, ale priateľským robotom AI na Twitteri, s ktorým by ste mohli viesť rozhovory – niečo ako Moja AI na Snapchate, ale na socializáciu.

instagram viewer

Prečo Microsoft vypol Tay?

Microsoft stiahol Tay do 24 hodín od uvedenia na trh – z dobrého dôvodu. Takmer okamžite po predstavení Tay začali používatelia Twitteru zneužívať službu tým, že kŕmili chatbota dezinformácie, učia ju hanlivé výrazy a podnecujú ju, aby bola čoraz urážlivejšia, len aby sme videli, ako ďaleko to je by išiel.

A zašlo to naozaj ďaleko. Počas niekoľkých hodín od spustenia Tay tweetoval niektoré z najurážlivejších rasových ohováraní, šíril nenávistné prejavy, propagoval nacizmus a dokonca inšpiroval „rasovú vojnu“. Fuj! Je zrejmé, že Microsoft prežíval hrozné časy a nemohol nechať službu pokračovať.

V uverejniť na oficiálnom blogu spoločnosti Microsoft, Corporate Vice President spoločnosti Microsoft Peter Lee zopakoval to isté:

Hlboko nás mrzia neúmyselné urážlivé a zraňujúce tweety od Tay, ktoré nereprezentujú, kto sme alebo čo zastávame, ani to, ako sme Tay navrhli. Tay je teraz offline a pokúsime sa priviesť Tay späť len vtedy, keď budeme presvedčení, že dokážeme lepšie predvídať zlé úmysly, ktoré sú v rozpore s našimi zásadami a hodnotami.

Debakel Tay je len jedným z mnohých nebezpečenstvo umelej inteligencie a dôrazné pripomenutie toho, prečo by sa jej vývoj mal robiť s maximálnou opatrnosťou a nadhľadom.

6 lekcií, ktoré sa Microsoft naučil po Tay

Tay bola úplná katastrofa, no zároveň dala Microsoftu niekoľko zásadných lekcií, pokiaľ ide o vývoj nástrojov AI. A čo stojí za to, je to pravdepodobne k lepšiemu, že Microsoft sa poučil skôr ako neskôr, čo mu umožnilo získať náskok pred Google a vyvinúť nové Prehliadač Bing poháňaný AI.

Tu sú niektoré z týchto lekcií:

1. Internet je plný trollov

Internet je plný trollov a to nie je práve novinka, však? Zdá sa, že to tak bolo pre Microsoft už v roku 2016. Netvrdíme, že budovanie chatbota na „zábavné účely“ zameraného na 18 až 24-ročných malo niečo spoločné s mierou zneužívania služby. Aj tak to však rozhodne nebol najmúdrejší nápad.

Ľudia prirodzene chcú otestovať limity nových technológií a v konečnom dôsledku je úlohou vývojára zodpovedať za tieto škodlivé útoky. Vnútorní trollovia istým spôsobom fungujú ako mechanizmus spätnej väzby na zabezpečenie kvality, ale to neznamená, že by mal byť chatbot uvoľnený bez vhodných bezpečnostných opatrení pred spustením.

2. AI nedokáže intuitívne rozlišovať medzi dobrým a zlým

Pojem dobra a zla je niečo, čomu AI intuitívne nerozumie. Musí byť naprogramovaný tak, aby simuloval poznanie toho, čo je správne a nesprávne, čo je morálne a nemorálne a čo je normálne a zvláštne.

Tieto vlastnosti sú ľuďom ako spoločenským tvorom viac-menej prirodzené, ale AI nedokáže vytvárať nezávislé úsudky, cítiť empatiu ani prežívať bolesť. To je dôvod, prečo keď používatelia Twitteru kŕmili Tay všetkými druhmi propagandy, robot ho jednoducho nasledoval – nevedel o etike informácií, ktoré zbieral.

3. Netrénujte modely AI pomocou konverzácií ľudí

Tay bola vytvorená „ťažbou relevantných verejných údajov a používaním AI a editoriál vyvinutých zamestnancami vrátane improvizačných komikov." Trénovať model AI pomocou konverzácií ľudí na internete je hrozné nápad.

A predtým, ako to budete obviňovať na Twitteri, vedzte, že výsledok by bol pravdepodobne rovnaký bez ohľadu na platformu. prečo? Pretože ľudia na internete jednoducho nie sú svojimi najlepšími ja. Dostanú emócie, používajú slangové slová a svoju anonymitu využívajú na hanebnosť.

4. AI nemá zdravý rozum a nemá sarkazmus

AI sa dnes zdá byť intuitívnejšia (alebo, presnejšie povedané, je lepšia v simulácii intuície), ale stále niekedy bojuje s rozpoznaním sarkazmu a slovných obratov. Ešte viac to platilo v roku 2016. To, čo je zrejmé pre ľudí, nie je zrejmé pre AI; inými slovami, chýba mu zdravý rozum.

Umelé inteligencie ako Tay nerozumejú, prečo sú ľudia takí, akí sme, konajú tak, ako konáme, a prečo sú výstrednosti každého jednotlivca. Môže sa správať a znieť ľudsky až prekvapivo, ale dobré programovanie môže zájsť len tak ďaleko.

5. AI musí byť naprogramovaná tak, aby odmietla neplatné požiadavky

Umelá inteligencia je veľmi ovplyvniteľná a musí byť naprogramovaná tak, aby odmietala žiadosti propagujúce ubližovanie. Dokonca aj dnes, po všetkých našich pokrokoch v spracovaní prirodzeného jazyka, ľudia stále nachádzajú lingvistické medzery urobte z AI chatbotov ako ChatGPT „halucinácie“ a prinášať výsledky, ktoré mali byť obmedzené.

Tu ide o to, že umelá inteligencia je dokonale poslušná, čo je azda jej najväčšia sila a slabina. Všetko, čo nechcete, aby chatbot robil, musíte do neho manuálne naprogramovať.

6. AI Chatbots by nikdy nemali zostať bez dozoru

Kým sa AI nedokáže sama regulovať, nemožno ju nechať bez dozoru. Môžete si predstaviť dnešnú AI ako zázračné dieťa; v niektorých smeroch je to geniálne, no napriek tomu je to stále dieťa. Ak ho nechajú bez dozoru, ľudia využijú jeho slabé stránky – a Tay bola toho ukážkovým príkladom.

Umelá inteligencia je nástroj, rovnako ako internet, ale miera a rozsah, v akom sa veci môžu s umelou inteligenciou vypomstiť, sú oveľa väčšie ako to, čo sme zažili počas prvých dní internetu.

AI potrebuje neustály dohľad a reguláciu

Tay nie je jediným chatbotom, ktorý sa stal nečestným – vyskytlo sa mnoho ďalších podobných prípadov. Ale to, čo ho urobilo výnimočným, je samotná rýchlosť, akou sa to podarilo – a skutočnosť, že ho vyrobil technologický gigant, akým je Microsoft.

Príklady, ako je tento, ukazujú, akí opatrní musíme byť pri vývoji nástrojov AI, najmä ak ich majú používať obyčajní ľudia.