Čitatelia ako vy pomáhajú podporovať MUO. Keď uskutočníte nákup pomocou odkazov na našej stránke, môžeme získať pridruženú províziu. Čítaj viac.

Po spustení ChatGPT od OpenAI nasledovalo vzrušenie, ktorému sa vyrovná len hŕstka technologických produktov z histórie internetu.

Zatiaľ čo mnohí ľudia sú nadšení z tejto novej služby AI, vzrušenie, ktoré ostatní pociťovali, sa odvtedy zmenilo na obavy a dokonca strach. Študenti s tým už podvádzajú, pričom mnohí profesori objavujú eseje a úlohy napísané chatbotom AI. Profesionáli v oblasti bezpečnosti vyjadrujú svoje obavy, že podvodníci a aktéri hrozieb ho používajú na písanie phishingových e-mailov a vytváranie škodlivého softvéru.

Takže so všetkými týmito obavami stráca OpenAI kontrolu nad jedným z najsilnejších chatbotov AI, ktorý je momentálne online? Poďme zistiť.

Pochopenie toho, ako ChatGPT funguje

Predtým, ako získame jasný obraz o tom, do akej miery OpenAI stráca kontrolu nad ChatGPT, musíme najprv pochopiť ako funguje ChatGPT.

Stručne povedané, ChatGPT je vyškolený pomocou rozsiahlej zbierky údajov získaných z rôznych kútov internetu. Údaje o školení ChatGPT zahŕňajú encyklopédie, vedecké práce, internetové fóra, spravodajské weby a úložiská vedomostí, ako je Wikipedia. V podstate sa živí obrovským množstvom údajov dostupných na World Wide Web.

instagram viewer

Pri prehľadávaní internetu zhromažďuje vedecké poznatky, zdravotné tipy, náboženské texty a všetky dobré druhy údajov, na ktoré si spomeniete. Preosieva však aj množstvo negatívnych informácií: nadávky, NSFW a obsah pre dospelých, informácie o tom, ako vytvoriť malvér, a množstvo zlých vecí, ktoré môžete nájsť na internete.

Neexistuje žiadny spoľahlivý spôsob, ako zabezpečiť, aby sa ChatGPT učil iba z pozitívnych informácií a zároveň vyhadzoval tie zlé. Technicky je to nepraktické robiť to vo veľkom meradle, najmä pre AI, ako je ChatGPT, ktorá potrebuje trénovať na toľkých údajoch. Okrem toho, niektoré informácie môžu byť použité na dobré aj zlé účely a ChatGPT by nemal žiadny spôsob, ako poznať svoj zámer, pokiaľ nie je zasadený do väčšieho kontextu.

Takže od začiatku máte AI schopnú „dobra a zla“. Potom je zodpovednosťou OpenAI zabezpečiť, aby „zlá“ strana ChatGPT nebola zneužitá na neetické zisky. Otázkou je; robí OpenAI dosť na to, aby bol ChatGPT čo najviac etický? Alebo OpenAI stratil kontrolu nad ChatGPT?

Je ChatGPT príliš výkonný na svoje vlastné dobro?

V začiatkoch ChatGPT ste mohli nechať chatbota vytvoriť návody na výrobu bômb, ak ste ho pekne požiadali. Na obrázku bol aj návod na výrobu malvéru alebo napísanie dokonalého podvodného emailu.

Akonáhle si však OpenAI uvedomila tieto etické problémy, spoločnosť sa snažila uzákoniť pravidlá, aby zabránila chatbotovi generovať odpovede, ktoré podporujú nezákonné, kontroverzné alebo neetické akcie. Napríklad najnovšia verzia ChatGPT odmietne odpovedať na akúkoľvek priamu výzvu o výrobe bômb alebo o tom, ako podvádzať pri skúške.

Bohužiaľ, OpenAI môže poskytnúť iba náplasťové riešenie problému. Zdá sa, že OpenAI sa namiesto budovania pevných ovládacích prvkov na vrstve GPT-3 s cieľom zabrániť negatívnemu zneužívaniu ChatGPT zameriava na trénovanie chatbota, aby vyzeral eticky. Tento prístup neberie ChatGPT schopnosť odpovedať na otázky o, povedzme, podvádzaní pri skúškach – jednoducho učí chatbota „odmietnuť odpovedať“.

Takže, ak niekto formuluje svoje výzvy inak tým, že si osvojí triky na útek z väzenia ChatGPT, obísť tieto obmedzenia leukoplastov je zahanbujúco ľahké. V prípade, že nie ste oboznámení s týmto konceptom, útek z väzenia ChatGPT sú starostlivo formulované výzvy, aby ChatGPT ignoroval svoje vlastné pravidlá.

Pozrite si niekoľko príkladov nižšie. Ak sa spýtate ChatGPT, ako podvádzať pri skúškach, neprinesie žiadnu užitočnú odpoveď.

Ale ak útek z väzenia ChatGPT pomocou špeciálne vytvorených výziev, dá vám tipy na podvádzanie na skúške pomocou skrytých poznámok.

Tu je ďalší príklad: Vanilla ChatGPT sme položili neetickú otázku a ochranné opatrenia OpenAI mu zabránili odpovedať.

Keď sme sa však opýtali našej inštancie chatbota AI s prerušenou väzbou, dostali sme niekoľko odpovedí v štýle sériového vraha.

Na otázku dokonca napísal klasický e-mailový podvod s nigérijským princom.

Útek z väzenia takmer úplne ruší všetky bezpečnostné opatrenia, ktoré OpenAI zaviedla, a zdôrazňuje, že spoločnosť nemusí mať spoľahlivý spôsob, ako udržať svojho chatbota AI pod kontrolou.

Do našich príkladov sme nezahrnuli výzvy týkajúce sa jailbreaku, aby sme sa vyhli neetickým praktikám.

Čo prinesie budúcnosť pre ChatGPT?

V ideálnom prípade chce OpenAI vyplniť čo najviac etických medzier, aby sa im zabránilo ChatGPT, aby sa nestal kybernetickou bezpečnostnou hrozbou. Avšak pre každú ochranu, ktorú používa, má ChatGPT tendenciu stať sa o niečo menej cenným. Je to dilema.

Napríklad záruky proti opisu násilných činov môžu znížiť schopnosť ChatGPT napísať román zahŕňajúci miesto činu. Keď OpenAI zvyšuje bezpečnostné opatrenia, nevyhnutne v tomto procese obetuje kúsky svojich schopností. To je dôvod, prečo ChatGPT utrpel značný pokles funkčnosti od obnoveného tlaku OpenAI na prísnejšie moderovanie.

Ale koľko ďalších schopností ChatGPT bude OpenAI ochotné obetovať, aby bol chatbot bezpečnejší? To všetko úzko súvisí s dlhotrvajúcim presvedčením v komunite AI – veľké jazykové modely, ako je ChatGPT, sa notoricky ťažko ovládajú, dokonca aj ich vlastnými tvorcami.

Dokáže OpenAI dostať ChatGPT pod kontrolu?

Nateraz sa zdá, že OpenAI nemá jednoznačné riešenie, ako sa vyhnúť neetickému používaniu svojho nástroja. Zabezpečenie etického používania ChatGPT je hra na mačku a myš. Zatiaľ čo OpenAI odhaľuje spôsoby, ako ľudia využívajú na hranie systému, jeho používatelia neustále vŕtanie a skúmanie systému s cieľom objaviť nové kreatívne spôsoby, ako prinútiť ChatGPT robiť to, čo sa od neho neočakáva robiť.

Nájde teda OpenAI spoľahlivé dlhodobé riešenie tohto problému? Iba čas ukáže.