Diskusie o AI sentience nie sú žiadnou novinkou, ale správy o AI LaMDA od Google rozdúchali plamene. Potom, čo inžinier tvrdil, že robot bol pri vedomí, dokonca mal dušu, opäť sa objavili niektoré známe otázky.
Môže byť AI ako LaMDA skutočne vnímavá alebo sebauvedomujúca, a ak áno, ako to môžete zistiť? Záleží na tom?
Čo je LaMDA?
LaMDA, skratka pre Language Model for Dialogue Applications, sa prvýkrát objavila v roku 2021 na vývojárskej konferencii Google. Pokročilý systém AI má pomôcť vybudovať ďalšie, menšie chatboty. Keď ho Google prvýkrát predstavil, oznámil plány na jeho integráciu do všetkého, čím pomôže službám ako Google Assistant a Search cítiť sa ľudskejšie alebo aspoň prirodzene.
Keď inžinier Google Blake Lemoine hovoril s LaMDA, aby zistil, či používa nenávistné prejavy, prišiel s iným dojmom. Lemoine tvrdil, že LaMDA je vnímavý, a keby nevedel, že je to robot, myslel by si, že je to osemročné dieťa.
Po rozhovoroch s LaMDA sa Lemoine pokúsil dokázať, že to bolo pri vedomí a brániť to, čo považoval za svoje zákonné práva. V reakcii na to spoločnosť Google umiestnila Lemoine na platenú administratívnu dovolenku za porušenie dohôd o dôvernosti.
Je LaMDA skutočne vnímavý?
Je teda LaMDA skutočne vnímavý? Väčšina odborníkov, ktorí sa touto otázkou zaoberali, je skeptická. LaMDA je vysoko pokročilá chatovacia platforma AI, ktorá analyzuje bilióny slov z internetu, takže dokáže znieť ako skutočná osoba.
Nie je to prvýkrát, čo jedna z AI spoločnosti Google oklamala ľudí, aby si mysleli, že je to človek. V roku 2018 Google demonštroval svoju Duplex AI tým, že zavolal do reštaurácie, aby si rezervoval stôl. Zdá sa, že zamestnanec na druhej strane nikdy nepochyboval, že sa rozpráva s nejakou osobou.
Vnímanie je ťažké definovať, hoci väčšina ľudí pochybujem, že AI dosiahla tento bod ešte. Dôležitou otázkou však nemusí byť, či je LaMDA skutočne vnímavý, ale aký je rozdiel, ak dokáže ľudí oklamať, aby si mysleli, že je.
Možné právne dôsledky LaMDA
Situácia LaMDA vyvoláva množstvo právnych a etických otázok. Po prvé, niektorí ľudia sa môžu pýtať, či mal Google právo dať Lemoine dovolenku za to, že o tom hovoril.
Podľa oddielu 740 newyorského pracovného práva ochrana oznamovateľov bráni zamestnancov pred takýmito opatreniami dôsledky, ak sa domnievajú, že praktiky ich zamestnávateľa porušujú zákon alebo predstavujú významné riziko pre verejnosť bezpečnosť. Predpokladaný cit LaMDA celkom nespĺňa túto zákonnú požiadavku, ale mal by?
Poskytovanie práv AI je ošemetná téma. Kým AI dokáže vytvárať veci a pôsobiť ľudsky, môžete sa dostať do komplikovaných situácií, ak tieto stroje majú právnu ochranu. Zákonné práva fungujú okolo odmien a trestov, ktoré neovplyvňujú AI, čo komplikuje spravodlivosť.
Ak samoriadiace auto zrazí chodca, je AI vinná, ak s ňou zákon zaobchádza ako s človekom? A ak áno, obeti to striktne nedáva spravodlivosť, pretože technicky nemôžete AI potrestať rovnakým spôsobom ako človeka.
Ďalšou otázkou, ktorá vzniká pri LaMDA a podobných chatbotoch AI, je ich bezpečnosť. Ak sa tieto roboty zdajú byť presvedčivo skutočné, ľudia im môžu viac dôverovať a byť ochotní ich dať citlivejšie informácie. To otvára dvere množstvu obáv o súkromie a bezpečnosť, ak sa táto technológia dostane do nesprávnych rúk.
AI predstavuje zložité etické otázky
Umelé inteligencie ako LaMDA sú stále sofistikovanejšie a realistickejšie. Keďže tento trend rastie, spoločnosti a zákonodarcovia by mali prehodnotiť, ako zaobchádzajú s AI a ako by tieto rozhodnutia mohli ovplyvniť spravodlivosť a bezpečnosť.
V súčasnej dobe Google LaMDA AI nemusí byť vnímavý, ale je dosť dobrý na to, aby oklamal ľudí, aby si mysleli, že áno, čo by malo vyvolať určitý poplach.