Čoraz viac spoločností zakazuje ChatGPT na pracovisku, ale čo je za týmito zákazmi?

Napriek svojim pôsobivým schopnostiam niekoľko veľkých spoločností zakázalo svojim zamestnancom používať ChatGPT.

V máji 2023 spoločnosť Samsung zakázala používanie nástroja ChatGPT a iných generatívnych nástrojov AI. Potom v júni 2023 nasledovala Commonwealth Bank of Australia spolu so spoločnosťami ako Amazon, Apple a JPMorgan Chase & Co. Niektoré nemocnice, právnické firmy a vládne agentúry tiež zamestnancom zakázali používanie ChatGPT.

Prečo teda stále viac spoločností zakazuje ChatGPT? Tu je päť hlavných dôvodov.

1. Únik údajov

ChatGPT vyžaduje veľké množstvo údajov na efektívne trénovanie a prevádzku. Chatbot bol vyškolený pomocou obrovského množstva údajov získaných z internetu a pokračuje v jeho školení.

Podľa Stránka pomocníka OpenAI, každý údaj vrátane dôverných podrobností o zákazníkoch, obchodných tajomstiev a citlivých obchodných záležitostí informácie, ktoré poskytnete chatbotovi, môžu byť skontrolované jeho školiteľmi, ktorí môžu použiť vaše údaje na zlepšenie ich systémov.

Mnoho spoločností podlieha prísnym nariadeniam o ochrane údajov. V dôsledku toho sú pri zdieľaní osobných údajov s externými subjektmi opatrní, pretože to zvyšuje riziká úniku údajov.

Okrem toho OpenAI neponúka žiadnu spoľahlivú ochranu údajov a zabezpečenie dôvernosti. V marci 2023 OpenAI potvrdené chyba, ktorá niektorým používateľom umožňuje zobraziť názvy rozhovorov v histórii iných aktívnych používateľov. Aj keď bola táto chyba opravená a OpenAI spustilo bug bounty program, spoločnosť nezaručuje bezpečnosť a súkromie používateľských údajov.

Mnoho organizácií sa rozhodlo obmedziť zamestnancov vo využívaní ChatGPT, aby sa vyhli únikom údajov, čo môže poškodiť ich povesť, viesť k finančným stratám a postaviť ich zákazníkom a zamestnancom riziko.

2. Kyberbezpečnostné riziká

Zatiaľ čo nie je jasné, či je ChatGPT skutočne náchylný na riziká kybernetickej bezpečnosti, existuje šanca, že jeho nasadenie v rámci organizácie môže predstavovať potenciálne zraniteľné miesta, ktoré môžu kybernetickí útočníci zneužiť.

Ak spoločnosť integruje ChatGPT a existujú slabé miesta v bezpečnostnom systéme chatbota, útočníci môžu byť schopní zneužiť zraniteľné miesta a vložiť malvérové ​​kódy. Schopnosť ChatGPT generovať reakcie podobné ľuďom je tiež zlatým vajcom pre phishingových útočníkov, ktorí cez účet alebo sa vydávať za legitímne subjekty s cieľom oklamať zamestnancov spoločnosti, aby zdieľali citlivé informácie informácie.

3. Vytváranie prispôsobených chatbotov

Napriek svojim inovatívnym funkciám môže ChatGPT produkovať nepravdivé a zavádzajúce informácie. Výsledkom je, že mnoho spoločností vytvorilo AI chatbotov na pracovné účely. Napríklad Commonwealth Bank of Australia požiadala svojich zamestnancov, aby namiesto toho používali Gen.ai, chatbot s umelou inteligenciou (AI), ktorý využíva informácie CommBank na poskytovanie odpovedí.

Spoločnosti ako Samsung a Amazon vyvinuli pokročilé modely prirodzeného jazyka, takže podniky môžu jednoducho vytvárať a nasadzovať prispôsobené chatboty na základe existujúcich prepisov. S týmito internými chatbotmi môžete zabrániť právnym následkom a následkom na povesť spojeným so zlým zaobchádzaním s údajmi.

4. Nedostatok regulácie

V odvetviach, kde spoločnosti podliehajú regulačným protokolom a sankciám, je nedostatok regulačných pokynov ChatGPT varovnou vlajkou. Bez presných regulačných podmienok upravujúcich používanie ChatGPT môžu spoločnosti čeliť vážnym právnym následkom pri používaní chatbota AI na svoje operácie.

Okrem toho nedostatok regulácie môže znížiť zodpovednosť a transparentnosť spoločnosti. Väčšina spoločností môže byť zmätená pri vysvetľovaní Rozhodovacie procesy a bezpečnostné opatrenia jazykového modelu AI svojim zákazníkom.

Spoločnosti obmedzujú ChatGPT, pretože sa obávajú možného porušenia zákonov na ochranu súkromia a predpisov špecifických pre dané odvetvie.

5. Nezodpovedné používanie zamestnancami

V mnohých spoločnostiach sa niektorí zamestnanci pri vytváraní obsahu a plnení svojich povinností spoliehajú výlučne na odpovede ChatGPT. To plodí lenivosť v pracovnom prostredí a brzdí kreativitu a inovácie.

Závislosť od AI môže brániť vašej schopnosti kriticky myslieť. Môže to tiež poškodiť dôveryhodnosť spoločnosti, pretože ChatGPT často poskytuje nepresné a nespoľahlivé údaje.

Aj keď je ChatGPT výkonný nástroj, jeho použitie na riešenie zložitých otázok vyžadujúcich odborné znalosti špecifické pre danú doménu môže poškodiť fungovanie a efektivitu spoločnosti. Niektorí zamestnanci si možno nepamätajú overiť fakty a overiť odpovede poskytnuté chatbotom AI, pričom odpovede považujú za univerzálne riešenie.

Na zmiernenie problémov, ako sú tieto, spoločnosti zakazujú chatbota, aby sa zamestnanci mohli sústrediť na svoje úlohy a poskytovať používateľom bezchybné riešenia.

Zákazy ChatGPT: Lepšie bezpečné ako ľúto

Spoločnosti, ktoré zakazujú ChatGPT, poukazujú na riziká kybernetickej bezpečnosti, etické normy zamestnancov a problémy s dodržiavaním predpisov. Neschopnosť ChatGPT zmierniť tieto výzvy pri poskytovaní priemyselných riešení svedčí o jej obmedzeniach a je potrebné sa ďalej rozvíjať.

Spoločnosti medzitým prechádzajú na alternatívne chatboty alebo jednoducho obmedzujú zamestnancov vo využívaní ChatGPT, aby sa zabránilo potenciálnemu narušeniu údajov a nespoľahlivým bezpečnostným a regulačným protokolom spojeným s chatbot.