Schopnosti umelej inteligencie sa exponenciálne rozširujú a AI sa v súčasnosti využíva v priemyselných odvetviach od reklamy po lekársky výskum. Používanie umelej inteligencie v citlivejších oblastiach, ako je softvér na rozpoznávanie tváre, algoritmy prenájmu a poskytovanie zdravotnej starostlivosti, urýchlilo diskusiu o zaujatosti a spravodlivosti.

Bias je dobre preskúmaný aspekt ľudskej psychológie. Výskum pravidelne odhaľuje naše nevedomé preferencie a predsudky a teraz vidíme, že AI odráža niektoré z týchto predsudkov vo svojich algoritmoch.

Ako teda môže dôjsť k zaujatosti umelej inteligencie? A prečo na tom záleží?

Ako je AI zaujatá?

Kvôli jednoduchosti sa v tomto článku zmienime o strojové učenie a hlboké učenie algoritmy ako algoritmy alebo systémy AI.

Vedci a vývojári môžu zaviesť zaujatosť do systémov AI dvoma spôsobmi.

Po prvé, kognitívne predsudky výskumníkov môžu byť omylom zabudované do algoritmov strojového učenia. Kognitívne predsudky sú nevedomé ľudské vnímanie, ktoré môže mať vplyv na to, ako sa ľudia rozhodujú. Toto sa stáva významným problémom, keď sa predsudky týkajú ľudí alebo skupín ľudí a môžu im ublížiť.

instagram viewer

Tieto predsudky je možné zaviesť priamo, ale náhodne, alebo môžu výskumníci trénovať AI v súboroch údajov, ktoré boli samy ovplyvnené zaujatosťou. Napríklad AI na rozpoznávanie tváre by sa dalo trénovať pomocou súboru údajov, ktorý obsahuje iba tváre so svetlou pokožkou. V takom prípade bude umelá inteligencia lepšie pracovať s tvárami so svetlou pokožkou ako s tmavou. Táto forma zaujatosti AI je známa ako negatívne dedičstvo.

Po druhé, predsudky môžu vzniknúť, keď sa AI trénuje na neúplných súboroch údajov. Napríklad, ak je AI trénovaná na množine údajov, ktorá obsahuje iba počítačových vedcov, nebude predstavovať celú populáciu. To vedie k algoritmom, ktoré neposkytujú presné predpovede.

Príklady skreslenia AI v reálnom svete

Existuje niekoľko nedávnych, dobre hlásených príkladov skreslenia AI ilustrujú nebezpečenstvo umožniť týmto predsudkom vkradnúť sa.

Stanovenie priorít zdravotnej starostlivosti v USA

V roku 2019 bol navrhnutý algoritmus strojového učenia, ktorý má nemocniciam a poisťovacím spoločnostiam pomôcť určiť, pre ktorých pacientov by mali niektoré programy zdravotnej starostlivosti najväčší úžitok. Na základe databázy približne 200 miliónov ľudí algoritmus uprednostňoval bielych pacientov pred čiernymi.

Zistilo sa, že to bolo spôsobené chybným predpokladom v algoritme týkajúcom sa rozdielnych nákladov na zdravotnú starostlivosť medzi čiernymi a bielymi ľuďmi a predpojatosť sa nakoniec znížila o 80%.

COMPAS

Korekčné profilovanie správy páchateľov alternatívnych sankcií, alebo COMPAS, bol algoritmus AI navrhnutý na predpovedanie toho, či konkrétni ľudia budú páchať priestupok. Algoritmus vytvoril dvojnásobok falošných pozitív pre čiernych páchateľov v porovnaní s bielymi páchateľmi. V tomto prípade bol dátový súbor aj model chybný, čo spôsobilo veľké skreslenie.

Amazon

Algoritmus prenájmu, ktorý spoločnosť Amazon používa na určenie vhodnosti uchádzačov, sa našiel v roku 2015 a vo veľkej miere uprednostňoval mužov pred ženami. Bolo to preto, že súbor údajov takmer výlučne obsahoval mužov a ich životopisy, pretože väčšina zamestnancov spoločnosti Amazon sú muži.

Ako zastaviť AI Bias

AI už predstavuje revolúciu v spôsobe našej práce každé odvetvie. Mať neobjektívne systémy riadiace citlivé rozhodovacie procesy je menej ako žiaduce. V najlepšom prípade znižuje kvalitu výskumu založeného na umelej inteligencii. Prinajhoršom aktívne poškodzuje menšinové skupiny.

Existujú príklady algoritmov AI, ktoré sú už zvyknuté napomáhať ľudskému rozhodovaniu znížením dopadu ľudských kognitívnych predsudkov. Vďaka tomu, ako sú algoritmy strojového učenia trénované, môžu byť presnejšie a menej zaujaté ako ľudia v rovnakej pozícii, čo vedie k spravodlivejšiemu rozhodovaniu.

Ako sme však ukázali, platí to aj naopak. Riziká dovoľovania, aby sa ľudské predsudky pripravili a zosilnili pomocou AI, môžu prevážiť niektoré z možných výhod.

Na konci dňa, AI je iba taká dobrá ako dáta, s ktorými sa trénuje. Vývoj nezaujatých algoritmov si vyžaduje rozsiahlu a dôkladnú predbežnú analýzu súborov údajov, ktorá zabezpečí, aby údaje neobsahovali implicitné predsudky. Je to ťažšie, ako to znie, pretože toľko našich predsudkov je v bezvedomí a často je ťažko ich identifikovať.

Výzvy v prevencii predpojatosti voči AI

Pri vývoji systémov AI musí byť každý krok vyhodnotený z hľadiska jeho potenciálu vložiť do algoritmu predpojatosť. Jedným z hlavných faktorov prevencie zaujatosti je zabezpečenie toho, aby sa do algoritmu „uvarila spravodlivosť“.

Definovanie spravodlivosti

Spravodlivosť je pojem, ktorý je pomerne ťažké definovať. V skutočnosti ide o diskusiu, ktorá nikdy nedosiahla konsenzus. Aby toho nebolo málo, pri vývoji systémov AI je potrebné matematicky definovať pojem spravodlivosti.

Napríklad, pokiaľ ide o algoritmus prenájmu Amazonu, vyzerala by spravodlivosť ako dokonalé rozdelenie pracujúcich medzi mužmi a ženami v pomere 50/50? Alebo iný pomer?

Určenie funkcie

Prvým krokom vo vývoji AI je presne určiť, čo má dosiahnuť. Ak použijeme príklad COMPAS, algoritmus predpovedá pravdepodobnosť priestupku zločincov. Potom je potrebné určiť jasné dátové vstupy, aby algoritmus fungoval. To si môže vyžadovať definovanie dôležitých premenných, ako napríklad počet predchádzajúcich trestných činov alebo typ spáchaných trestných činov.

Správne definovanie týchto premenných je ťažký, ale dôležitý krok pri zabezpečení spravodlivosti algoritmu.

Vytváranie datasetu

Ako sme už uviedli, hlavnou príčinou zaujatosti AI sú neúplné, nereprezentatívne alebo zaujaté údaje. Rovnako ako v prípade AI na rozpoznávanie tváre, je potrebné pred procesom strojového učenia dôkladne skontrolovať vstupné údaje týkajúce sa zaujatosti, vhodnosti a úplnosti.

Výber atribútov

V algoritmoch sa môžu alebo nemôžu brať do úvahy určité atribúty. Atribúty môžu zahŕňať pohlavie, rasu alebo vzdelanie - v podstate čokoľvek, čo môže byť dôležité pre úlohu algoritmu. V závislosti na tom, ktoré atribúty sú vybrané, môže byť vážne ovplyvnená prediktívna presnosť a predpojatosť algoritmu. Problém je v tom, že je veľmi ťažké zmerať, ako je zaujatý algoritmus.

AI Bias tu nie je na pobyt

Predpätie AI nastáva, keď algoritmy vytvárajú predpäté alebo nepresné predpovede kvôli predpojatým vstupom. Nastáva, keď sa neobjektívne alebo neúplné údaje odrážajú alebo zosilňujú počas vývoja a školenia algoritmu.

Dobrou správou je, že pri znásobení financovania výskumu AI sa pravdepodobne dočkáme nových metód znižovania alebo dokonca eliminácie zaujatosti voči AI.

Email
5 bežných mýtov o umelej inteligencii, ktoré nie sú pravdivé

Poďme urobiť záznam o niektorých bežných nepravdách okolo AI.

Prečítajte si Ďalej

Súvisiace témy
  • Vysvetlená technológia
  • Umela inteligencia
  • Strojové učenie
O autorovi
Jake Harfield (Publikovaných 6 článkov)

Jake Harfield je nezávislý spisovateľ so sídlom v austrálskom Perthe. Keď nepíše, zvyčajne je vonku v kríkoch a fotografuje miestnu divočinu. Môžete ho navštíviť na www.jakeharfield.com

Viac od Jakea Harfielda

Prihlásiť sa ku odberu noviniek

Pripojte sa k nášmu bulletinu s technickými tipmi, recenziami, bezplatnými elektronickými knihami a exkluzívnymi ponukami!

Ešte jeden krok…!

V e-maile, ktorý sme vám práve poslali, potvrďte svoju e-mailovú adresu.

.