Tyrinėkite DI etiką ir algoritminio šališkumo nustatymą: supraskite šališkumo šaltinius, išmokite nustatymo ir mažinimo metodų bei skatinkite sąžiningumą DI sistemose visame pasaulyje.
DI etika: pasaulinis algoritminio šališkumo nustatymo vadovas
Dirbtinis intelektas (DI) sparčiai keičia pramonės šakas ir daro poveikį žmonių gyvenimams visame pasaulyje. DI sistemoms tampant vis labiau paplitusioms, labai svarbu užtikrinti, kad jos būtų sąžiningos, nešališkos ir atitiktų etikos principus. Algoritminis šališkumas – sisteminė ir pasikartojanti kompiuterinės sistemos klaida, sukurianti nesąžiningus rezultatus – yra didelis DI etikos rūpestis. Šiame išsamiame vadove nagrinėjami algoritminio šališkumo šaltiniai, jo nustatymo ir mažinimo metodai bei strategijos, skirtos sąžiningumui DI sistemose skatinti visame pasaulyje.
Algoritminio šališkumo supratimas
Algoritminis šališkumas atsiranda, kai DI sistema pateikia rezultatus, kurie yra sistemingai mažiau palankūs tam tikroms žmonių grupėms nei kitoms. Šis šališkumas gali kilti iš įvairių šaltinių, įskaitant šališkus duomenis, klaidingus algoritmus ir šališką rezultatų interpretavimą. Šališkumo kilmės supratimas yra pirmas žingsnis kuriant sąžiningesnes DI sistemas.
Algoritminio šališkumo šaltiniai
- Šališki mokymo duomenys: Duomenys, naudojami DI modeliams apmokyti, dažnai atspindi egzistuojančius visuomenės šališkumus. Jei duomenyse yra iškreiptų tam tikrų grupių reprezentacijų, DI modelis išmoks ir įamžins šiuos šališkumus. Pavyzdžiui, jei veidų atpažinimo sistema yra apmokyta daugiausia naudojant vienos etninės grupės atvaizdus, ji gali prastai veikti su kitų etninių grupių veidais. Tai turi didelės reikšmės teisėsaugai, saugumui ir kitoms programoms. Apsvarstykite COMPAS (Pataisos įstaigų nusikaltėlių valdymo profiliavimas alternatyvioms sankcijoms) algoritmą, kuris, kaip nustatyta, neproporcingai dažnai pažymėdavo juodaodžius kaltinamuosius kaip turinčius didesnę recidyvo riziką.
- Klaidingas algoritmo dizainas: Patys algoritmai gali įvesti šališkumą, net ir su tariamai nešališkais duomenimis. Požymių pasirinkimas, modelio architektūra ir optimizavimo kriterijai gali paveikti rezultatus. Pavyzdžiui, jei algoritmas labai priklauso nuo požymių, kurie yra susiję su saugomais bruožais (pvz., lytis, rasė), jis gali netyčia diskriminuoti tam tikras grupes.
- Šališkas duomenų žymėjimas: Duomenų žymėjimo procesas taip pat gali įvesti šališkumą. Jei duomenis žymintys asmenys turi nesąmoningų šališkumų, jie gali žymėti duomenis taip, kad tai atspindėtų šiuos šališkumus. Pavyzdžiui, nuotaikų analizėje, jei anotuotojai tam tikrus kalbos modelius sieja su konkrečiomis demografinėmis grupėmis, modelis gali išmokti nesąžiningai kategorizuoti tų grupių išreikštą nuotaiką.
- Grįžtamojo ryšio ciklai: DI sistemos gali sukurti grįžtamojo ryšio ciklus, kurie sustiprina esamus šališkumus. Pavyzdžiui, jei DI pagrįstas įdarbinimo įrankis yra šališkas moterų atžvilgiu, jis gali rekomenduoti mažiau moterų į pokalbius. Tai gali lemti, kad bus įdarbinta mažiau moterų, o tai savo ruožtu sustiprins šališkumą mokymo duomenyse.
- Įvairovės trūkumas kūrėjų komandose: DI kūrėjų komandų sudėtis gali reikšmingai paveikti DI sistemų sąžiningumą. Jei komandoms trūksta įvairovės, jos gali rečiau nustatyti ir spręsti galimus šališkumus, kurie galėtų paveikti nepakankamai atstovaujamas grupes.
- Kontekstinis šališkumas: Kontekstas, kuriame diegiama DI sistema, taip pat gali įvesti šališkumą. Algoritmas, apmokytas viename kultūriniame ar socialiniame kontekste, gali veikti nesąžiningai, kai diegiamas kitame kontekste. Kultūrinės normos, kalbos niuansai ir istoriniai šališkumai gali turėti įtakos. Pavyzdžiui, DI pagrįstas pokalbių robotas, sukurtas teikti klientų aptarnavimą vienoje šalyje, gali naudoti kalbą, kuri kitoje šalyje laikoma įžeidžiančia ar netinkama.
Algoritminio šališkumo nustatymo metodai
Algoritminio šališkumo nustatymas yra labai svarbus siekiant užtikrinti sąžiningumą DI sistemose. Galima naudoti įvairius metodus šališkumui nustatyti skirtinguose DI kūrimo ciklo etapuose.
Duomenų auditas
Duomenų auditas apima mokymo duomenų tyrimą siekiant nustatyti galimus šališkumo šaltinius. Tai apima požymių pasiskirstymo analizę, trūkstamų duomenų nustatymą ir iškreiptų tam tikrų grupių reprezentacijų tikrinimą. Duomenų audito metodai apima:
- Statistinė analizė: Apibendrinamųjų statistinių duomenų (pvz., vidurkio, medianos, standartinio nuokrypio) skaičiavimas skirtingoms grupėms, siekiant nustatyti skirtumus.
- Vizualizacija: Vizualizacijų (pvz., histogramų, sklaidos diagramų) kūrimas, siekiant ištirti duomenų pasiskirstymą ir nustatyti išskirtis.
- Šališkumo metrikos: Šališkumo metrikų (pvz., nevienodo poveikio, vienodų galimybių skirtumo) naudojimas, siekiant kiekybiškai įvertinti, kiek duomenys yra šališki.
Pavyzdžiui, kredito balų modelyje galite analizuoti kredito balų pasiskirstymą skirtingoms demografinėms grupėms, kad nustatytumėte galimus skirtumus. Jei nustatote, kad tam tikrų grupių kredito balai vidutiniškai yra žymiai mažesni, tai gali rodyti, kad duomenys yra šališki.
Modelio vertinimas
Modelio vertinimas apima DI modelio veikimo vertinimą skirtingoms žmonių grupėms. Tai apima našumo metrikų (pvz., tikslumo, precizijos, atšaukimo, F1 balo) skaičiavimą atskirai kiekvienai grupei ir rezultatų palyginimą. Modelio vertinimo metodai apima:
- Grupės sąžiningumo metrikos: Grupės sąžiningumo metrikų (pvz., demografinio pariteto, vienodų galimybių, prognostinio pariteto) naudojimas, siekiant kiekybiškai įvertinti, kiek modelis yra sąžiningas skirtingoms grupėms. Demografinis paritetas reikalauja, kad modelis darytų prognozes tuo pačiu dažniu visoms grupėms. Vienodos galimybės reikalauja, kad modelis turėtų tą patį teigiamų tikrų rezultatų rodiklį visoms grupėms. Prognostinis paritetas reikalauja, kad modelis turėtų tą pačią teigiamą prognostinę vertę visoms grupėms.
- Klaidų analizė: Modelių daromų klaidų tipų analizė skirtingoms grupėms, siekiant nustatyti šališkumo modelius. Pavyzdžiui, jei modelis nuolat klaidingai klasifikuoja tam tikros etninės grupės atvaizdus, tai gali rodyti, kad modelis yra šališkas.
- Priešiškas testavimas: Priešiškų pavyzdžių naudojimas modelio tvirtumui išbandyti ir pažeidžiamumui šališkumui nustatyti. Priešiški pavyzdžiai yra įvestys, sukurtos apgauti modelį, kad jis pateiktų neteisingas prognozes.
Pavyzdžiui, įdarbinimo algoritme galite vertinti modelio našumą atskirai vyrų ir moterų kandidatams. Jei nustatote, kad modelio tikslumo lygis moterų kandidatėms yra žymiai mažesnis, tai gali rodyti, kad modelis yra šališkas.
Paaiškinamas DI (XAI)
Paaiškinamo DI (XAI) metodai gali padėti nustatyti požymius, kurie daro didžiausią įtaką modelio prognozėms. Suprasdami, kurie požymiai lemia modelio sprendimus, galite nustatyti galimus šališkumo šaltinius. XAI metodai apima:
- Požymių svarba: Kiekvieno požymio svarbos nustatymas modelio prognozėms.
- SHAP reikšmės: SHAP (SHapley Additive exPlanations) reikšmių skaičiavimas, siekiant paaiškinti kiekvieno požymio indėlį į modelio prognozes atskiriems atvejams.
- LIME: LIME (Local Interpretable Model-agnostic Explanations) naudojimas, siekiant paaiškinti modelio prognozes atskiriems atvejams, sukuriant vietinę tiesinę modelio aproksimaciją.
Pavyzdžiui, paskolos paraiškos modelyje galite naudoti XAI metodus, kad nustatytumėte požymius, kurie daro didžiausią įtaką modelio sprendimui patvirtinti ar atmesti paskolą. Jei nustatote, kad požymiai, susiję su rase ar etnine priklausomybe, yra labai įtakingi, tai gali rodyti, kad modelis yra šališkas.
Sąžiningumo audito įrankiai
Yra keletas įrankių ir bibliotekų, padedančių nustatyti ir sumažinti algoritminį šališkumą. Šie įrankiai dažnai pateikia įvairių šališkumo metrikų ir mažinimo metodų įgyvendinimus.
- AI Fairness 360 (AIF360): Atvirojo kodo įrankių rinkinys, sukurtas IBM, kuris teikia išsamų metrikų ir algoritmų rinkinį šališkumui DI sistemose nustatyti ir mažinti.
- Fairlearn: „Microsoft“ sukurtas Python paketas, teikiantis įrankius sąžiningumui mašininio mokymosi modeliuose vertinti ir gerinti.
- Responsible AI Toolbox: Išsamus „Microsoft“ sukurtų įrankių ir išteklių rinkinys, padedantis organizacijoms atsakingai kurti ir diegti DI sistemas.
Algoritminio šališkumo mažinimo strategijos
Nustačius algoritminį šališkumą, svarbu imtis priemonių jam sumažinti. Galima naudoti įvairius metodus šališkumui DI sistemose mažinti.
Išankstinis duomenų apdorojimas
Išankstinis duomenų apdorojimas apima mokymo duomenų modifikavimą siekiant sumažinti šališkumą. Išankstinio duomenų apdorojimo metodai apima:
- Persvėrimas: Skirtingų svorių priskyrimas skirtingiems mokymo duomenų egzemplioriams, siekiant kompensuoti iškreiptas reprezentacijas.
- Imties sudarymas: Daugumos klasės imties mažinimas arba mažumos klasės imties didinimas, siekiant subalansuoti duomenis.
- Duomenų augmentacija: Naujų sintetinių duomenų taškų kūrimas, siekiant padidinti nepakankamai atstovaujamų grupių reprezentaciją.
- Šališkų požymių šalinimas: Požymių, kurie yra susiję su saugomais bruožais, šalinimas. Tačiau būkite atsargūs, nes iš pažiūros nekalti požymiai vis tiek gali netiesiogiai koreliuoti su saugomais atributais (pakaitiniai kintamieji).
Pavyzdžiui, jei mokymo duomenyse yra mažiau moterų nei vyrų pavyzdžių, galite naudoti persvėrimą, kad suteiktumėte daugiau svorio moterų pavyzdžiams. Arba galite naudoti duomenų augmentaciją, kad sukurtumėte naujus sintetinius moterų pavyzdžius.
Algoritmo modifikavimas
Algoritmo modifikavimas apima paties algoritmo keitimą siekiant sumažinti šališkumą. Algoritmo modifikavimo metodai apima:
- Sąžiningumo apribojimai: Sąžiningumo apribojimų pridėjimas prie optimizavimo tikslo, siekiant užtikrinti, kad modelis atitiktų tam tikrus sąžiningumo kriterijus.
- Priešiškas šališkumo šalinimas: Priešiško tinklo apmokymas, siekiant pašalinti šališką informaciją iš modelio reprezentacijų.
- Reguliarizacija: Reguliarizacijos narių pridėjimas prie nuostolių funkcijos, siekiant bausti už nesąžiningas prognozes.
Pavyzdžiui, galite pridėti sąžiningumo apribojimą prie optimizavimo tikslo, kuris reikalauja, kad modelis turėtų tą patį tikslumo lygį visoms grupėms.
Poapdorojimas
Poapdorojimas apima modelio prognozių modifikavimą siekiant sumažinti šališkumą. Poapdorojimo metodai apima:
- Slenksčio koregavimas: Klasifikavimo slenksčio koregavimas, siekiant pasiekti norimą sąžiningumo metriką.
- Kalibravimas: Modelio tikimybių kalibravimas, siekiant užtikrinti, kad jos gerai atitiktų stebimus rezultatus.
- Atmetimo parinkties klasifikavimas: „Atmesti“ parinkties pridėjimas ribiniais atvejais, kai modelis nėra tikras dėl savo prognozės.
Pavyzdžiui, galite koreguoti klasifikavimo slenkstį, kad užtikrintumėte, jog modelis turėtų tą patį klaidingai teigiamų rezultatų rodiklį visoms grupėms.
Sąžiningumo skatinimas DI sistemose: pasaulinė perspektyva
Sąžiningų DI sistemų kūrimas reikalauja daugialypio požiūrio, apimančio ne tik techninius sprendimus, bet ir etinius svarstymus, politikos sistemas ir organizacines praktikas.
Etikos gairės ir principai
Įvairios organizacijos ir vyriausybės yra sukūrusios etikos gaires ir principus DI kūrimui ir diegimui. Šiose gairėse dažnai pabrėžiama sąžiningumo, skaidrumo, atskaitomybės ir žmogaus priežiūros svarba.
- Asilomaro DI principai: DI tyrėjų ir ekspertų sukurtas principų rinkinys, skirtas vadovautis atsakingu DI kūrimu ir naudojimu.
- Europos Sąjungos patikimo DI etikos gairės: Europos Komisijos sukurtas gairių rinkinys, skirtas skatinti patikimo DI kūrimą ir naudojimą.
- UNESCO rekomendacija dėl dirbtinio intelekto etikos: Pasaulinė sistema, skirta vadovautis atsakingu DI kūrimu ir naudojimu, užtikrinant, kad jis būtų naudingas visai žmonijai.
DI valdymas ir reguliavimas
Vyriausybės vis dažniau svarsto reglamentus, siekdamos užtikrinti, kad DI sistemos būtų kuriamos ir diegiamos atsakingai. Šie reglamentai gali apimti reikalavimus dėl šališkumo auditų, skaidrumo ataskaitų ir atskaitomybės mechanizmų.
- ES DI aktas: Siūlomas reglamentas, kuriuo siekiama sukurti teisinę DI sistemą Europos Sąjungoje, sprendžiant tokius klausimus kaip rizikos vertinimas, skaidrumas ir atskaitomybė.
- 2022 m. Algoritmų atskaitomybės aktas (JAV): Teisės aktas, kuriuo siekiama reikalauti, kad įmonės vertintų ir mažintų galimą automatizuotų sprendimų sistemų žalą.
Organizacinės praktikos
Organizacijos gali įgyvendinti įvairias praktikas, siekdamos skatinti sąžiningumą DI sistemose:
- Įvairios kūrėjų komandos: Užtikrinti, kad DI kūrėjų komandos būtų įvairios lyties, rasės, etninės priklausomybės ir kitų charakteristikų požiūriu.
- Suinteresuotųjų šalių įtraukimas: Bendradarbiavimas su suinteresuotosiomis šalimis (pvz., paveiktomis bendruomenėmis, pilietinės visuomenės organizacijomis), siekiant suprasti jų susirūpinimą ir įtraukti jų atsiliepimus į DI kūrimo procesą.
- Skaidrumas ir paaiškinamumas: DI sistemų darymas skaidresnėmis ir paaiškinamesnėmis, siekiant sukurti pasitikėjimą ir atskaitomybę.
- Nuolatinis stebėjimas ir vertinimas: Nuolatinis DI sistemų stebėjimas ir vertinimas, siekiant nustatyti ir spręsti galimus šališkumus.
- DI etikos tarybų steigimas: Vidinių ar išorinių komitetų formavimas, prižiūrinčių etines DI kūrimo ir diegimo pasekmes.
Pasauliniai pavyzdžiai ir atvejo studijos
Norint kurti sąžiningesnes DI sistemas, labai svarbu suprasti realaus pasaulio algoritminio šališkumo pavyzdžius ir mažinimo strategijas. Štai keletas pavyzdžių iš viso pasaulio:
- Sveikatos apsauga JAV: Nustatyta, kad algoritmas, naudojamas JAV ligoninėse prognozuoti, kuriems pacientams reikės papildomos medicininės priežiūros, buvo šališkas juodaodžių pacientų atžvilgiu. Algoritmas naudojo sveikatos priežiūros išlaidas kaip poreikio pakaitalą, tačiau juodaodžiai pacientai istoriškai turi mažiau galimybių gauti sveikatos priežiūros paslaugas, o tai lemia mažesnes išlaidas ir jų poreikių nuvertinimą. (Obermeyer et al., 2019)
- Baudžiamoji justicija JAV: Nustatyta, kad COMPAS algoritmas, naudojamas vertinti baudžiamųjų bylų kaltinamųjų recidyvo riziką, neproporcingai dažnai pažymėdavo juodaodžius kaltinamuosius kaip turinčius didesnę riziką, net kai jie nepadarydavo pakartotinio nusikaltimo. (Angwin et al., 2016)
- Įdarbinimas JK: „Amazon“ atsisakė savo DI įdarbinimo įrankio po to, kai atrado, kad sistema buvo šališka moterų atžvilgiu. Sistema buvo apmokyta naudojant istorinius įdarbinimo duomenis, kuriuose daugiausia buvo vyrų kandidatų, todėl DI atmesdavo gyvenimo aprašymus, kuriuose buvo žodis „moterų“.
- Veidų atpažinimas Kinijoje: Buvo iškeltas susirūpinimas dėl galimo šališkumo veidų atpažinimo sistemose, naudojamose stebėjimui ir socialinei kontrolei Kinijoje, ypač etninių mažumų atžvilgiu.
- Kredito vertinimas Indijoje: Alternatyvių duomenų šaltinių naudojimas kredito vertinimo modeliuose Indijoje gali įvesti šališkumą, jei šie duomenų šaltiniai atspindi esamas socialines ir ekonomines nelygybes.
DI etikos ir šališkumo nustatymo ateitis
DI toliau vystantis, DI etikos ir šališkumo nustatymo sritis taps dar svarbesnė. Ateities mokslinių tyrimų ir plėtros pastangos turėtų būti sutelktos į:
- Tvirtesnių ir tikslesnių šališkumo nustatymo metodų kūrimą.
- Efektyvesnių šališkumo mažinimo strategijų kūrimą.
- Tarpdisciplininio bendradarbiavimo tarp DI tyrėjų, etikų, politikos formuotojų ir socialinių mokslų specialistų skatinimą.
- Pasaulinių standartų ir geriausių praktikų nustatymą DI etikai.
- Švietimo išteklių kūrimą, siekiant didinti DI praktikų ir plačiosios visuomenės informuotumą apie DI etiką ir šališkumą.
Išvada
Algoritminis šališkumas yra didelis DI etikos iššūkis, tačiau jis nėra neįveikiamas. Suprasdami šališkumo šaltinius, naudodami veiksmingus nustatymo ir mažinimo metodus bei skatindami etines gaires ir organizacines praktikas, galime sukurti sąžiningesnes ir teisingesnes DI sistemas, kurios būtų naudingos visai žmonijai. Tam reikia pasaulinių pastangų, apimančių tyrėjų, politikos formuotojų, pramonės lyderių ir visuomenės bendradarbiavimą, siekiant užtikrinti, kad DI būtų kuriamas ir diegiamas atsakingai.
Nuorodos:
- Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016). Mašinų šališkumas. ProPublica.
- Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Rasinio šališkumo analizė algoritme, naudojamame gyventojų sveikatai valdyti. Science, 366(6464), 447-453.