Kako premišljen pristop k AI zmanjšuje pristranskost podatkovnih nizov

Pristranski nabori podatkov in etična umetna inteligenca

Rešitve, ki jih poganja AI, potrebujejo niz podatkov, da bodo učinkoviti. Ustvarjanje teh podatkovnih nizov je na sistematični ravni polno implicitnega problema pristranskosti. Vsi ljudje trpijo zaradi pristranskosti (tako zavestne kot nezavedne). Pristranskosti so lahko različnih oblik: geografske, jezikovne, socialno-ekonomske, seksistične in rasistične. In te sistematične pristranskosti so zapečene v podatke, kar lahko povzroči izdelke AI, ki ohranjajo in povečujejo pristranskost. Organizacije potrebujejo previden pristop za ublažitev pristranskosti, ki se plazi v nize podatkov.

Primeri, ki ponazarjajo problem pristranskosti

Pomemben primer pristranskosti tega niza podatkov, ki je v tistem času požel veliko negativnega tiska, je bila rešitev za branje življenjepisa, ki je dajala prednost moškim kandidatom pred ženskami. To je zato, ker so bili nabori podatkov orodja za zaposlovanje razviti z uporabo življenjepisov iz zadnjega desetletja, ko je bila večina prosilcev moških. Podatki so bili pristranski in rezultati so odražali to pristranskost. 

Še en zelo razširjen primer: na letni konferenci za razvijalce Googla I/O je Google delil predogled orodja za pomoč pri dermatologiji na osnovi umetne inteligence, ki ljudem pomaga razumeti, kaj se dogaja s težavami, povezanimi s kožo, lasmi in nohti. Asistent za dermatologijo poudarja, kako se umetna inteligenca razvija, da bi pomagala pri zdravstvenem varstvu, vendar je poudarila tudi možnost, da bi pristranskost prišla do AI zaradi kritik, da orodje ni primerno za barvne ljudi.

Ko je Google objavil orodje, je podjetje opozorilo:

Da bi zagotovili, da gradimo za vsakogar, naš model upošteva dejavnike, kot so starost, spol, rasa in tip kože – od blede kože, ki ne porjavi, do rjave kože, ki redko opeče.

Google, ki uporablja AI za pomoč pri iskanju odgovorov na pogosta stanja kože

Toda članek v Viceu pravi, da Google ni uporabil vključujočega nabora podatkov:

Za izpolnitev naloge so raziskovalci uporabili nabor podatkov za usposabljanje 64,837 slik 12,399 bolnikov, ki se nahajajo v dveh državah. Toda od tisočih kožnih stanj, ki so prikazani na sliki, je le 3.5 odstotka prišlo pri bolnikih s tipoma kože po Fitzpatricku V in VI - tistih, ki predstavljajo rjavo kožo in temno rjavo ali črno kožo. Po študiji je 90 odstotkov baze podatkov sestavljalo ljudi s svetlo kožo, temnejšo belo kožo ali svetlo rjavo kožo. Zaradi pristranskega vzorčenja dermatologi pravijo, da bi aplikacija lahko na koncu preveč ali premalo diagnosticirala ljudi, ki niso belci.

Vice, Googlova nova aplikacija za dermatologijo ni bila zasnovana za ljudi s temnejšo kožo

Google se je odzval z besedami, da bo izboljšal orodje, preden ga uradno izda:

Naše orodje za pomoč pri dermatologiji, ki ga poganja umetna inteligenca, je vrhunec več kot treh let raziskav. Ker je bilo naše delo predstavljeno v Nature Medicine, smo nadaljevali z razvojem in izpopolnjevanjem naše tehnologije z vključitvijo dodatnih podatkovnih nizov, ki vključujejo podatke, ki jih je podarilo na tisoče ljudi, in na milijone bolj kuriranih slik, ki zadevajo kožo.

Google, ki uporablja AI za pomoč pri iskanju odgovorov na pogosta stanja kože

Kolikor upamo, da bi lahko programi umetne inteligence in strojnega učenja popravili te pristranskosti, realnost ostaja: so le kot pametna saj so njihovi nabori podatkov čisti. V posodobitvi starega programskega izreka smeti v / smeti ven, so rešitve AI močne le toliko, kot je kakovost njihovih podatkovnih nizov že od samega začetka. Brez popravka programerjev ti nabori podatkov nimajo izkušenj v ozadju, da bi se sami popravili – saj preprosto nimajo drugega referenčnega okvira.

Odgovorno oblikovanje naborov podatkov je v središču vsega etična umetna inteligenca. In ljudje so v središču rešitve. 

Pomna umetna inteligenca je etična umetna inteligenca

Pristranskost se ne zgodi v vakuumu. Neetični ali pristranski nabori podatkov izhajajo iz napačnega pristopa v fazi razvoja. Način za boj proti napakam pristranskosti je sprejetje odgovornega pristopa, osredotočenega na človeka, ki ga mnogi v industriji imenujejo Mindful AI. Mindful AI ima tri kritične komponente:

1. Premišljena umetna inteligenca je osredotočena na človeka

Od začetka projekta umetne inteligence, v fazah načrtovanja, morajo biti potrebe ljudi v središču vsake odločitve. In to pomeni, da so vsi ljudje – ne le podmnožica. Zato se morajo razvijalci zanašati na raznoliko ekipo ljudi na svetovni ravni, da bodo aplikacije AI umetne in vključujoče in brez pristranskosti.

Množično pridobivanje podatkovnih nizov iz globalne, raznolike ekipe zagotavlja, da se pristranskosti odkrijejo in odstranijo zgodaj. Osebe različnih etničnih skupin, starostnih skupin, spolov, ravni izobrazbe, socialno-ekonomskega ozadja in lokacij lahko lažje opazijo nabore podatkov, ki dajejo prednost enemu nizu vrednot pred drugim, in tako izločijo nenamerno pristranskost.

Oglejte si glasovne aplikacije. Pri uporabi premišljenega pristopa AI in izkoriščanju moči globalnega nabora talentov lahko razvijalci upoštevajo jezikovne elemente, kot so različna narečja in poudarki v nizih podatkov.

Vzpostavitev okvirja oblikovanja, osredotočenega na človeka, je ključnega pomena. To je daleč pri zagotavljanju, da ustvarjeni, kurirani in označeni podatki izpolnjujejo pričakovanja končnih uporabnikov. Pomembno pa je tudi, da so ljudje na tekočem skozi celoten življenjski cikel razvoja izdelka. 

Ljudje v zanki lahko tudi pomagajo strojem ustvariti boljšo izkušnjo umetne inteligence za vsako specifično občinstvo. Pri Pactera EDGE naše projektne skupine za podatke AI, ki se nahajajo po vsem svetu, razumejo, kako lahko različne kulture in konteksti vplivajo na zbiranje in kuriranje zanesljivih podatkov o usposabljanju AI. Imajo potrebna orodja, ki jih potrebujejo za označevanje težav, njihovo spremljanje in odpravljanje, preden bo rešitev, ki temelji na AI, zaživela.

Umetna inteligenca človeka v zanki je projektna »varnostna mreža«, ki združuje prednosti ljudi – in njihovo raznoliko ozadje s hitro računalniško močjo strojev. To sodelovanje med ljudmi in umetno inteligenco je treba vzpostaviti od začetka programov, tako da pristranski podatki ne tvorijo temeljev projekta. 

2. Previdna umetna inteligenca je odgovorna

Biti odgovoren je zagotoviti, da so sistemi umetne inteligence brez pristranskosti in da so utemeljeni na etiki. Gre za zavedanje, kako, zakaj in kje nastajajo podatki, kako jih sintetizirajo sistemi AI in kako se uporabljajo pri sprejemanju odločitev, odločitve, ki imajo lahko etične posledice. Eden od načinov za to je, da podjetje sodeluje s premalo zastopanimi skupnostmi, da bi bile bolj vključujoče in manj pristranske. Na področju pripisov podatkov nove raziskave poudarjajo, kako lahko večopravilni model z več anotatorji, ki obravnava oznake vsakega pripisovalca kot ločeno podopravilo, pomaga ublažiti morebitne težave, ki so neločljivo povezane s tipičnimi metodami resnice, pri katerih so lahko nestrinjanja med anotatorji posledica premajhne zastopanosti in se lahko prezre pri združevanju opomb k eni sami osnovni resnici. 

3. Zaupanja vreden

Zanesljivost izhaja iz tega, da je podjetje pregledno in razložljivo glede tega, kako je model umetne inteligence usposobljen, kako deluje in zakaj priporočajo rezultate. Podjetje potrebuje strokovno znanje z lokalizacijo umetne inteligence, da bi svojim strankam omogočilo, da bodo njihove aplikacije za umetno inteligenco bolj vključujoče in prilagojene, pri čemer bodo upoštevali kritične nianse v lokalnem jeziku in uporabniške izkušnje, ki lahko povzročijo ali zrušijo verodostojnost rešitve AI iz ene države v drugo . Podjetje bi moralo na primer oblikovati svoje aplikacije za prilagojene in lokalizirane kontekste, vključno z jeziki, narečji in poudarki v glasovnih aplikacijah. Na ta način aplikacija prinaša enako raven prefinjenosti glasovne izkušnje v vsak jezik, od angleščine do premalo zastopanih jezikov.

Poštenost in raznolikost

Navsezadnje premišljena AI zagotavlja, da rešitve temeljijo na poštenih in raznolikih zbirkah podatkov, kjer se posledice in vpliv določenih rezultatov spremljajo in ovrednotijo, preden rešitev pride na trg. S preudarkom in vključitvijo ljudi v vsak del razvoja rešitve pomagamo zagotoviti, da modeli AI ostanejo čisti, minimalno pristranski in čim bolj etični.

Kaj menite?

Ta stran uporablja Akismet za zmanjšanje nezaželene pošte. Preberite, kako se vaš komentar obravnava.