Nediscriminarea în Sistemele de Învățare Automată

Introducere

Învățarea automată sau Machine Learning (ML), termenul original din limba engleză utilizat mult mai des, este un subset al inteligenței artificiale (Artificial Intelligence – AI), axat pe construirea de sisteme care pot învăța – sau își pot îmbunătăți performanțele – în funcție de datele pe care le procesează. Inteligența artificială este un termen vast care se referă la sisteme sau mașini care imită inteligența umană.

Termenii învățare automată și inteligență artificială sunt adesea puși în discuție împreună și utilizați uneori în mod interschimbabil, dar nu înseamnă același lucru. O diferență importantă este aceea că, deși toate sistemele ML sunt AI, nu toate sistemele AI sunt ML.

Astăzi, sistemele de învățare automată lucrează peste tot în jurul nostru. Atunci când interacționăm cu băncile, cumpărăm online sau utilizăm mediile de socializare, algoritmii ML intră în joc pentru a ne crea o experiență eficientă, lină și sigură.

Sistemele ML și tehnologia aferentă se dezvoltă rapid, deși suntem abia la începutul utilizării capacităților sale. Sunt deja folosite pentru a lua decizii care pot schimba viața celor implicați:

  • care solicitanți de locuri de muncă sunt angajați,
  • care solicitanți de ipoteci primesc un împrumut bancar,
  • care deținuți sunt eliberați condiționat etc.

Astfel de decizii afectează drepturile omului, adesea ale celor mai vulnerabili oameni din societate.

Glosar de termeni

  • Algoritm
    Un algoritm este o secvență de operații logice specificată formal care oferă instrucțiuni pas cu pas pentru calculatoare să acționeze asupra datelor și astfel să automatizeze deciziile. În termeni mai simpli, este „un set de reguli pe care le urmează un computer pentru a rezolva o problemă”.
  • Big Data
    Cantități mari și eterogene de date care au fost colectate fără un proiect experimental strict. Big Data devine din ce în ce mai frecventă datorită proliferării stocării digitale, ușurinței mai mari de colecționare a datelor (de exemplu, prin intermediul telefoanelor mobile) și gradului mai mare de interconectare între dispozitivele noastre (adică internetul).
  • Date de instruire
    Datele de intrare într-un algoritm de învățare automată în procesul de populare (de exemplu, antrenament) a modelului de învățare automată astfel încât modelul instruit să reprezinte modelele conținute în datele de instruire.
  • Discriminare
    Orice distincție, excludere sau preferință făcută pe bază de rasă, culoare, sex, religie, opinie politică, origine națională sau socială, care are ca efect anularea sau afectarea egalității de șanse sau de tratament.
  • Transparență
    Capacitatea de a „ști când și cum un sistem de învățare automată funcționează bine sau rău”.
  • Drepturile omului
    Drepturile omului sunt drepturi inerente tuturor ființelor umane, indiferent de naționalitatea, locul de reședință, sexul, originea națională sau etnică, culoarea, religia, limba sau orice alt statut. Cu toții avem dreptul în mod egal la drepturile noastre umane fără discriminare. Aceste drepturi sunt toate interdependente, interdependente și indivizibile. Drepturile universale ale omului sunt adesea exprimate și garantate prin lege, sub formă de tratate, drept internațional, principii generale și alte surse de drept internațional. Legea internațională privind drepturile omului stabilește obligațiile guvernelor de a acționa în anumite moduri sau de a se abține de la anumite acte pentru a promova și proteja drepturile omului și libertățile fundamentale ale indivizilor sau grupurilor.
  • Inteligență artificială
    Știința de a face mașinile inteligente.
  • Învățare automată
    Învățarea automată este o formă de inteligență artificială care permite unui sistem să învețe din datele prelucrate nu numai din programarea explicită. Cu toate acestea, învățarea automată nu este un proces simplu. Învățarea automată utilizează o varietate de algoritmi care învață în mod iterativ din date pentru a îmbunătăți, pentru a descrie date și pentru a prezice rezultate.

Exemple de sisteme de învățare automată din viața de zi cu zi

1. Asistenți virtuali

Siri, Alexa, Google Now sunt câteva dintre exemplele populare de asistenți virtuali. După cum sugerează și numele, ajută la găsirea informațiilor atunci când sunt întrebați. Este suficient să fie întrebați „Care este programul meu de azi?”, „Care sunt zborurile din București către Londra?” sau alte întrebări similare. Pentru a răspunde, asistentul personal urmărește informațiile, reamintește întrebările conexe sau trimite o comandă către alte resurse (cum ar fi aplicațiile de telefon) pentru a colecta informații. Este posibilă și instruirea lor pentru anumite sarcini cum ar fi „Setează o alarmă mâine la 6 dimineața!”, „Amintește-mi să mă duc la bancă poimâine!”.

Învățarea automată este o parte importantă a acestor asistenți personali, deoarece colectează și rafinează informațiile pe baza implicării lor anterioare. Mai târziu, acest set de date este utilizat pentru a obține rezultate adaptate preferințelor utilizatorului.

Asistenții virtuali sunt integrați într-o varietate de platforme. De exemplu în telefoanele iPhone de la Apple sau în numeroase modele cu Android de la diverși producători. De asemenea, pot fi găsiți și în alte dispozitive inteligente cum sunt Amazon Echo și Google Home.

2. Predicții de trafic în timpul navigației GPS

În timpul utilizării unei aplicații de navigație prin GPS locațiile și viteza actuală sunt salvate pe un server central pentru gestionarea traficului. Aceste date sunt apoi utilizate pentru a construi o hartă a traficului curent. Deși acest lucru ajută la prevenirea traficului și analizează congestia, problema de bază este că există un număr mai mic de mașini care sunt echipate cu GPS. Învățarea automată în astfel de scenarii, pe baza experiențelor zilnice, ajută la estimarea zonelor unde pot apărea ambuteiaje.

3. Monitorizarea camerelor de supraveghere

O persoană care monitorizează mai multe camere video are o sarcină dificilă, plictisitoare și cu creșterea timpului petrecut în fața ecranelor, predispusă la erori. Acesta este motivul pentru care instruirea calculatoarelor să se ocupe de această sarcină este o idee binevenită.

În prezent sistemele de supraveghere video bazate pe AI fac posibilă prevenirea criminalității. Acestea urmăresc comportamentul neobișnuit al oamenilor, cum ar fi să stea nemișcați pentru o perioadă lungă de timp, să se împiedice, să doarmă pe bănci etc. Abia atunci aceste sisteme raportează activitatea suspectă controlorului uman îmbunătățind astfel eficiența sistemelor de supraveghere video, fapt datorat activității „în fundal” a sistemelor de învățare automată.

4. Servicii de socializare

De la personalizarea fluxului de știri la direcționarea mai potrivită a anunțurilor, platformele de socializare utilizează învățarea automată atât pentru propriile beneficii și pentru cel al utilizatorilor. Iată câteva exemple întâlnite zilnic și care sunt foarte apreciate poate chiar fără a se ști că nu sunt altceva decât aplicații ML.

Recomandare prieteni: învățarea automată funcționează pe un concept simplu: învățarea bazată pe experiențe. Facebook observă în permanență prietenii cu care vă conectați, profilurile pe care le vizitați foarte des, interesele dvs., locul de muncă sau un grup pe care îl partajați cu cineva etc. Pe baza învățării continue, este sugerată o listă de utilizatori Facebook pe care este posibil să îi știți.

Recunoașterea feței: încărcați o fotografie cu un prieten iar Facebook îl recunoaște instantaneu. Facebook verifică pozițiile și proiecțiile din imagine, observă caracteristicile unice și apoi le potrivește cu persoanele din lista de prieteni.

Pin-uri similare: Învățarea automată este elementul de bază a Computer Vision, o tehnică pentru a extrage informații utile din imagini și videoclipuri. Pinterest utilizează aceasta pentru a identifica obiectele (sau pinii) din imagini și recomandă în mod corespunzător elemente similare.

5. Filtrarea spamului și a programelor malware din e-mail

Există o serie de abordări de filtrare a spamului folosite de clienții de e-mail. Pentru a se asigura că aceste filtre de spam sunt actualizate continuu, acestea sunt „motorizate” de învățarea automată.

Zilnic sunt detectate peste 300.000 de programe malware, iar codurile sursă ale acestora sunt similare cu 90-98% din codurile unor versiuni mai vechi. Programele de securitate bazate pe învățarea automată înțeleg modelul codului. Prin urmare, detectează cu ușurință programele malware noi și oferă protecție împotriva lor.

6. Asistență clienți online

Tot mai multe site-uri web oferă în prezent opțiunea de a discuta cu reprezentantul de asistență pentru clienți în timp ce navighează pe site. Totuși, crește numărul site-urilor unde sunteți pus în legătură cu un chatbot și nu cu o persoană. Acești roboți tind să extragă informații de pe site și să le prezinte clienților. Avansul tehnologic al acestor roboți crește de la o zi la alta oferind răspunsuri tot mai bune.

7. Recomandări de produse

Ați cumpărat online un produs și apoi primiți în continuare e-mailuri cu sugestii de cumpărături? Este posibil să fi observat că site-ul sau aplicația de cumpărături vă recomandă unele articole care se potrivesc cumva cu preferințele dumneavoastră. Acest lucru îmbunătățește experiența de cumpărare, iar învățarea automată este cea care face posibilă această „magie”. Recomandările de produse sunt făcute pe baza comportamentului dumneavoastră pe site sau în aplicație (achiziții anterioare, articole apreciate sau adăugate în coș, preferințe de marcă etc.).

8. Detectarea fraudelor online

Învățarea automată își demonstrează potențialul de a face din spațiul cibernetic un loc sigur, iar urmărirea fraudelor monetare online este unul dintre exemple. De exemplu Paypal folosește ML pentru prevenirea spălării banilor. Compania folosește un set de instrumente care o ajută să compare milioane de tranzacții care au loc și să facă distincția între tranzacțiile legitime sau ilegitime care au loc între cumpărători și vânzători.

Unde apare riscul discriminării în proiectarea și implementarea algoritmilor?

Chiar dacă algoritmii de învățare automată sunt instruiți pe seturi de date corecte, există cinci situații care pot duce la proiectarea sau implementarea discriminării în codul programelor.

1. Alegerea unui model greșit

Algoritmii sunt proiectați deseori pe baza altor algoritmi care s-au dovedit a avea succes în contexte aparent similare, dar algoritmii care funcționează bine într-un context pot discrimina în altul. Un algoritm ML care evaluează cu succes riscul relativ al solicitanților de împrumuturi în SUA poate trece cu vederea elemente importante dacă sunt implementate în alte țări.

2. Construirea din greșeală a unui model cu trăsături discriminatorii

Oamenii trebuie să definească pentru algoritmi cum arată „succesul” iar aceasta, de obicei, înseamnă mai degrabă maximizarea profiturilor, precizia sau eficiența, decât maximizarea corectitudinii.

De exemplu, un model ML însărcinat cu prezicerea probabilității de recidivă a infractorilor a avut o rată de eroare similară pentru inculpații negri și albi, dar era mai probabil să greșească prezicând în mod eronat că inculpații negri vor recidiva și că inculpații albi nu o vor face.

Prejudecățile pot apărea la specificarea de către programatori a importanței valorii unei variabile din codul ML. De exemplu, un algoritm pentru evaluarea solicitanților unui împrumut poate lua în considerare atât nivelurile de venit, cât și comportamentul în cazul rambursărilor anterioare. O decizie a factorului uman de a acorda mai multă importanță venitului solicitanților poate discrimina pe nedrept membrii grupurilor care tind să aibă venituri mai mici, cum ar fi femeile.

3. Absența supravegherii și implicării umane

Pe măsură ce învățarea automată devine mai evoluată, aceasta implică mai puțină supraveghere umană. Cu toate acestea, existența unei persoane om funcționarea programului este necesară pentru a observa dacă se ignoră, în mod neașteptat, factori importanți.

De exemplu, Universitatea Pittsburgh Medical Center a folosit ML pentru a prezice care pacienți cu pneumonie au un risc scăzut de a dezvolta complicații și ar putea fi trimiși acasă. Modelul ML a recomandat ca medicii să trimită acasă pacienți care suferă de astm, având în vedere în datele de test a reieșit că foarte puține au dezvoltat complicații; medicii, totuși, știau că acest lucru se întâmplă doar pentru că au plasat în mod obișnuit astfel de pacienți în terapie intensivă ca măsură de precauție.

Pentru că este imposibil de definit cu exactitate de la început când se poate produce discriminarea, în orice context dat, este importantă implicarea și păstrarea factorului uman în toate sistemele de învățare automată.

4. Imprevizibilitatea sistemelor ML

Atunci când o persoană ia o decizie, de exemplu dacă angajează sau nu pe cineva, o putem întreba de ce a decis într-un fel sau altul. Sistemele ML nu au această transparență. Uneori acest lucru nu contează – este posibil să nu fie nevoie să înțelegem modul în care ML din spatele Google Maps determină ruta propusă.

Acest element este imperativ atunci când deciziile au impact cu privire la drepturile omului. De exemplu, atunci când un sistem ML ia decizii cu privire la eliberarea condiționată, identificarea și remedierea unei eventuale discriminări depinde de capacitatea de a înțelege măsurile luate pentru a lua deciziile.

5. Discriminarea intenționată și neverificată

În unele cazuri, părtinirea este integrată în mod intenționat în algoritmi. De exemplu, dacă angajatorii doresc să evite angajarea femeilor care ar putea rămâne însărcinate, ar putea folosi sisteme de ML pentru a identifica și filtra acest subgrup de femei.

În absența unei reglementări adecvate, sarcina revine conducerii companiei, proiectanților, cercetătorilor de date, inginerilor și altor persoane implicate în crearea sistemelor ML pentru a le construi în moduri care prevăd, previn și monitorizează discriminarea de orice fel.

Exemplu ipotetic: sisteme de asigurări de sănătate excluzive în Mexic

Mexicul se numără printre țările în care, pentru majoritatea, asistența medicală de calitate este disponibilă numai prin asigurări private. Cel puțin două companii multinaționale de asigurări private care operează în Mexic folosesc acum ML pentru a-și maximiza eficiența și profitabilitatea, cu implicații potențiale pentru dreptul omului la acces echitabil la asistență medicală adecvată. Imaginați-vă un scenariu în care companiile de asigurări folosesc ML pentru extragerea datelor, cum ar fi istoricul cumpărăturilor, pentru a recunoaște tiparele asociate cu clienții cu risc ridicat pentru a le percepe taxe mai mari: cei mai săraci și cei mai bolnavi ar fi cel mai puțin în măsură să își permită accesul la serviciile de sănătate.

Exemplu ipotetic: China și scorurile de credit social

Chiar dacă transparența condițiilor de viață din China poate sta sub semnul întrebării, unele rapoartele sugerează că China creează un model pentru a-și categoriza cetățenii prin analizarea unei game largi de date provenite din înregistrări bancare, fiscale, profesionale și de performanță, smartphone-uri, comerț electronic și social media. Se speculează că scopul este „de a folosi datele pentru a impune o autoritate morală așa cum a fost concepută de Partidul Comunist.”. Rămâne deschisă întrebarea ce se va întâmpla dacă guvernele vor acționa pe baza unor scoruri calculate folosind date incomplete, părtinitoare din punct de vede istoric și folosind modele care nu au fost construite pentru „imparțialitate”.

Concluzii

Concepute și utilizate corect, sistemele de învățare automată pot ajuta la eliminarea prejudecăților umane din procesul decizional, prejudecăți pe care societatea modernă încearcă din greu să le elimine. Cu toate acestea, în cazul unei analize este, de asemenea, posibil ca sistemele de învățare automată să întărească părtinirea sistemică și discriminarea și să prevină asigurarea demnității. De exemplu, datele istorice privind ocuparea forței de muncă pot arăta că femeile sunt promovate mai puțin decât bărbații. Dacă un sistem de învățare automată instruit pe astfel de date concluzionează că femeile au performanțe mai slabe, discriminarea va perpetua.

Rezultatele discriminatorii nu numai că încalcă drepturile omului, ci subminează și încrederea publicului cu privire la învățarea automată. Dacă opinia publică devine negativă, este probabil să conducă la reglementări reactive care împiedică dezvoltarea învățării automate și a potențialului ei social și economic pozitiv.