Riscurile inteligenței artificiale afectează oamenii și societatea în ansamblu. Ne-am trezit în Era Inteligenței Artificiale (IA), înconjurați de casieri-roboți, de conținut generat de ChatGPT, de deep-fakes și de sugestii, recomandări și predicții care ne cunosc mai bine decât ne cunoaștem noi. Companiile investesc în know-how privind IA. Se pregătește în mod accelerat terenul pentru justiția algoritmică, pentru mașinile autonome, roboții-manageri, roboții-judecători și roboții-medici. Nu vorbim de un film SF, ci de realitate. Iar în realitatea de mâine, roboții vor coexista din ce în ce mai mult cu oamenii, preluând sarcini tot mai complexe și luând decizii tot mai frecvente și mai importante cu privire la oamenilor. Sub supravegherea umană a experților din diverse domenii-cheie, roboții de mâine ne vor stabili diagnosticele medicale, ne vor judeca, recruta, promova și concedia.
Nu sunt optimistă și nici pesimistă, ci, ca expert în dreptul digital și al protecției datelor cu caracter personal, prefer să am o abordare pragmatică și să îmi canalizez atenția pe înțelegerea impactului pe care IA îl va avea asupra drepturilor persoanelor fizice. Prin acest articol, îmi propun să trec în revistă riscurile inteligenței artificiale astfel cum se preconizează ele astăzi.
Există sisteme IA care au un risc ridicat deoarece, pe de o parte, pot interacționa cu persoane și grupuri vulnerabile (copii, bătrâni, etc) și, pe de altă parte, sunt utilizate în domenii-cheie ale societății precum justiție, medicină, domeniul bancar.
Care sunt sistemele IA cu risc ridicat?
O primă categorie de sisteme IA cu risc ridicat este categoria sistemelor IA de recunoaștere facială. Practic, prin algoritmi avansați, aceste sisteme compară imaginile unor persoane fizice captate de anumite camere de supraveghere inteligente cu imaginile care se regăsesc deja într-o bază de date. Cu alte cuvinte, sistemele de recunoaștere facială funcționează pe compararea datelor biometrice (imagini faciale, iris, etc) captate de camerele CCTV cu datele biometrice existente într-o altă bază de date (de exemplu, imagini cu suspecți dintr-un dosar penal, imagini din evidența operativă a poliției). Aceste sisteme pot fi utilizate pentru asigurarea securității sau în justiție, pentru identificarea și prinderea suspecților. Care este problema și unde sunt riscurile? Cel mai important risc este riscul că un astfel de sistem IA poate da erori. De exemplu, o persoană nevinovată poate fi acuzată de o infracțiune deoarece sistemul IA de identificare facială a avut o eroare și a confundat-o cu adevăratul infractor. Un alt risc este cel privitor la autonomia și libertatea individuală. Sistemele de recunoaștere facială pot contribui și la creșterea supravegherii în spațiile publice și private, aspect care poate avea un impact negativ asupra autonomiei și libertății individuale și poate genera sentimente de opresiune sau constrângere privind libertatea personală, libertatea de mișcare și intimitatea. În plus, persoanele pot simți că sunt monitorizate în permanență, lucru care poate avea un impact negativ asupra autonomiei personale.
Și sistemele IA care ar putea fi utilizate în justiție au riscuri care nu pot fi trecute ușor cu vederea. Sistemele judiciare au deja o mulțime de erori. Scopul Inteligenței Artificiale ar trebui să fie acela de a rezolva problemele pe care justiția le are în prezent (e.g., practică judiciară neunitară, interpretarea și aplicarea eronată a normelor de drept). Însă, dacă aceste sisteme IA nu sunt dezvoltate corect sau sunt utilizate în mod defectuos sau fără supraveghere, există riscul ca algoritmii să ia decizii eronate sau nedrepte cu privire la dosarele pe rol.
Să luăm exemplul unui sistem IA care interpretează și aplică legislația la un caz concret. Algoritmul sistemului IA a fost dezvoltat pentru a aplica o anumită normă de drept la un caz concret. Din cauza complexității cazului, algoritmul poate fi limitat și nu poate înțelege anumite subtilități și circumstanțe ale cazului pe care doar o minte umană le poate percepe. Drept rezultat, algoritmul poate lua o decizie eronată cu privire la un anumit caz.
Un alt exemplu este acela al unui sistem IA care este dezvoltat pentru a analiza probele video. Din cauza unor erori interne, sistemul IA nu reușește să distingă între imaginile autentice și cele false, de tip deep-fakes. Dacă un astfel de sistem comite o eroare, se pot ajunge la situații în care persoanele nevinovate sunt condamnate pentru infracțiuni pe care nu le-au săvârșit sau, în alte situații, persoanele vinovate nu sunt trase la răspundere.
Sistemele IA care scanează automat CV-urile pot face greșeli, discriminând persoane pe criterii precum vârsta, sexul, rasa, etnia. Este adevărat că și oamenii au tendința să discrimineze. Însă lucrurile stau diferit în privința IA. IA procedează cantități enorme de date la viteze incomparabile abilităților umane. Tocmai de aceea, procesele discriminatorii ale unui IA pot prinde proporții uriașe, discriminând pe scară largă persoane și ajungând la situații nefericite în care anumite persoane aparținând unor grupuri vulnerabile sunt excluse total și automat din sistemul de recrutare. La scară largă, astfel de practici ar putea conduce către creșterea șomajului și alte probleme economice și sociale.
Sistemele IA utilizate în medicină pot fi extrem de periculoase. Dacă sunt dezvoltate sau utilizate incorect, ele pot stabili diagnostice greșite, pot oferi tratamente eronate sau pot comite erori în efectuarea operațiilor, rănind oamenii sau afectându-le starea de sănătate. În plus, sistemele IA utilizate în medicină pot prezenta și riscuri pentru confidențialitatea datelor pacienților.
Implementează GDPR și evită amenzile!
Anumite voci afirmă că vehiculele autonome vor contribui la reducerea ratei accidentelor rutiere deoarece majoritatea accidentelor rutiere sunt cauzate de erori umane. Este adevărat, însă nici aceste vehicule autonome nu sunt ferite de pericole. Chiar și aceste vehicule pot avea erori și defecte în sistem, care pot conduce către accidente rutiere.
Sistemele IA de creditare automată prezintă riscuri deoarece algoritmii folosiți în evaluarea și acordarea creditelor pot lua decizii discriminatorii, din cauza datelor de intrare incorecte sau părtinitoare, fie din cauza logicii și criteriilor utilizate în procesul de luare a deciziilor. Acest lucru poate conduce la tratament nedrept și la neacordarea creditelor unor persoane care fac parte din anumite categorii sau grupuri (pe criterii de sex, vârstă, situație medicală, rasă, etnie, etc).
Algoritmii NLP (sistemele de prelucrare a limbajului natural) pot fi utilizați pentru crearea de conținut fals, cum ar fi știri false, articole manipulative sau deepfake-uri. Acești algoritmi pot avea un impact negativ asupra încrederii publicului în informații și poate contribui la răspândirea dezinformării și manipulării în mediul online.
Unii algoritmi IA care imită vocile unor oameni pot frauda alți oameni. Aceștia ar putea crede că vorbesc la telefon cu o persoană adevărată, când, de fapt, pot vorbi la telefon cu un algoritm care a fost dezvoltat să comită fraude.
Există și sisteme IA care analizează emoțiile oamenilor și îi profilează în scopuri de manipulare. Cel mai adesea, acești algoritmi sunt utilizați pe rețelele de socializare pentru a furniza utilizatorilor reclame personalizate, bazate pe profilul lor psihologic sau pe stările lor emoționale. Ei pot fi folosiți și în perioada campaniilor electorale, de către partide politice și candidați, pentru a manipula procesul electoral.
Care sunt riscurile inteligenței artificiale?
Astfel cum am menționat anterior, un prim risc al inteligenței artificiale este tendința acesteia de a discrimina persoanele. Acest lucru este posibil deoarece datele de intrare și datele de antrenament conțin discriminări din trecut. De exemplu, dacă în trecut persoanele de un anumit sex sau de o anumită etnie au fost excluse de la anumite locuri de muncă, un sistem IA care învață din aceste date, va învăța să fie și el discriminatoriu.
Un alt risc al IA este lipsa de transparență. Multe sisteme de IA, cum ar fi rețelele neuronale profunde, pot fi extrem de complexe și greu de înțeles. Acest lucru poate duce la lipsa de transparență în procesul de luare a deciziilor și poate fi dificil să se determine cum a ajuns un sistem de IA la anumite rezultate sau recomandări. Lipsa de transparență a unui sistem IA poate determina oamenii să simtă neîncredere față de IA și să se simtă nesiguri în fața deciziilor automate luate de respectivul sistem IA. Lipsa de transparență este problematică mai ales în domenii sensibile precum medicina, justiția penală sau împrumuturile bancare, domenii unde oamenii au nevoie să înțeleagă motivele din spatele deciziilor care le afectează viețile.
Riscurile inteligenței artificiale nu se opresc aici. Sistemele IA pot fi și vulnerabile în fața atacurilor cibernetice. Sistemele IA conțin și date cu caracter personal. O parte din aceste date cu caracter personal sunt date sensibile (date genetice, biometrice, date privind sănătatea, rasa, etnia, viața sexuală, etc). Dezvăluirea sau accesarea neautorizată a acestor date ar putea aduce prejudicii persoanelor, afectându-le intimitatea și dreptul la demnitate. În plus, vulnerabilitatea sistemelor IA poate conduce către preluarea controlului asupra unui sistem IA de către un atacator extern. Acest atacator extern ar putea manipula sistemul IA să efectueze acțiuni greșite, eronate sau rău-voitoare.
Oamenii pot deveni atât de dependenți de utilizarea IA încât să se bazeze exclusiv pe recomandările și deciziile automate, omițând să intervină pentru a remedia posibilele erori. În plus, este clar că IA va avea un impact colosal asupra locurilor de muncă deoarece va înlocui job-urile care fac muncă repetitivă. Pentru a rămâne competitivi în piața muncii, oamenii vor trebui să investească în aptitudini care le vor oferi un avantaj față de IA: gândire critică, creativitate, management, competențe digitale de programare și supervizare a IA.
Sistemele IA pot conduce la creșterea supravegherii în masă a cetățenilor. Aceștia ar putea simți că nu mai au viață privată, autonomie și intimitate deoarece fiecare mișcare va fi urmărită și analizată, pe stradă, la locul de muncă sau acasă (prin roboți casnici și alte tehnologii).
Unele sisteme IA pot fi dezvoltate pentru a fi utilizate în scopuri periculoase sau malefice: roboți asasini, sisteme de manipulare a opiniei publice sau atacuri cibernetice sofisticate.
În plus față de aceste riscuri, unii cercetători sunt de părere că există posibilitatea dezvoltării unei inteligențe artificiale atât de avansate care va depăși inteligența umană, va avea propriile motivații și obiective care nu vor coincide cu cele umane. Conform unei ipoteze, această inteligență artificială ar putea avea un risc existențial pentru specia umană, putând conduce la dispariția omului sau la alte catastrofe globale nerecuperabile.
În concluzie, riscurile inteligenței artificiale nu sunt ușor de trecut cu vederea. Roboții din viitor vor prelua sarcini tot mai avansate și vor activa în domenii importante precum sănătatea, justiția și domeniul bancar. În esență, algoritmii viitorului vor lua decizii care ne vor influența viața. În prezent, dezvoltarea IA implică nu doar programarea, ci și aspecte etice și legale. Riscurile inteligenței artificiale pot fi preîntâmpinate dacă se respectă obligațiile de conformitate ale dezvoltatorilor și utilizatorilor de IA. La nivelul UE, există un proiect de legislație privind reglementarea Inteligenței Artificiale (Actul privind reglementarea Inteligenței Artificiale). Noua lege stabilește, printre altele, obligațiile pe care trebuie să le respecte dezvoltatorii și utilizatorii de IA pentru prevenirea și gestionarea adecvată a riscurilor. Dacă vrei să afli mai multe despre acest subiect, te invit să te înscrii la webinarul despre Inteligență Artificială de pe 15 iunie.