La data de 17 decembrie 2024, Comitetul European pentru Protecția Datelor (CEPD) a emis o opinie privind prelucrarea datelor cu caracter personal în contextul modelelor de Inteligență Artificială (IA), atât în faza de dezvoltare a acestor modele, cât și în faza de implementare. Această opinie interesează companiile care dezvoltă sau implementează IA în calitatea lor de operatori de date cu caracter personal. Acest articol își propune să prezinte cele mai importante aspecte ale acestei opinii, alături de opiniile personale ale autoarei. Opinia CEDP nu acoperă în integralitate problematica protecției datelor cu caracter personal în contextul modelelor IA, ci doar anumite aspecte precum anonimizarea sistemelor IA, antrenarea modelelor IA cu date personale fără consimțământul persoanei vizate și consecințele juridice ale lansării unor sisteme cu încălcarea legislației privind protecția datelor cu caracter personal.
Ce este un model IA?
Înainte de a explica cum trebuie prelucrate datele cu caracter personal în contextul modelelor IA, este important să definim conceptul de model IA. Este esențial să nu confundăm inteligența artificială cu alte tehnologii, de exemplu cu softurile tradiționale sau softurile care au un simplu rol de automatizare.
Conform Comitetului, un model IA trebuie deosebit de un sistem IA. Potrivit Actului privind Inteligența Artificială, un sistem IA este un sistem bazat pe o mașină care funcționează cu o oarecare autonomie (parțială sau totală), care poate prezenta adaptabilitate după implementare și care conduce către rezultate precum previziuni, conținut, recomandări sau decizii care pot influența mediile fizice sau virtuale[1]. Spre deosebire de sistemul IA, un model IA reprezintă o componentă a unui sistem IA, acea „componentă inteligentă” formată din algoritmi antrenați pe seturi de date, capabili să învețe tipare și relații și să ofere predicții, recomandări sau conținut. În sine, modelul IA nu cuprinde tot ce este necesar pentru a putea fi utilizat într-un mod optim. În schimb, un sistem IA încorporează modelul IA, dar și alte componente – de la infrastructură și interfețe cu utilizatorul, până la mecanisme de securitate și administrare. Astfel, modelul IA oferă „gândirea” (logica și învățarea), pe când sistemul IA asigură mediul funcțional și operațional necesar pentru implementarea și exploatarea acestuia. Sistemele IA pot fi atât software, cât și hardware și pot fi integrate și în roboți. De exemplu, într-un sistem de recunoaștere facială, modelul IA este algoritmul antrenat să identifice trăsături faciale, în timp ce sistemul IA include atât algoritmul (modelul IA), cât și alte elemente cum ar fi componente hardware (e.g., camere de supraveghere) sau interfața cu utilizatorii.
De exemplu, într-o aplicație de recunoaștere facială, modelul IA este algoritmul antrenat să identifice trăsături faciale pe baza unui set de imagini și să facă potrivirea cu identități cunoscute. Sistemul IA, în schimb, include și componenta hardware (camerele de supraveghere), software-ul care preia imaginile în timp real, interfața cu utilizatorii (de exemplu, un panou de comandă), precum și politicile de securitate și confidențialitate. Astfel, modelul asigură partea de „învățare” și decizie, iar sistemul cuprinde întreaga „infrastructură” prin care decizia este pusă în practică.
De ce trebuie respectat GDPR în contextul IA?
Regulamentul General privind Protecția Datelor (GDPR) se aplică prelucrării datelor cu caracter personal în contextul modelelor IA. Aceste prelucrări pot include practici precum antrenarea modelelor IA cu date cu caracter personal sau generarea de rezultate care conțin date cu caracter personal. Atât timp cât datele nu au fost complet anonimizate[2], GDPR se va aplica. Drept urmare, o prelucrare nelegală a datelor în contextul modelelor IA poate conduce către investigații, sancțiuni și măsuri corective. Companiile care dezvoltă, implementează și utilizează modelele IA fără respectarea GDPR pot fi sancționate de către autorități cu amenzi sau pot primi măsuri corective precum încetarea prelucrării de date, reantrenarea sistemului IA, ștergerea datelor utilizate și, în cazuri extreme și doar dacă măsura este proporțională, ștergerea întregului model IA dezvoltat prin încălcarea legislației privind protecția datelor[3]. Prin urmare, având în vedere aceste riscuri, este important ca entitățile care dezvoltă, implementează și utilizează modele IA să respecte legislația privind protecția datelor cu caracter personal.
Când este un model IA anonim?
CEPD a clarificat circumstanțele în care un model IA, care a fost antrenat cu date cu caracter personal, poate fi considerat anonim. Comitetul a explicat că un model IA poate fi considerat anonim atunci când, după ce au fost aplicate măsurile de anonimizare, datele cu caracter personal utilizate pentru antrenare nu pot fi extrase utilizând mijloace rezonabile, iar output-ul generat de modelul IA nu se referă la date cu caracter personal utilizate pentru antrenarea modelului. Cerința mijloacelor „rezonabile” este importantă. CEPD nu cere o anonimizare absolută, ci o anonimizare rezonabilă, în cadrul căreia probabilitatea de extragere sau de reidentificare este cât mai mică[4]. Comitetul explică că această probabilitatea de extragere sau de reidentificare trebuie evaluată ținând cont de mai multe criterii printre care[5] proiectarea modelului (e.g., sursele utilizate pentru antrenare, reducerea la minimum a datelor, utilizarea unor tehnologii de protecție a intimității, etc), rezistența modelului IA la atacuri, măsuri care să prevină extracția de date sau generarea de date, documentația GDPR a operatorului (e.g., evidența operațiunilor de prelucrare, evaluările de impact). Interesul operatorului ca un model IA să fie anonim este evident: dacă modelul este anonim atunci GDPR nu se va aplica. GDPR nu se aplică datelor anonimizate și, drept urmare, nici modelelor IA considerate anonime. Practic, un operator care proclamă că un sistem IA este anonim va trebui să demonstreze că probabilitatea de extragere a datelor sau de generare de date cu caracter personal prin output-uri este redusă. În practică, acest lucru se va realiza prin documentarea analizei anonimizării modelului IA cu luarea în calcul a elementelor indicate de EPPB – modul de proiectare al modelului, măsurile de anonimizare, etc[6].
Te-ar putea interesa și:
Folosirea interesul legitim drept temei legal
Comitetul explică că antrenarea sistemelor IA cu datele personale ale persoanelor fizice se poate efectua chiar dacă persoanele nu consimt la această antrenare. Cu alte cuvinte, dezvoltatorii de sisteme IA pot folosi date cu caracter personal pentru antrenare dacă au un interes legitim să facă acest lucru[7], iar acest interes legitim nu depășește drepturile și interesele persoanelor vizate. CEPD recomandă o analiză serioasă a existenței interesului legitim și o efectuare și documentare riguroasă a testului de echilibrare a interesului legitim. Testul de echilibrare a interesului legitim este testul care analizează dacă interesul legitim este mai important decât drepturile și interesele persoanelor vizate. Acest test trebuie efectuat în context, iar operatorii trebuie să ia în calcul aspecte precum efectele nedorite ale prelucrării asupra persoanelor vizate, îngrădirea unor drepturi fundamentale, așteptările rezonabile ale acestora, felul datelor (dacă sunt date care prezintă importanță mai mare, cum sunt, de exemplu, datele financiare), măsurile de atenuare a riscurilor, etc[8].
Ce se întâmplă cu modelele IA dezvoltate printr-o prelucrare nelegală a datelor cu caracter personal?
Să presupunem că un model IA a fost dezvoltat fără a se respecta legislația privind protecția datelor cu caracter personal. Ce se întâmplă într-o asemenea situație? Care sunt consecințele și riscurile? CEPD prezintă trei scenarii.
Scenariul #1. Model IA dezvoltat printr-o prelucrare nelegală a datelor de către un operator, iar acest operator prelucrează datele ulterior dezvoltării, de exemplu în etapa implementării
CEPD explică faptul că, într-un asemenea scenariu, măsuri corective impuse de autoritățile de supraveghere asupra prelucrării inițiale a datelor vor avea, în principiu, impact și asupra prelucrării ulterioare. De exemplu, dacă autoritatea de supraveghere impune ștergerea datelor utilizate pentru antrenare, aceste date nu mai pot fi ulterior prelucrate în etapa implementării.
Scenariul #2. Model IA dezvoltat printr-o prelucrare nelegală a datelor de către un operator, datele cu caracter personal sunt reținute în model, iar modelul este implementat de către alt operator
Acest scenariu intervine atunci când un operator dezvoltă modelul, iar alt operator achiziționează sau folosește modelul IA pentru a-l utiliza. CEPD explică că ambii operatori, atât cel din etapa dezvoltării, cât și cel din etapa utilizării, trebuie să se asigure că prelucrarea datelor este legală. CEPD subliniază că al doilea operator, cel care cumpără sau folosește modelul IA, este obligat, conform principiul responsabilității, să verifice că modelul IA a fost dezvoltat fără încălcarea legislației privind protecția datelor cu caracter personal.
Scenariul #3. Model IA dezvoltat printr-o prelucrare nelegală a datelor, dar modelul este anonimizat înainte de utilizare
CEPD explică faptul că, într-o asemenea situație, atât timp cât modelul a fost anonimizat, GDPR nu se va aplica în etapa de utilizare a modelului. Cu toate acestea, operatorul care a dezvoltat modelul prin prelucrarea nelegală a unor date cu caracter personal, rămâne responsabil pentru acea prelucrare nelegală de date, putând fi sancționat de către autoritățile de supraveghere. Cu alte cuvinte, dacă dezvolți un sistem IA utilizând ilegal date cu caracter personal și apoi îl anonimizezi, nu vei scăpa de răspundere legală pentru prelucrarea ilegală. Acest punct de vedere urmărește să prevină situațiile în care dezvoltatorii de modele IA vor prelucra ilegal date cu caracter personal deoarece vor considera că vor scăpa de orice răspundere după ce modelul a fost anonimizat.
Concluzie
Deși această opinie nu tratează în integralitate interacțiunea dintre protecția datelor cu caracter personal și inteligență artificială, ea reprezintă un semnal de alarmă pentru dezvoltatorii, implementatorii și alți actori implicați care vor trebui să respecte cerințele GDPR. Sancțiunile care pot fi aplicate de autorități ajung până la 4% din cifra de afaceri anuală globală. CEPD explică, în premieră, faptul că, în situația unei prelucrări nelegale a datelor cu caracter personal în contextul sistemelor IA, autoritățile de supraveghere pot ordona ștergerea datelor utilizate și, în cazuri extreme, chiar ștergerea întregului model IA. Acestea sunt sancțiuni extrem de aspre pentru dezvoltatorii și utilizatorii de IA și, pentru a preveni astfel de scenarii, este recomandat ca acești actori implicați în lanțul valoric să asigure conformitatea cu GDPR în toate fazele unui model IA: proiectare, dezvoltare, implementare și pe întreaga durata de viață a modelelor și sistemelor IA. Normele GDPR se vor aplica simultan cu obligațiile dezvoltatorilor și implementatorilor de sisteme IA cu risc conform Actului privind Inteligența Artificială.
–>> Dacă vrei să afli mai multe despre aplicarea Actului privind Inteligența Artificială, atunci te invit să te înscrii la webinarul din ianuarie.
Referințe:
[1] Definiția completă a sistemelor IA din Regulamentul 1689/2024 este următoarea: „un sistem bazat pe o mașină care este conceput să funcționeze cu diferite niveluri de autonomie și care poate prezenta adaptabilitate după implementare, și care, urmărind obiective explicite sau implicite, deduce, din datele de intrare pe care le primește, modul de generare a unor rezultate precum previziuni, conținut, recomandări sau decizii care pot influența mediile fizice sau virtuale;” (art. 3 pct. 1)
[2] Anonimizarea este, de cele mai multe ori, iluzorie deoarece persoanele pot fi, în majoritatea cazurilor, reidentificate.
[3] CEPD, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models, 17 decembrie 2024, Bruxeles, p. 32.
[4] Idem, p. 14 și urm.
[5] Idem, p. 17 și urm.
[6] Lista completă a elementelor care trebuie luate în calcul pentru analiza anonimizării modelului IA se regăsește în opinia CEPD la p. 16-18.
[7] Deși CEPD nu tratează acest aspect, interesul legitim nu poate fi utilizat pentru categoriile speciale de date de la art. 9 GDPR, respectiv date privind sănătatea, date biometrice, opinii politice, credințe religioase, date privind viața sexuală sau identitatea sexuală, date genetice, etc.
[8] CEPD, op. cit., p. 24-30.