Regulamentul privind Inteligența Artificială (RIA) a fost publicat în Jurnalul Oficial al Uniunii Europene pe 12 iulie și va intra în vigoare pe 1 august 2024. RIA este prima legislație-cadru din lume cu privire la Inteligența Artificială și urmărește să instituie un cadru sigur și de încredere pentru dezvoltarea, distribuția și utilizarea sistemelor de IA. Regulamentul se va aplica direct în toate statele membre ale Uniunii Europene, inclusiv în România, iar entitățile care dezvoltă, distribuie sau utilizează sisteme de IA trebuie să respecte noile dispoziții, în caz contrar riscă amenzi care pot ajunge până la 7% din cifra de afaceri anuală globală sau 35.000.000 EURO. Legislația nu se va aplica imediat în toate situațiile. Majoritatea firmele și entităților care dezvoltă, distribuie sau utilizează sisteme de IA vor avea la dispoziție un termen de 2 ani pentru a se alinia la noua legislație europeană. Cu toate acestea, unele dispoziții se vor aplica mai devreme (cele privitoare la sistemele IA cu risc inacceptabil și la sistemele IA cu uz general).
Regulamentul privind Inteligența Artificială. Patru niveluri de risc
Regulamentul privind Inteligența Artificială utilizează o abordare bazată pe risc, clasificând sistemele de IA în patru categorii.
A. Risc inacceptabil: Actul privind IA interzice un set limitat de sisteme IA contrare valorilor și drepturilor fundamentale ale UE.
Exemple:
- Scorul social: Sisteme de IA care clasifică sau evaluează indivizii pe baza comportamentului lor social.
- Exploatarea vulnerabilității oamenilor: Sisteme de IA care profită de vulnerabilitățile emoționale, psihice sau fizice ale indivizilor pentru a-i influența sau manipula.
- Utilizarea tehnicilor subliminale: Sisteme de IA care folosesc stimuli subliminali pentru a influența comportamentul oamenilor fără ca aceștia să fie conștienți.
- Recunoașterea emoțiilor la locul de muncă și în instituțiile de învățământ: Sisteme de IA care detectează și analizează emoțiile angajaților sau studenților, putând afecta intimitatea și bunăstarea acestora.
- Utilizarea identificării biometrice în timp real la distanță în locuri publice în scopuri de aplicare a legii: Sisteme de IA care folosesc identificarea biometrică, cum ar fi recunoașterea facială, pentru a monitoriza și identifica persoane în timp real în spații publice, ceea ce poate duce la supraveghere excesivă și încălcarea drepturilor la viață privată.

Implementează GDPR și evită amenzile!
B. Risc ridicat: Actul privind IA definește sistemele de IA ca fiind cu risc ridicat atunci când acestea pot afecta siguranța indivizilor sau drepturile lor fundamentale, ceea ce justifică supunerea dezvoltării lor unor cerințe sporite (evaluări de conformitate, documentație tehnică, mecanisme de gestionare a riscurilor). Aceste sisteme sunt enumerate în anexa I pentru sistemele integrate în produse care sunt deja supuse supravegherii pieței (dispozitive medicale, jucării, vehicule etc.) și în anexa III pentru sistemele utilizate în opt domenii specifice.
Exemple:
- Identificarea biometrică la distanță
- IA utilizată în gestionarea și exploatarea infrastructurii digitale critice, a traficului rutier sau a aprovizionării cu apă, gaz, încălzire ori energie electrică.
- IA în educație și formare și în ocuparea forței de muncă
- IA în aplicarea legii
- IA în migrațiune, azil și gestionarea controlului la frontiere
- IA în administrarea justiției și procesele democratice
C. Risc specific de transparență: Sistemele IA din această categorie au obligații specifice de transparență pentru a preveni inducerea în eroare a utilizatorilor.
D. Risc minim: Pentru majoritatea sistemelor de IA utilizate în prezent în UE, RIA nu impune obligații specifice.
Sistemele IA generative în Regulamentul privind Inteligența Artificială
Actul privind IA reglementează modelele IA generative, precum modelele lingvistice mari (LLM) furnizate de companii ca Mistral AI sau OpenAI. Pentru aceste modele, sunt prevăzute mai multe niveluri de obligații, de la măsuri minime de transparență și documentare (articolul 53) până la evaluări aprofundate și implementarea măsurilor de reducere a riscurilor sistemice pe care unele dintre aceste modele le-ar putea implica, în special din cauza puterii lor: riscuri de accidente majore, utilizarea abuzivă pentru a lansa atacuri cibernetice, răspândirea prejudecăților dăunătoare (de exemplu, etnie sau gen) și riscurile de discriminare cu privire la anumite persoane etc.
Te-ar putea interesa și:
Cine va supraveghea respectarea regulilor?
În fiecare stat membru al UE, inclusiv în România, vor funcționa una sau mai multe autorități de supraveghere independente. Aceste autorități de supraveghere vor desfășura investigații privind respectarea legislației IA și vor putea aplica amenzi și alte măsuri corective (restricționarea sau interzicerea utilizării IA, retragerea de pe piață a IA).
Ce reguli trebuie să respecte, în concret, firmele?
Entitățile care dezvoltă, pun în circulație, distribuie sau utilizează sisteme de IA trebuie să respecte următoarele obligații stabilite de Actul privind IA. Pentru sistemele IA cu risc ridicat, acestea trebuie să efectueze o evaluare a conformității pentru a se asigura că sistemul IA îndeplinește cerințele stabilite de regulament și să obțină certificările necesare de la organismele notificate desemnate. De asemenea, trebuie să creeze și să mențină o documentație tehnică completă care să demonstreze conformitatea sistemului cu cerințele regulamentului. În cazul sistemelor de IA cu risc ridicat, va fi necesară implementarea unui sistem de management al riscurilor. Va fi necesară informarea utilizatorilor cu privire la modul de funcționare al sistemului IA și riscurile acestuia într-o modalitate clară și ușor de înțeles pentru utilizatori. Entitățile trebuie să stabilească proceduri pentru monitorizarea performanței sistemului IA ulterior punerii pe piață și să raporteze incidentele și problemele de conformitate către autoritățile de supraveghere competente.
Pentru sisteme IA cu risc specific de transparență, entitățile trebuie să implementeze obligațiile specifice de transparență pentru a preveni manipularea sau inducerea în eroare a utilizatorilor și să informeze utilizatorii atunci când interacționează cu un sistem IA.
Pentru modelele IA cu uz general, entitățile trebuie să respecte măsurile minime de transparență și documentație, să realizeze o evaluare aprofundată a modelului IA și să implementeze măsuri de atenuare a riscurilor sistemice, mai ales în cazul modelelor puternice care prezintă riscuri semnificative, cum ar fi accidente majore, atacuri cibernetice sau prejudecăți dăunătoare.
Dacă vrei să afli mai multe despre reglementarea Inteligenței Artificiale, înscrie-te la webinar!
Surse: eur-lex, CNIL
