Studiu de caz: Discriminarea femeilor la angajare prin inteligență artificială

Acest articol pornește de la ipoteza că femeile pot fi discriminate de către algoritmii de inteligență artificială la angajare. Să ne imaginăm, așadar, o situație ipotetică ce poate apărea la orice platformă de recrutare care utilizează un sistem de inteligență artificială autonom. Un sistem de inteligență artificială este autonom atunci când poate opera singur, fără intervenția unui operator uman[1].

Situație ipotetică: O platformă de recrutare conectează persoane interesate de angajare (bărbați și femei) cu potențiali angajatori. Platforma folosește un sistem de inteligență artificială astfel încât persoanele fizice să primească doar anunțuri care corespund experienței, specializării și intereselor. Sistemul de IA prelucrează, în principiu, următoarele date personale: sexul, data nașterii, studii, experiență. Pe baza prelucrării unei cantități mari de date, sistemul IA descoperă că angajatorii sunt mai degrabă interesați să recruteze personal masculin. Fiind programat să se autoperfecționeze constant pentru a transmite partenerilor candidații ideali, softul operează în mod independent o modificare: nu mai transmite anunțuri de recrutare către persoanele de sex feminin.

Așadar, până la descoperirea și remedierea erorii tehnice, persoanele de sex feminin sunt excluse din sistem, nemaiprimind anunțuri de recrutare.

Consecințele juridice pentru companii, site-ul de recrutare și femeile afectate sunt diverse. Companiile ar putea răspunde contravențional pentru discriminare, site-ul de recrutare ar putea răspunde pentru încălcarea RGPD privind prelucrarea legală și echitabilă a datelor utilizatorilor, iar femeile excluse se pot adresa cu acțiuni în justiție împotriva companiilor/platformei de recrutare privind acordarea de daune materiale și/sau morale pentru actul de discriminare/excludere sau pentru nerespectarea RGPD.

Cum se pot evita astfel de situații ce discriminează?

Orice companie, înainte de a integra un sistem de IA, trebuie să efectueze, în temeiul art. 35 din RGPD, o evaluarea prealabilă a riscurilor asupra drepturilor și libertăților fundamentale. În exemplul nostru, dacă platforma de recrutare ar fi descoperit că sistemul IA prezintă riscul de a  exclude femeile (sau alte categorii vulnerabile), ar fi putut să prevină, prin programare, acest risc de discriminare sau excludere.

Ce remedii juridice au persoanele discriminate?

În temeiul principiul transparenței, orice utilizator de internet evaluat de către un sistem IA are mai multe drepturi. În primul rând, utilizatorul are dreptul să cunoască dacă este sau nu evaluat de un sistem IA. Prin urmare, prin notele de informare, companiile trebuie să explice în mod clar dacă există un IA care evaluează, profilează sau ia decizii (art. 13-14 RGPD). În al doilea rând, utilizatorii au dreptul să cunoască logica algoritmului (cum funcționează acesta, ce decizii ia), iar informarea trebuie furnizată într-o formă pe înțelesul unei persoane fără cunoștințe tehnice[2]. Nu în ultimul rând, utilizatorii de internet au dreptul de a contesta o decizie a unui sistem IA ce îi afectează în mod semnificativ (art. 22 RGPD), cum este în situația noastră decizia algoritmului de a exclude femeile.

Un al remediu este acela că persoanele fizice discriminate sau excluse au dreptul de a se adresa instanțelor de judecată pentru despăgubiri (daune materiale/morale).

Are IA și alte riscuri privind discriminarea persoanelor?

Bineînțeles. Studiul de caz poate fi extrapolat la orice categorii de persoane vulnerabile (consumatori, angajați, vârstnici, persoane cu dizabilități, minorități, copii etc), așadar un sistem IA ar trebui evaluat în prealabil, din mai multe unghiuri, pentru conformitatea cu RGPD. Având în vedere că unele sisteme IA sunt autonome și schimbătoare, reevaluarea ar trebui efectuată în mod constant pentru a remedia orice erori ce pot afecta drepturile și libertățile fundamentale.

 

Referințe:

[1] Joanna Bryson, Alan Winfield, Standardizing Ethical Design for Artificial Intelligence and Autonomous Systems, IEE, 2017, p. 117

[2] Andrew D. Selbst, Julia Powles, Meaningful Information and the Right to Explanation (November 27, 2017). International Data Privacy Law, vol. 7(4), 233-242 (2017), p. 7.































AFLĂ MAI MULTE!