futuristic-artificial-intelligence-face-technology-background_1017-18295

MATRIX 2.0. Despre cum ne influențează algoritmii alegerile și viața

Motto: „I don’t like the idea that I’m not in control of my life.”
– Neo, Trilogia Matrix

 

Internetul era până nu demult sălbatic, iar drepturile omului erau o ficțiune. Între timp legislația a impus noi standarde în materie de protecție a consumatorilor care cumpără online și a datelor persoanelor fizice. Cu toate că legislația există, ea este deseori încălcată. Acest articol își propune să răspundă la o întrebare esențială: este legislația suficient de puternică pentru a proteja partea mai slabă care oferă datele (consumatorul, persoana fizică etc) în raport cu partea mai puternică, cea care deține datele?

Potrivit theverge.com, cu ocazia audierii în fața Congresului SUA, Mark Zukerberg, co-fondatorul a fost întrebat cum poate menține platforma Facebook gratuită, iar răspunsul a devenit celebru, fiind postat sub formă de meme-uri și distribuit pe internet: „Senator, we run ads”. Printr-o profilare excesivă a utilizatorului, acele reclame se pliază pe interesele, proferințele, starea de spirit și obiceiurile utilizatorilor pentru a-i determina să cumpere. Se dorește introducerea cardului cât mai repede și cât mai des. De exemplu, recent, Instagram a modificat butonul de verificare a notificărilor cu un buton care duce către magazine online.

Autoritatea de protectie a consumatorilor din Norvegia a publicat în 2018 un raport prin care arată cum companiile de tehnologie folosesc designul pentru a descuraja utilizatorii să își exercite drepturile în materie de protecție a datelor[1].

Tot în 2018, Autoritatea Europeană pentru Protecția Datelor a publicat o opinie cu privire la manipularea online prin care a arătat cum prelucrarea neconformă a datelor poate conduce, printre altele, către influențarea deciziilor consumatorului și, în cazuri extreme, către influențarea voturilor în campaniile electorale[2]. Aceasta problemă a fost readusă în discuție și anul acesta, în 2020, de către CEPD care a subiliniat faptul că țintirea utilizatorilor profilați le poate influența libertatea de a alege atunci când cumpără online sau le poate influența preferințele electorale.[3]

Într-o lucrare[4] se arată cum Facebook a creat profiluri și despre persoanele care nu au avut niciodată un cont de Facebook prin pluginurile instalate pe site-uri (de exemplu, butonul de like). Concluzia acestei lucrări este că Facebook urmărește toți utilizatorii de internet, indiferent dacă au sau nu un cont de Facebook.

„Algoritmii de învățare automatizată sunt proiectați să prelucreze volume mari de informații și să realizeze corelații care permit organizațiilor să constituie profiluri foarte cuprinzătoare și intime ale persoanelor”[5], iar „adesea, publicarea mai multor tipuri de informații personale în diverse contexte, permit profilarea unei persoane și crearea unei anumite imagini care poate să fie eronată sau chiar frauduloasă”[6].

De la profilare până la manipulare e doar un pas. AEPD remarcă faptul că Big Data și științele comportamentale pot crea profiluri de personalitate intime[7]. Autoritatea de protecție a datelor din Spania a subliniat faptul că dezvoltarea AI poate conduce către construirea unor profiluri umane care să fie folosite în scopuri de marketing sau în scopuri electorale [8].

Autoritatea pentru Protecția Consumatorilor din Norvegia scria că serviciile digitale generează profit din acumularea datelor personale și au stimulente puternice pentru a încuraja utilizatorii să ofere cât mai multe date personale. Dacă serviciul digital colectează date personale, iar utilizatorul nu cunoaște consecințele acestei colectări de date, suntem în prezența unui dezechilibru de putere unde serviciul digital deține o putere considerabilă asupra utilizatorului. [9]

În 2020, Comisia Europeană a publicat două documente cu privire la conturarea viitorului digital al Europei. Primul se numește „Strategia privind datele” și al doilea „Strategia privind inteligența artificială”.[10]

În aceste documente se arată că deși prelucrarea datelor și inteligența artificială prezintă riscuri pentru drepturile și libertățile fundamentale ale omului, ar trebui creat un spațiu comun al datelor deorece ar fi singura șansă ca Europa să facă față concurenței globale pentru AI.

Concluzia pe care o extragem din informațiile prezentate mai sus este că drepturile și libertățile fundamentale ale omului sunt în pericol. Sigur că la o primă vedere, nu pare să ne afecteze prea tare, dar misiunea legii este să protejeze toți oamenii, inclusiv categoriile vulnerabile: copii, bătrâni etc. Oricum multe lucrări vorbesc despre o manipulare subtilă ca în literatura lui Kafka sau Orwell[11]. Și poate ar trebui să privim lucrurile și dintr-o perspectivă a viitorului, mai ales în contextul în care AI-ul e abia la început și nimeni nu poate ști cum va arată societatea digitală a viitorului.

În august mă întrebam dacă GDPR ar putea fi scutul nostru împotriva inteligenței artificiale. Ca să pot răspunde la această întrebare am citit mii de pagini (documentele expuse mai sus sunt doar câteva). După ce am citit aproape tot despre AI și drepturile omului, am recitit încă o dată Regulamentul cu atenție.

Și răspunsul este nu. GDPR, în forma actuală, oferă prea puține mecanisme și garanții omului. Sunt prea multe limitări și excepții. Oricum, stipularea drepturilor este un lucru, dar exercitarea lor este altă discuție. GDPR ar trebui să protejeze partea mai slabă în raport cu partea mai puternică, așa cum se întâmplă în dreptul consumatorului sau dreptul muncii. Dar azi, oamenii nu au posibilități reale să își exercite drepturile în raport cu cei care dețin puterea prin prelucrarea datelor. Au pierdut de multă vreme controlul. Consultanța costă, ONG-uri pentru drepturile omului sunt puține și sunt lipsite de resurse. Autoritățile de supraveghere nu au resurse umane, iar instanțele de judecată sunt la început în înțelegerea și aplicarea GDPR. Potrivit raportului pe anul 2019 publicat de Autoritatea de supraveghere din Romania (ANSPDCP) în cursul anului 2019 au fost date pentru încălcarea GDPR în România amenzi în cuantum total de 2.339.291, 75 lei.

Așa cum s-a subiliniat în doctrină, „indivizii ale căror drepturi au fost încălcate se pot afla într-o poziţie foarte slabă chiar şi pentru a cunoaşte aceasta şi cu atât mai puţin pentru a cunoaşte cum şi împotriva cui să acţioneze”[12]. Alți autori au afirmat că persoanele fizice sunt, în cele mai multe cazuri, lipsiți de resurse și de expertiză pentru a-și exercita drepturile.[13]

Am observat și cum anumiți autori tind să interpreze Regulamentul în favoarea celor puternici și nu în favoarea persoanelor fizice acolo unde legea lasă loc de interpretări.

Cred că dreptul este, în acest moment, depășit de tehnologie și probabil se vor scrie în perioada următoare multe basme și balade despre drepturile omului. Cei care au putere doresc și mai multă putere și au tendința naturală de a abuza de ea. În documentarul „Dilema Socială” (Netflix, 2020) se arată cum giganții IT (Facebook, Google, Pinterest, Youtube și alții) concurează pentru atenția utilizatorului și implementează diverse strategii de design pentru a ține oamenii intens conectați la dispozitive și pentru a-i determina să furnizeze cât mai multe date personale. Sartre spunea că omul este cel care se construiește pe sine, proiectându-și viitorul conform propriilor alegeri. Astăzi, tehnologia pătrunde subtil în psihologia omului cu șanse reale de a-i influența alegerile libere. Dacă alegerile noastre pot fi influențate de algoritmi, ce resurse avem la îndemână pentru a ne proiecta liberi viitorul așa cum făceam în vremurile fără inteligență artificială? Ce șanse mai avem azi pentru a fi în control asupra vieții noastre?

O colegă mi-a adresat o întrebare interesantă: care va fi rolul omului într-o lume a roboților? Cred că rolul omului ar trebui să fie să încerce să controleze algoritmii pentru a nu fi un obiect al manipulării.

Drepturile omului ar putea fi o soluție. Însă ele rămân o simplă iluzie dacă nu sunt exercitate. E clar că la acest moment GDPR nu a făcut aproape nimic concret pentru oameni și mă întreb dacă mai are rost să continuăm când misiunea edificării unei adevărate culturi a protecției datelor pare că a eșuat.[14]

 

***

SURSE:

 

[1] FORBRUKERRADET, Deceived by Design. How tech companies use dark patterns to discourage us from exercising our rights to privacy.

[2] EDPS, Opinion on online manipulation and personal data, Opinion 3/2018.

[3] EDPB, Guidelines 8/2020 on the targeting of social media users, Version 1.0, Version for public consultation, 2 september 2020, p. 5.

[4] Roosendaal, Arnold, Facebook Tracks and Traces Everyone: Like This! (November 30, 2010). Tilburg Law School Legal Studies Research Paper Series No. 03/2011, p. 6-7.

[5] GRUPUL DE LUCRU „ARTICOLUL 29” PENTRU PROTECȚIA DATELOR, Orientări privind procesul decizional individual automatizat și crearea de profiluri în sensul Regulamentului (UE) 2016/679, Adoptate la 3 octombrie 2017 astfel cum au fost revizuite și adoptate ultima dată la 6 februarie 2018, p. 13.

[6] Ancuţa Gianina OPRE, Simona ȘANDRU, Dreptul de a fi uitat pe internet, mijloc de combatere a discriminării în M. Tomescu (ed.), „Nediscriminare și egalitate de șanse în societatea contemporană”, Editura Pro Universitaria, București, 2015, p. 288.

[7] EDPS, Opinion on online manipulation and personal data, Opinion 3/2018, p. 8.

[8] Agencia Española de Protección de Datos, RGPD compliance of processings that embed Artificial Intelligence. An introduction, 2020, p. 6.

[9] FORBRUKERRADET, Deceived by Design. How tech companies use dark patterns to discourage us from exercising our rights to privacy, 2018, p. 6.

[10] SURSA

[11] A se vedea, de exemplu, Daniel J. Solove, The digital person. Technology and Privacy in the Information Age, New York University Press, 2004.

[12] GILL PEDRO Eduardo, ZEMSKOVA Anna, GROUSSOT Xavier, Spre principii generale 2.0: aplicarea principiilor generale ale dreptului Uniunii Europene în societatea digital, Revista Romana de Drept European (Comunitar) nr. 4 din 2019, versiune electronică oferită de platforma sintact.ro. Versiunea digitală a revistei nu conține numerotarea paginilor.

[13] Edwards, Lilian and Veale, Michael, Slave to the Algorithm? Why a ‘Right to an Explanation’ Is Probably Not the Remedy You Are Looking For (May 23, 2017). 16 Duke Law & Technology Review 18 (2017), p. 67.

[14] Dataprotection.ro, prima pagina.

Share this post

Share on facebook
Share on twitter
Share on linkedin
Share on email
Ruxandra Sava
„Aș putea afirma că mă aflu în topul specialiștilor GDPR din România, dar prefer să las munca mea să vorbească de la sine.” Ruxandra Sava este avocat în Baroul București și specialist în protecția datelor acreditat de IAPP, deținând standardul CIPP/e. Ruxandra activează în domeniul dreptului tehnologiei și al protecției datelor cu caracter personal. Contact: ruxandra.sava@legalup.ro