„Minority Report” – filmul, transpus încet-încet în realitate: abuzurile asupra minorilor, prevenite de computere

Author:

Vă invităm să ne urmăriți pe o altă pagină de Facebook, căci cea veche este inutilă fiind obturată de algoritmii lui Zuckerberg. Noua pagină poate fi accesată AICI.

Tehnologiile de progonoză explodează. Apariția inițiativei guvernamentale Big Data precum și a uriașei industrii de brokeraj de date nu numai că periclitează protecția datelor dar oferă, totodată, celor care au acces la informații posibilități fără precedent de a ne influența viețile în detaliu.

În ultimii ani, am prezentat pe larg introducerea în poliție a tehnologiilor de prevenție a infracționalității (atât cele publice cât și cele secrete) și care încep să identifice potențialele focare ale crimei, precum și treacă anumiți indivizi pe liste create de inteligența artificială cu scopul de a identifica viitorii infractori.

De asemenea, am vorbit despre trendurile din medicina de prevenție, care s-a aventurat într-un mod controversat în domeniul sănătății mentale, dezvoltând o imagine algoritmică a persoanlor care devin candidați „de succes” pentru o potențială intervenție. Aceste măsuri sunt deseori considerate a fi atât umanitare cât și prudeniale din punct de vedere economic, profesioniștii din medicină și asiguratorii având posibilitatea de a consulta fluxul aproape constant de informații furnizat de Big Data.

…Dar prezicerea abuzurilor de minori?

Probabil că nu ar trebui să ne surprindă că am pornit cu viteză din ce în ce mai mare, dincolo de puterea noastră de a o controla, pe această pantă alunecoasă. Se întâmplă ca, din acest punct de vedere, Marea Britanie să fie unul dintre liderii mondiali la unsul patinelor. Potrivit unui nou reportaj realizat de The Guardian, vedem clar cum o serie de preocupări sociale se pot combina cu „obligația” guvernului de a reduce costurile oriunde este posibil. Rezultatul ar putea fi realmente un scenariu distopic prin care bunăstarea copiilor să fie încredințată calculatoarelor.

„Autoritățile locale – care se confruntă cu spirală a cererii dar și cu o tăiere de fonduri de 800 milioane lire sterline – încep să se întrebe dacă nu cumva Big Data ar putea veni în ajutorul lor pentru a identifica minori vulnerabili.

Ar putea oare un program de calculator să identifice o familie problemă, să identifice o potențială victimă și să prevină apariția unui nou Baby P sau a unei Victoria Climbie?

Cu ani în urmă, asemenea întrebări erau subiecte SF; acum ele s-au transformat în fapte științifice.

Bristol este unul din locurile unde sunt experimentate aceste noi capabilități și care trebuie să se confrunte cu dilemele morale și etice, care vin și ele în același pachet.

Putem constata cum diferite tendințe concomitente ale colectării de date invadează toate laturile vieții omului. Acesta este principalul motiv pentru care Activist Post vorbește despre acest subiect de un deceniu. The Guardian pune în mod special în aceeași ecuație (teoretic, bineînțeles) comportamentul de consumator cu indicarea potențialelor victime ale abuzurilor.

Sistemele de învățare ale mașinăriilor construite pentru a extrage cantități uriașe de date personale au fost îndelung utilizate în economia privată pentru a prezice comportamentul clienților.

Programele informatice estimează dacă vom putea sau nu să ne plătim un credit sau cât risk prezentăm pentru un furnizor de asigurări.

Analiștii care dezvoltă modelele de predictibilitate trebuie să identifice „variabila-țintă”, care indică prezența factorului pe care ei încearcă să-l prevadă.

În cazul protecției minorilor, aceasă variabilă ar pute fi, de exemplu, momentul în care ei întră in sistemul de protecție.

Apoi ei încearcă să identifice acele caracteristici comunce copiilor care au fost preluați deja de sistem. Odată ce a fostidentificat, modelul poate fi folosit pentru a fi aplicat pe baze de date uriașe pentru a identifica alți copii care prezintă aceleași caracteristici.

Deși nu este scopul acestui articol, trebuie să spunem că există tone de documente care atestă că însăși serviciile de protecție a copilului supun copiii riscului de abuz. În consecință, a extrapola datele dintr-un sistem defect cu scopul de a informa lumea întreagă despre cei care ajung în sistem nu pare o idee bună. Vă oferim acest exemplu pentru a vă arăta cum un sistem computerizat și presupus a fi exact poate să greșească folosind date eronate pe baza cărora își fundamentează concluziile.

De fapt, aceasta este exact temerea cea mai marea experților din domeniu care au invocat precauția în aplicarea algoritmilor pe sistemele sociale decât în cazul, de exemplu al datelor brute despre cumpăraturile consumatorilor sau alte masărători asemănătoare și mult mai ușor de monitorizat.  Aproape fiecare aplicație de prognoză are o rată de precizie de cca 80%. Nu ne îndoim că restul de 20% dintre familiile care au fost marcate ca fiind potențial abuzatoare de copii – după care sunt trecute prin iad din această cauză – sunt bucuroase că ajută unei cauze nobile.

Iată ce a aflat The Guardian despre cum copiii sunt „protejați” cu ajutorul tehnologiei.

Sunt incluse istoricul abuzurilor, al maltratării tinerilor și al absenteismului de la școală.

Indicatori și mai surprinzători, precum restanțele la chirie sau datele medicale au fost inițial luate în caclul dar au fost excluse ulterior din modelul matematic. În ambele cazuri – cel din Thurrock, o comunitate din Essex și cel din Hackney, o mică suburbie a Londrei – familiile pot fi considerate de către asistenții sociali drept potețiali candidați pentru programul care vizează familiile cu probleme. Prin această schemă, primăriile primesc fonduri de la guvernul central pentru a ajuta gospodăriile cu probleme pe termen lung, cum ar fi șomajul.

Și, apropos, iată nivelul de transparență la care publicul va trebui să se aștepte dacă acest sistem va fi vreodată implementat complet:

Nu există o viziune la nivel național din partea guvernului asupra sistemelor analitice de prognoză, ceea ce conduce la niveluri de transparență diferite din partea diferitelor autorități. Consiliul local din Thurrock a publicat un studiu de impact pe site-ul său, deși nu este clar dacă asta a făcut rezidenții comunității să fie mai informați despre schemă.

Consiliul local din Hackney a publicat și el o informare în trecut. Cu toate acestea, un studiu de impact: separat, publicat ca răspuns la o solicitare privind dreptul la libera informare, spune: „Persoanele ale căror date sunt analizate nu vor fi informate despre asta întrucât acest fapt ar putea aduce prejudicii asupra intervențiilor pe care acest proiect a fost gândit să le identifice.” Autoritățile din Hackney au refuzat să le dezvăluie celor de la The Guardian ce pachete de date au folosit pentru modelul său de prognoză.

Cei din SUA nu ar trebui nici ei să lase garda jos pe acest subiect. În 2016, PBS (Public Broadcasting Service, un distribuitor american de canale de televiziune, n.tr.) a publicat un lung și foarte documentat articol, intitulat „Poate Big Data să salveze acești copii?” și în care se vede foarte clar cum problema a fost deja tratată de asistența socială în Pennsylvania.

Pentru a nu îi lăsa pe copii să ajungă în grija aistenților sociali, pentru a interveni și a salva familiile înainte ca acestea să se prăbușească, este nevoie de capacitate de a prezice viitorul unui copil. E nevoie de un glob de cristal. Țintelor le-a fost găsită soluția sub forma unui model matematic creatde un economist aflat la celălalt capăt al lumii. Economistul neozeelandez  Rhema Vaithianathan a construit două modele pe claculator care prezic probabilitatea ca un copil să ajungă în grija asistenților maternali.

Unul dintre modele prezice de la naștere șansele ca un copil să fie abuzat sau neglijat și, în final, să intre in grija statului. Algoritmulface asta prin cântărirea mai multor factori, printre care: copilul trăiește împreună cu ambii părinți? A fost înainte familia subiect de investigații privind îngrijirea copiilor? Familia primește ajutor social? Al doilea model folosește informații similare dar se activează numai dacă se primește o sesizare telefonică despre siguranta unui copil. Dar – și asta este foarte important – acest apel telefonic sosește de cele mai multe ori după ce copilul a fost abuzat.

Ce-ar putea fi greșit în asta?

„Cel mai rău scenariu este ca modelul să reflecte prejudecățile sau credințele celui care concepe algoritmul”, spune el. „Este foarte important ca aceste lucruri să se facă în mod transparent astfel încât publicul și experții să-și poată exprima opiniile.”

Dar oare așa se întâmplă?

 

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

X