X

Lumea ca in MINORITY REPORT – Oameni NEVINOVAȚI vor fi condamnați: Se fac mari demersuri pentru implementarea software-ului bazat pe INTELIGENȚĂ ARTIFICIALĂ

de null
https://i. ytimg.com/vi/BYyJPLXGaoA/maxresdefault.jpg

Prinderea infractorilor inainte de a savarsi delictele nu mai este astazi doar un concept de domeniul stiintifico-fantastic. China, orase din SUA si din Marea Britanie fac eforturi pentru a-l transforma in realitate, cu ajutorul inteligentei artificiale.

Vă invităm să ne urmăriți pe o altă pagină de Facebook, căci cea veche este inutilă fiind obturată de algoritmii lui Zuckerberg. Noua pagină poate fi accesată AICI.

Daca in filmul „Raport Special” (Minority Report) din 2002, de prevenirea infractiunilor se ocupau cativa mutanti clarvazatori, autoritatile chineze folosesc in acelasi scop tehnologii precum analiza predictiva si recunoasterea faciala, scrie Futurism.

Una dintre companiile cu care colaboreaza autoritatile chineze este Cloud Walk din Guangzhou, care dezvolta tehnologie de recunoastere faciala. Cloud Walk a dezvoltat un sistem prin care se avalueaza, pe baza datelor, posibilitatea ca o persoana sa comita o infractiune.

De exemplu, cei care viziteaza frecvent magazine de arme sunt etichetati de sistem cu „risc ridicat”.

„Daca o persoana cumpara un cutit de bucatarie este in regula, dar daca aceeasi persoana cumpara mai tarziu un sac si un ciocan, devine suspecta”, a explicat un reprezentant al companiei.

Software-ul avertizeaza autoritatile cand riscul de a comite o infractiune devine ridicat in cazul unui cetatean.

China este locul ideal pentru folosirea unor astfel de tehnologii, mai spune sursa citata. Guvernul detine o arhiva uriasa de date despre cetateni, colectate inclusiv cu ajutorul celor peste 176 de milioane de camere de supraveghere din aceasta tara.

Fara a intrebuinta un volum la fel de generos de date, politia americana foloseste algoritmi pentru a prinde potentiali infractori. In sectii de politie din mai multe orase din SUA este utilizat un software, PredPol, pentru a identifica locul si momentul in care ar putea fi savarsit un delict, precum si potentialii infractori si victime, noteaza Washington Post.

PredPol este dezvoltat de Departamentul de politie din Los Angeles in colaborare cu cateva universitati locale si foloseste algoritmi care prelucreaza date despre infractiuni deja comise, pentru a crea un fel de harta cu posibile focare.

Aceasta metoda a generat dezbateri cu privire la impactul asupra minoritatilor si a grupurilor defavorizate si la implicatiile asupra libertatilor civile.

Si politia din Durham, Marea Britanie, incearca sa creeze o societate de tip Minority Report. Oamenii legii au testat un sistem de inteligenta artificiala, Harm Assessment Risk Tool (Hart), care este folosit pentru a decide daca un suspect ar trebui sau nu retinut. Suspectii pot fi incadrati la risc scazut, mediu sau ridicat, potrivit BBC.

Sistemul a fost testat in 2013, pe baza datelor colectate de politie pe parcursul a cinci ani, iar rezultatele au fost monitorizate in urmatorii doi ani, rezultand ca predictiile au fost corecte in 98% dintre cazurile evaluate cu risc scazut si in 88% dintre cele cu risc ridicat. Acest lucru arata ca sistemul este mai inclinat sa incadreze un suspect la risc mediu sau ridicat decat la risc scazut.

Chiar daca astfel de instrumente de evaluare a riscului pot imbunatati activitatea departamentelor de politie, o investigatie publicata de ProPublica, anul trecut, a demonstrat ca acestea manifesta, deocamdata, la fel ca oamenii, tendinte partinitoare.

Reclame

NOTĂ OrtodoxINFO
Sistemul vrea să ne reducă la tăcere! Sprijiniți OrtodoxINFO!

Ne străduim să menținem viu acest site și să vă punem la dispoziție informații care să facă lumină în provocările pe care le trăim. Activitatea independentă a OrtodoxINFO funcționează strict cu ajutorul cititorilor, din acest motiv vă cerem acum ajutorul. Ne puteți sprijini printr-o donație bancară sau prin PayPal, completând formularul de mai jos.



Mulțumim celor care ne-au ajutat până acum!

2 comentarii

  1. https://www.technologyreview.com/s/604087/the-dark-secret-at-the-heart-of-ai/
    >At the same time, Deep Patient is a bit puzzling. It appears to anticipate the onset of psychiatric disorders like schizophrenia surprisingly well. But since schizophrenia is notoriously difficult for physicians to predict, Dudley wondered how this was possible. He still doesn’t know. The new tool offers no clue as to how it does this. If something like Deep Patient is actually going to help doctors, it will ideally give them the rationale for its prediction, to reassure them that it is accurate and to justify, say, a change in the drugs someone is being prescribed. “We can build these models,” Dudley says ruefully, “but we don’t know how they work.”

Dă-i un răspuns lui Mihnea Popovici Anulează răspunsul

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Back to top button