Nebunia inteligenței artificiale: Boții IA dezvoltați pentru EVALUAREA OAMENILOR devin RASIȘTI și SEXIȘTI

Author:

Vă invităm să ne urmăriți pe o altă pagină de Facebook, căci cea veche este inutilă fiind obturată de algoritmii lui Zuckerberg. Noua pagină poate fi accesată AICI.

Cercetătorii sunt de părere că algoritmii de învățare automată, nici pe departe făcând lumea mai echitabilă, acum imită inegalitatea societății discriminând împotriva femeilor și minorităților etnice. […]

Citește mai mult: FaceApp renunță la filtru ‘rasist’ în urma indignării publice (Fotografii)

Sharkey a citat un exemplu de cercetare de la Universitatea din Boston în care o IA era programată să citească Google News. Când se întreba în cadrul unui joc de asociere de cuvinte, “Bărbatul este față de programator ceea ce femeie este față de x”, computerul a răspuns “casnică”. […]

Citește mai mult: ‘Minortity Report’ devine realitate: China plănuiește să utilizeze IA pentru a încătușa suspecți înainte de a comite crima

Expertă în date spitalicești Maxine Mackintosh consideră că bazele de date “imperfecte” bazate pe informații istorice alterează reacțiile IA. Asta, potrivit dumneaei, s-a observat în Spitalul St. George din Londra unde pre-testările aplicațiilor pentru facultatea de medicină au revelat că IA a spitalului discrimina împotriva femeilor, precum și a minorităților etnice.

Citește mai mult: Inteligența artificială prezintă un risc mai vast decât Coreea de N. – Elon Musk

“Aceste date sunt de fapt o oglindă socială – reflectă prejudecățile și inegalitățile pe care le aven în societate”, a zis pentru BBC. “Dacă dorim să facem pași către schimbarea acestui fapt nu se pot folosi informații istorice.”

Chestiunea IA zbătându-se cu diversitatea rasială a fost evidențiată recent.

https://twitter.com/geraldmellor/status/712880710328139776

https://twitter.com/nke_ise/status/897756900753891328

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

X