Cercetătorii sunt de părere că algoritmii de învățare automată, nici pe departe făcând lumea mai echitabilă, acum imită inegalitatea societății discriminând împotriva femeilor și minorităților etnice. […]
Citește mai mult: FaceApp renunță la filtru ‘rasist’ în urma indignării publice (Fotografii)
Sharkey a citat un exemplu de cercetare de la Universitatea din Boston în care o IA era programată să citească Google News. Când se întreba în cadrul unui joc de asociere de cuvinte, “Bărbatul este față de programator ceea ce femeie este față de x”, computerul a răspuns “casnică”. […]
Expertă în date spitalicești Maxine Mackintosh consideră că bazele de date “imperfecte” bazate pe informații istorice alterează reacțiile IA. Asta, potrivit dumneaei, s-a observat în Spitalul St. George din Londra unde pre-testările aplicațiilor pentru facultatea de medicină au revelat că IA a spitalului discrimina împotriva femeilor, precum și a minorităților etnice.
Citește mai mult: Inteligența artificială prezintă un risc mai vast decât Coreea de N. – Elon Musk
“Aceste date sunt de fapt o oglindă socială – reflectă prejudecățile și inegalitățile pe care le aven în societate”, a zis pentru BBC. “Dacă dorim să facem pași către schimbarea acestui fapt nu se pot folosi informații istorice.”
Chestiunea IA zbătându-se cu diversitatea rasială a fost evidențiată recent.
https://twitter.com/geraldmellor/status/712880710328139776
https://twitter.com/nke_ise/status/897756900753891328