X

Riscuri pentru umanitate: Elon Musk şi o serie de experţi îndeamnă la o pauză în antrenarea unor sisteme de inteligență artificială mai puternice decât GPT-4

Vă invităm să ne urmăriți pe o altă pagină de Facebook, căci cea veche este inutilă fiind obturată de algoritmii lui Zuckerberg. Noua pagină poate fi accesată AICI.

Elon Musk şi un grup de experţi în inteligenţă artificială şi de directori din industrie cer într-o scrisoare deschisă o pauză de şase luni în antrenarea unor sisteme mai puternice decât modelul GPT-4, recent lansat de OpenAI, invocând potenţiale riscuri pentru societate şi umanitate, relatează Reuters. 

Scrisoarea, transmisă de organizaţia non-profit Future of Life Institute (Institutul pentru Viitorul Vieţii), este semnată de peste 1.000 de persoane, între care Elon Musk, directorul general al Stability AI, Emad Mostaque, cercetători de la DeepMind, deţinut de Alphabet, precum şi experţi recunoscuţi din domeniul inteligenţei artificiale precum Yoshua Bengio şi Stuart Russell. Toţi solicită o pauză în dezvoltarea inteligenţei artificiale avansate până când protocoale de siguranţă comune pentru astfel de modele vor fi dezvoltate, implementate şi auditate de experţi independenţi.

“Sistemele puternice de inteligenţă artificială ar trebui să fie dezvoltate numai după ce suntem siguri că efectele lor vor fi pozitive şi că riscurile lor vor fi gestionabile”, se arată în scrisoare. Scrisoarea detaliază riscurile potenţiale pentru societate şi civilizaţie pe care le pun sistemele de inteligenţă artificială competitive – în special perturbări economice şi politice – şi solicită dezvoltatorilor să colaboreze cu factorii de decizie politică în ceea ce priveşte guvernanţa şi autorităţile de reglementare.

Demersul acestor personalităţi vine în contextul în care şi Europol, forţa de poliţie a UE, s-a alăturat luni vocilor – tot mai multe – care exprimă în ultimul timp preocupările de natură etică şi juridică în legătură cu inteligenţa artificială avansată, cum ar fi ChatGPT. Europol a avertizat cu privire la potenţiala utilizare abuzivă a sistemului în încercările de phishing, dezinformare şi criminalitate informatică. Sam Altman, directorul executiv al OpenAI, nu a semnat scrisoarea, a declarat pentru Reuters un purtător de cuvânt al Future of Life Institute.

În schimb, Elon Musk, a cărui companie de automobile Tesla foloseşte AI pentru un sistem de pilot automat, şi-a exprimat deschis îngrijorarea cu privire la AI. De la lansarea sa, anul trecut, ChatGPT al OpenAI, susţinut de Microsoft, a determinat rivalii să accelereze dezvoltarea unor modele similare de limbaj, de mari dimensiuni, iar companiile să integreze modele generative de inteligenţă artificială în produsele lor.

“Scrisoarea nu este perfectă, dar spiritul este corect: trebuie să încetinim până când vom înţelege mai bine ramificaţiile”, a declarat Gary Marcus, profesor emerit la Universitatea din New York. “Pot provoca daune serioase. Marii jucători devin tot mai secretoşi în legătură cu ceea ce fac, ceea ce face ca societăţii să-i fie greu să se apere împotriva unor eventuale daune care s-ar putea materializa”, arată profesorul.

Citiți și: INTELIGENȚA ARTIFICIALĂ (AI) ȘI ARMELE VIITORULUI. DE PUIU GEORGE ALEXANDRU

Reclame

Sistemul vrea să ne reducă la tăcere! Sprijiniți OrtodoxINFO!

Ne străduim să menținem viu acest site și să vă punem la dispoziție informații care să facă lumină în provocările pe care le trăim. Activitatea independentă a OrtodoxINFO funcționează strict cu ajutorul cititorilor, din acest motiv vă cerem acum ajutorul. Ne puteți sprijini printr-o donație bancară sau prin PayPal, completând formularul de mai jos.



Mulțumim celor care ne-au ajutat până acum!

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Back to top button