În mai 2017, cercetători de la Google Brain au anunțat crearea AutoML, o inteligență artificială capabilă să genereze propriile AI-uri. Recent, aceștia au decis să prezinte AutoML, cea mai mare provocare până în prezent, după ce AI a construit un „copil” care depășește toate așteptările. Cercetătorii Google au automatizat proiectarea modelelor de învățare automată, utilizând o abordare numită învățare de consolidare.
AutoML acționează ca o rețea neurală a controlerului care dezvoltă o rețea AI pentru o sarcină. Pentru acest produs special AI, pe care cercetătorii l-au numit NASNet, sarcina a fost recunoașterea obiectelor – persoane, mașini, semafoare, genți de mână etc.- într-un video, în timp real. AutoML ar evalua performanța NASNet și ar folosi acele informații pentru a-și îmbunătăți AI creată, repetând de câteva ori procesul. Când au fost testate clasificările imaginilor și seturile de date de detectare a obiectelor, NASNet a depășit toate celelalte sisteme create de om.
Potrivit cercetătorilor, NASNet a avut o performanță de a găsi și valida imaginile de 82,7%. Aceasta este cu 1,2% mai bună decât rezultatele anterioare, iar sistemul este, de asemenea, cu 4% mai eficient, cu o medie de precizie de 43,1%.
Învățarea în mașină este ceea ce oferă multe sisteme inteligente, cu o capacitate de a îndeplini sarcini specifice. Deși conceptul din spate este destul de simplu: un algoritm învață după ce e alimentat cu o tonă de date. Prin automatizarea procesului de creare a sistemelor AI exacte și eficiente, o AI care poate construi o altă inteligență artificială își asumă sarcina.
Cercetătorii Google recunosc că NASNet s-ar putea dovedi util pentru o gamă largă de aplicații și mulți știu asta. Însă, dacă scapă de sub control, aceste arme ale viitorului ar putea distruge, mai mult decât să creeze. Marile compani și multinaționale știu asta și iau măsuri. Amazon, Facebook, Apple și alții sunt membrii ai Parteneriatului pentru AI în beneficiul oamenilor și al societății, o organizație axată pe dezvoltarea responsabilă a inteligențelor artificiale.
Institutul de Ingineri Electrotehnici și Electronici (IEE) a propus standarde etice pentru AI, iar DeepMind, o companie de cercetare deținută de compania mamă Alphabet Google, a anunțat recent crearea unui grup axat pe implicațiile morale și etice ale inteligenței artificiale. În plus, diverse guverne lucrează la reglementări pentru a împiedica utilizarea ei în scopuri periculoase, ca armele atomice.
?