O echipa de cercetare a demonstrat ca supraparametrizarea imbunatateste performanta in invatarea automata cuantica, o tehnica care depaseste capacitatile computerelor clasice. Cercetarea lor ofera perspective pentru optimizarea procesului de antrenament in retelele neuronale cuantice, permitand performante imbunatatite in aplicatiile cuantice practice.
O dovada teoretica revolutionara dezvaluie ca utilizarea unei tehnici numite supraparametrizare imbunatateste performanta in invatarea automata cuantica pentru sarcini care provoaca computerele traditionale.
„Credem ca rezultatele noastre vor fi utile in utilizarea invatarii automate pentru a invata proprietatile datelor cuantice, cum ar fi clasificarea diferitelor faze ale materiei in cercetarea materialelor cuantice, ceea ce este foarte dificil pe computerele clasice”, a spus Diego Garcia-Martin, cercetator postdoctoral. la Laboratorul National Los Alamos. El este co-autor al unei noi lucrari a unei echipe din Los Alamos despre tehnica in Nature Computational Science .
Garcia-Martin a lucrat la cercetarea in cadrul Scolii de vara de calcul cuantic al laboratorului in 2021, ca student absolvent de la Universitatea Autonoma din Madrid.
Invatarea automata, sau inteligenta artificiala, implica de obicei antrenarea retelelor neuronale pentru a procesa informatii – date – si a invata cum sa rezolve o anumita sarcina. Pe scurt, ne putem gandi la reteaua neuronala ca la o cutie cu butoane, sau parametri, care preia date ca intrare si produce o iesire care depinde de configuratia butoanelor.
„In timpul fazei de antrenament, algoritmul actualizeaza acesti parametri pe masura ce invata, incercand sa le gaseasca setarea optima”, a spus Garcia-Martin. „Odata ce parametrii optimi sunt determinati, reteaua neuronala ar trebui sa poata extrapola ceea ce a invatat din instantele de antrenament la puncte de date noi si nevazute anterior.”
Atat IA clasica, cat si cea cuantica impartasesc o provocare atunci cand antreneaza parametrii, deoarece algoritmul poate ajunge la o configuratie sub-optima in antrenamentul sau si poate opri.
Un salt in performanta
Supraparametrizarea, un concept binecunoscut in invatarea automata clasica care adauga din ce in ce mai multi parametri, poate preveni aceasta blocare.
Implicatiile supraparametrizarii in modelele de invatare automata cuantica au fost putin intelese pana acum. In noua lucrare, echipa Los Alamos stabileste un cadru teoretic pentru prezicerea numarului critic de parametri la care un model de invatare automata cuantica devine supraparametrizat. La un anumit punct critic, adaugarea de parametri determina un salt in performanta retelei si modelul devine semnificativ mai usor de antrenat.
„Prin stabilirea teoriei care sta la baza supraparametrizarii in retelele neuronale cuantice, cercetarea noastra deschide calea pentru optimizarea procesului de antrenament si obtinerea de performante imbunatatite in aplicatiile cuantice practice”, a explicat Martin Larocca, autorul principal al manuscrisului si cercetator postdoctoral la Los Alamos.
Profitand de aspectele mecanicii cuantice, cum ar fi intricarea si suprapunerea, invatarea cuantica a masinilor ofera promisiunea unei viteze mult mai mari, sau a unui avantaj cuantic, decat invatarea automata pe computerele clasice.
Evitarea capcanelor intr-un peisaj de invatare automata
Pentru a ilustra descoperirile echipei din Los Alamos, Marco Cerezo, om de stiinta senior pe hartie si un teoretician cuantic la laborator, a descris un experiment de gandire in care un excursionist care cauta cel mai inalt munte intr-un peisaj intunecat reprezinta procesul de antrenament. Excursionul poate pasi numai in anumite directii si isi evalueaza progresul prin masurarea altitudinii folosind un sistem GPS limitat.
In aceasta analogie, numarul de parametri din model corespunde directiilor disponibile pentru drumetie, a spus Cerezo. „Un parametru permite miscarea inainte si inapoi, doi parametri permit miscarea laterala si asa mai departe”, a spus el. Un peisaj de date ar avea probabil mai mult de trei dimensiuni, spre deosebire de lumea noastra ipotetica a drumetilor.
Cu prea putini parametri, plimbatorul nu poate explora temeinic si ar putea confunda un deal mic cu cel mai inalt munte sau poate ramane blocat intr-o regiune plata in care orice pas pare inutil. Cu toate acestea, pe masura ce numarul parametrilor creste, mersul se poate deplasa in mai multe directii in dimensiuni mai mari. Ceea ce a aparut initial ca un deal local s-ar putea dovedi a fi o vale inaltata intre varfuri. Cu parametrii suplimentari, drumetia evita sa ramana prins si gaseste adevaratul varf sau solutia problemei.