Uitarea catastrofală reprezintă un fenomen observat în rețelele neuronale și sistemele de învățare profundă, unde învățarea de informații noi duce la pierderea bruscă sau semnificativă a cunoștințelor dobândite anterior. Această limitare apare în principal în timpul antrenării secvențiale pe mai multe sarcini: rețeaua își ajustează parametrii pentru noua sarcină, în detrimentul performanței pe sarcinile anterioare. Uitarea catastrofală diferențiază inteligența artificială de învățarea umană, care poate acumula competențe fără a le suprascrie. Acest fenomen reprezintă o provocare fundamentală pentru învățarea continuă și AI-ul adaptiv.

Cazuri de utilizare și exemple

Uitarea catastrofală apare la actualizarea modelelor pe fluxuri de date nestationare, adaptarea la domenii noi sau antrenarea pe sarcini multiple. De exemplu, un asistent vocal antrenat să recunoască mai multe limbi poate uita limbile vechi după ce învață una nouă. Sisteme de recomandare sau de detecție a fraudelor pot fi afectate atunci când comportamentele utilizatorilor se schimbă.

Principalele instrumente software, librării și framework-uri

Framework-uri precum PyTorch și TensorFlow, împreună cu librării specializate ca Avalanche, Continuum sau sequoia, permit experimentarea strategiilor de reducere a uitării catastrofale. Aceste instrumente facilitează implementarea tehnicilor precum Elastic Weight Consolidation (EWC), Learning without Forgetting (LwF) sau regularizarea bazată pe memorie.

Ultimele evoluții și tendințe

Cercetările recente vizează arhitecturi care permit învățarea cu adevărat continuă, inspirate de funcționarea creierului uman. Metode hibride ce combină memoria externă, regularizarea dinamică și transferul de cunoștințe sunt în creștere. Progresele în modelele fundamentale și abordările modulare deschid noi perspective pentru limitarea uitării catastrofale în medii reale și complexe.