Serviciile bazate pe AI generativ, precum Chat GPT, vor începe curând să-și adauge la bagajul de informații colectate de pe internet și nenumărate articole generate tot de AI, apărând riscul „intoxicării” cu conținut de calitate îndoielnică, ce urmează a fi rostogolit și reinterpretat în materiale de și mai slabă calitate.
Dacă nu este adresat din timp, fenomenul referit de unii experți drept ”model collapse” ar putea duce la degradarea accelerată a conținutul generat, AI-ul neputând diferenția între informații reale și conținutul plin de neadevăruri răspândit deja pe internet.
Potrivit experților în inteligență artificială de la Universitatea din Oxfort și Universiatatea din Cambridge, AI-ul ar putea cădea victimă tehnologiilor imperfecte pe care este bazat, rostogolind și reinterpretând conținutul generat anterior de alte modele AI. În cele din urmă, multitudinea de informații contradictorii va duce la generarea de conținut ”complet sintetic”, bazat pe inexactități sau neadevăruri propagate anterior. Dacă nu este adresat din timp, fenomenul referit de unii experți drept ”model collapse” va duce la degradarea accelerată a conținutul generat, AI-ul neputând diferenția între informații reale și conținutul plin de erori răspândit deja pe internet.
Jathan Sadowski, un cercetător senior la Emerging Technologies Research Lab din Australia, care cercetează AI, a numit acest fenomen „Habsburg AI”, argumentând că sistemele AI intens antrenate pe rezultatele altor instrumente AI generative pot genera răspunsuri „mutante”, conținând abordări exagerate, grotești.
Deși efectele pe termen lung ale fenomenului model collapse încă nu sunt bine înțelese, unii experți în tehnologie apreciază că auto-perpetuarea experienței folosită de modele generative AI va face dificilă identificarea sursei inițiale de informații pe care este antrenat un model AI. În consecință, furnizorii de informații exacte, cum ar fi mass-media, ar putea decide să limiteze conținutul pe care îl postează online, inclusiv prin introducerea de abonamente paywall – în încercarea de a preveni „rostogolirea” informațiilor în articole generate de AI. Asta ar putea crea o „epocă întunecată a informațiilor publice, conform unui eseu scris de Ray Wang, CEO-ul firmei de cercetare tehnologică Constellation Research.