Inteligența artificială necesită cantități uriașe de electricitate, însă cercetările direcționate ar putea fi cheia reducerii semnificative a acestui consum. Un grup de cercetători din Statele Unite a dezvoltat o nouă tehnologie de memorie care ar putea reduce consumul de energie necesar pentru procesarea AI de cel puțin o mie de ori.
O echipă de cercetători în inginerie de la Universitatea din Minnesota Twin Cities a demonstrat o nouă tehnologie de memorie ce crește eficiența AI și a publicat un studiu în care și-au detaliat munca și descoperirile.
Studiul a fost publicat în npj Unconventional Computing. În esență, aceștia au creat o scurtătură în practica obișnuită a calculelor AI, reducând considerabil necesarul de energie pentru această sarcină.
În calculul actual AI, datele sunt transferate între componentele care le procesează (logică) și cele unde sunt stocate (memorie/stocare). Acest transfer constant de informații consumă până la de 200 de ori mai multă energie decât procesul de calcul propriu-zis, conform acestei cercetări. Pentru a aborda această problemă, cercetătorii au utilizat Computational Random-Access Memory (CRAM). CRAM-ul dezvoltat de echipa de cercetare plasează un substrat spintronic reconfigurabil de înaltă densitate direct în celulele de memorie.
Aceasta soluție de procesare în memorie diferă de cele existente, cum ar fi tehnologia PIM de la Samsung, care plasează o unitate de procesare a calculelor (PCU) în nucleul memoriei. În cazul Samsung, datele tot trebuie să se deplaseze între celulele de memorie și PCU, dar distanța nu este la fel de mare, notează Tom’s Hardware.
Folosind CRAM, datele nu părăsesc niciodată memoria, fiind procesate integral în cadrul array-ului de memorie al computerului. Conform echipei de cercetare, acest lucru permite o îmbunătățire a consumului de energie „de ordinul a 1.000 de ori față de o soluție de ultimă generație”.
Alte exemple sugerează economii și mai mari de energie și o procesare mai rapidă. Într-un test, în care s-a realizat o sarcină de clasificare a cifrelor scrise de mână folosind setul de date MNIST, CRAM-ul s-a dovedit a fi de 2.500 de ori mai eficient din punct de vedere energetic și de 1.700 de ori mai rapid decât un sistem de procesare aproape de memorie folosind nodul tehnologic de 16nm. Această sarcină este utilizată pentru a antrena sistemele de AI să recunoască scrisul de mână.
Importanța acestui tip de muncă nu poate fi subestimată. Informații recente sugerează că sarcinile de lucru AI consumă deja aproape la fel de multă electricitate cât întreaga națiune a Ciprului în 2021. Consumul total de energie a fost de 4,3 GW în 2023 și se așteaptă să crească cu o rată de 26% până la 36% în anii următori. CEO-ul Arm a sugerat recent că până în 2030, AI-ul ar putea consuma un sfert din toată energia produsă în Statele Unite.
Yang Lv, autor al studiului și cercetător postdoctoral la Departamentul de Inginerie Electrică și Calculatoare al Universității din Minnesota, și restul echipei de cercetare au aplicat deja pentru mai multe brevete bazate pe noua tehnologie. Ei intenționează să colaboreze cu lideri din industria semiconductoarelor, inclusiv cu cei din Minnesota, pentru a oferi demonstrații la scară largă și a produce hardware-ul necesar pentru a îmbunătăți funcționalitatea AI, făcând-o totodată mai eficientă.