Firma de securitate CyberArk a publicat un raport îngrijorător referitor la tehnologia AI ChatGPT. Modelul de limbaj dezvoltat de OpenAI ar putea fi utilizat pentru a crea malware sofisticat, greu de detectat prin măsuri obișnuite de securitate cibernetică. Asta pentru că acest tip de malware este de tip „polimorfic”, fiind programat să-și schimbe în mod constant aspectul sau semnăturile prin intermediul unor noi rutine de decriptare. Astfel, soluțiile de siguranță precum antivirus sau antimalware, care folosesc semnături de fișiere pentru detecție, nu sunt capabile să recunoască și să blocheze amenințările.
Potrivit experților CyberArk, codul dezvoltat cu ajutorul ChatGPT a prezentat „capacități avansate” care ar putea „evada ușor soluțiilor software de securitate. Acest lucru a putut fi realizat în ciuda faptului că OpenAI a implementat filtre și monitorizează activitatea ChatGPT pentru a preveni utilizarea modelului său pentru scopuri malițioase.
În ciuda faptului că, întrebat direct, ChatGPT refuză să creeze malware, insistența utilizatorilor și manipularea modelului lingvistic prin realizarea de cerințe în alte moduri decât cel direct, poate duce la crearea de cod pentru malware, eventual. Astfel, se pare că măsurile de siguranță implementate în prezent nu sunt tocmai de ajuns pentru a împiedica utilizarea tehnologiei pentru a crea noi viruși pentru computere.
Este de ajuns ca utilizatorii să primească un răspuns de la ChatGPT care să includă astfel de cod periculos, după care, folosind limbaj natural, aceștia pot cere AI-ului să aducă modificări asupra codului pentru a se mula pe nevoile lor. Aceste cerințe necesită, desigur, o înțelegere destul de bună a sistemelor pe care „hackerii” doresc să le atace, însă scad semnificativ timpul de dezvoltare al acestor programe periculoase.
Chiar dacă ChatGPT este momentan la început de drum, fiind lansat în urmă cu doar câteva luni, se pare că tehnologia pe care OpenAI o pune la îndemâna tuturor poate fi folosită și în scopuri care au rol malițios. De altfel, nici în scopuri „pozitive” nu pare că are foarte mare succes, informațiile pe care le oferă fiind de multe ori eronate, sau expirate, întrucât AI-ul nu este conectat la internet, iar informațiile pe care le deține au fost colectate doar până în anul 2021.
sursa: CyberArk