FBI avertizează cu privire la o creștere bruscă a malware-ului alimentat de AI, în timp ce hackerii exploatează ChatGPT, reprezentând o amenințare cibernetică semnificativă, transmite Cryptopolitan.
Hackerii profită de instrumente AI precum ChatGPT pentru activități ilicite, inclusiv fraudă și planificarea atacurilor chimice, arată specialiștii americani.
Dezbatere cu privire la nivelul real de amenințare al criminalității cibernetice bazate pe AI este în creștere, autoritățile arătând că este nevoie de un echilibru pentru a încuraja inovarea și, în același timp, pentru a limita utilizarea abuzivă.
FBI și-a exprimat îngrijorarea cu privire la utilizarea tot mai frecventă a instrumentelor de inteligență artificială generativă, precum ChatGPT, de către hackeri pentru a crea coduri malițioase și a executa rapid infracțiuni cibernetice. Această tendință alarmantă a programelor malware cu inteligență artificială a permis actorilor răi să se angajeze în activități ilicite, de la perfecționarea tehnicilor de înșelăciune la planificarea unor atacuri chimice devastatoare. În ciuda opiniilor diferite ale experților în domeniul cibernetic, FBI susține că, pe măsură ce adoptarea modelelor de inteligență artificială continuă să crească, la fel vor crește și amenințările reprezentate de programele malware alimentate de inteligența artificială.
În cadrul unei convorbiri cu jurnaliștii, FBI a dezvăluit recent că hackerii valorifică tehnologiile de inteligență artificială, cum ar fi ChatGPT, pentru a-și eficientiza activitățile infracționale. Se preconizează că aceste tendințe se vor intensifica și mai mult odată cu democratizarea modelelor de inteligență artificială. Hackerii exploatează chatbots AI pentru a săvârși diverse acte ilegale, inclusiv fraudarea persoanelor fizice prin imitarea contactelor de încredere cu ajutorul generatoarelor de voce AI.
Versatilitatea instrumentelor de AI, cum ar fi ChatGPT, a dus la utilizarea lor abuzivă de către actorii rău intenționați. În februarie 2023, firma de securitate Checkpoint a descoperit că hackerii au manipulat API-ul unui chatbot, permițându-le să genereze cod malware fără efort. Această evoluție a plasat puterea de a crea viruși la îndemâna aproape oricărui hacker aspirant, ceea ce a generat îngrijorări cu privire la amploarea și impactul potențial al atacurilor malware alimentate de IA.
În timp ce FBI este foarte îngrijorat de pericolele reprezentate de malware-ul alimentat de AI, unii experți cibernetici susțin că amenințarea ar putea fi supraestimată. Aceștia susțin că majoritatea hackerilor încă se bazează pe scurgerile de date convenționale și pe cercetarea open-source pentru a găsi exploatări de cod mai bune. Martin Zugec, director de soluții tehnice la Bitdefender, consideră că novicii nu au abilitățile necesare pentru a ocoli măsurile anti-malware ale chatboturilor, iar calitatea codului malware generat de chatbots tinde să fie scăzută, scrie cryptopolitan.com.
OpenAI, creatorul ChatGPT, a renunțat recent la instrumentul său de detectare a plagiatului conceput pentru a identifica conținutul generat de chatbot-uri. Această mișcare a ridicat sprâncene și i-a determinat pe unii să pună la îndoială angajamentul platformei de a limita utilizarea abuzivă a inteligenței artificiale. În lipsa unor controale eficiente, potențialul hackerilor de a exploata instrumentele alimentate de IA în scopuri rău intenționate rămâne un motiv de îngrijorare.
Pe măsură ce dezbaterea privind amenințarea malware-ului alimentat de AI continuă, autoritățile și experții în securitate cibernetică se confruntă cu o bătălie dificilă pentru a proteja ecosistemele digitale. Avertismentele FBI subliniază urgența adoptării unor măsuri solide pentru a contracara consecințele potențiale ale criminalității cibernetice bazate pe IA. Atingerea unui echilibru între încurajarea inovației IA și atenuarea utilizării abuzive a acesteia a devenit primordială.
Preocupările FBI cu privire la utilizarea din ce în ce mai frecventă a instrumentelor bazate pe inteligență artificială, cum ar fi ChatGPT, pentru a facilita criminalitatea cibernetică evidențiază nevoia de vigilență și de măsuri proactive pentru a combate această amenințare emergentă. În timp ce opiniile privind scara de pericol variază în rândul experților cibernetici, consecințele potențiale ale atacurilor malware alimentate de inteligența artificială justifică o analiză atentă. Pe măsură ce tehnologia evoluează, organizațiile, guvernele și dezvoltatorii de inteligență artificială trebuie să colaboreze pentru a stabili măsuri de siguranță eficiente pentru a se proteja împotriva utilizării abuzive rău intenționate. Putem asigura un peisaj digital mai sigur pentru toți prin astfel de eforturi colective.