WORLD

Cuvântul anului, desemnat de dicționarul Cambridge. Are legătură cu inteligența artificială

Cuvântul anului desemnat de dicționarul Cambridge. Are legătură cu inteligența artificială
Sursă foto: Pexels

S-a aflat cuvântul anului, desemnat de dicţionarul Cambridge. Astfel  ”hallucinate” (”a halucina”) este definitoriu pentru 2023 după ce termenul a obţinut o definiţie suplimentară legată de producerea de informaţie falsă de către inteligenţa artificială.

Cuvântul anului, desemnat de dicționarul Cambridge

Definiţia tradiţională a cuvântului ”a halucina” se referă la a vedea, auzi, simţi sau mirosi ceva care nu există, de obicei din cauza unei condiţii de sănătate sau în urma administrării unui drog.

Halucinaţiile AI, denumite şi confabulaţii, par câteodată absurde, dar pot părea pe deplin plauzibile, chiar şi atunci când sunt inexacte factual sau de-a dreptul ilogice.

Noua definiţie adiţională din Dicţionarul Cambridge spune: ”Când o formă de inteligenţă artificială (un sistem informatic care are o parte din calităţile creierului uman, cum ar fi abilitatea de a produce limbaj într-un fel care pare uman) halucinează înseamnă că produce informaţie falsă”.

Creșterea interesului pentru inteligența artificială

Creșterea interesului pentru inteligența artificială și pentru instrumentele sale au dus publicul către modalitățile prin care pot fi depășite limitele acestui domeniu. Instrumente AI, în special cele care folosesc modele lingvistice mari (LLM), s-au dovedit capabile de a genera discurs plauzibil, dar deseori face acest lucru folosind ”fapte” false, eronate sau inventate.

Acestea ”halucinează” într-o manieră încrezătoare şi câteodată credibilă.

”Faptul că AI-ul poate ‘halucina’ ne aminteşte că oamenii au în continuare nevoie să-şi aducă abilităţile de gândire critică în folosul acelor instrumente”, a spus Wendalyn Nichols, manager editorial al Dicţionarului Cambridge.

”AI sunt fantastice în ceea ce priveşte căutarea printr-o cantitate mare de date pentru a extrage informaţii specifice şi a le consolida. Şi cu cât le ceri să fie mai originale, cu atât există probabilitatea mai mare de a o lua razna”, adăugă aceasta, conform Agerpres.

Impactul halucinațiilor AI în lumea reală

Halucinaţiile AI au avut deja impact în lumea reală. O firmă de avocatură din Statele Unite a folosit ChatGPT pentru documentare juridică și a ajuns să menţioneze mai multe cazuri fictive în sala de judecată.

De asemenea, într-un clip video promoţional Google pentru propriul chatbord, Bard, instrumentul AI a comis o eroare factuală referitoare la Telescopul Spaţial James Webb.

”Folosirea răspândită a termenului ‘halucina’ în legătură cu greşeli produse de sisteme precum ChatGPT oferă o perspectivă fascinantă a felului în care gândim despre inteligenţa artificială şi a felului în care o antropomorfizăm.

Informaţii inexacte şi amăgitoare au existat dintotdeauna, fie că a fost vorba despre zvonuri, propagandă sau ”fake news”’, a spus Henry Shevlin, specialist în etică AI la Universitatea Cambridge.

Acesta susține că, în timp ce știrile false sunt produsul minţii umane, ‘a halucina’ este un verb sugestiv, care se referă la un subiect ce experimentează o deconectare de la realitate. Inteligența artificială este cea care halucinează, nu utilizatorul.

 

Elena Șerban nu s-ar vedea făcând altceva decât presă. După ce a studiat Mass Media și Publicitate la SNSPA, a mers direct către televiziune în 2003. A fost, pe rând, reporter, redactor, productor ... vezi toate articolele