
Oficialii britanici avertizează organizațiile cu privire la integrarea chatboturilor ghidate de inteligență artificială în afacerile lor, afirmând că cercetările au demonstrat tot mai mult că acestea pot fi înșelate să facă sarcini periculoase.
În două postări publicate miercuri pe blog, Centrul Național de Securitate Cibernetică al Marii Britanii (NCSC) a menționat că experții nu au înțeles încă pe deplin problemele de securitate potențiale legate de algoritmii care pot genera interacțiuni care sună uman – denumiți modele de limbaj extinse sau LLM-uri, scrie Reuters.
Programele de inteligență artificială sunt folosite în stadii incipiente ca chatboturi, pe care unii le văd înlocuind nu doar căutările pe internet, ci și munca de servicii pentru clienți și apelurile de vânzări.
NCSC a menționat că aceasta ar putea prezenta riscuri, în special dacă astfel de modele ar fi conectate la alte elemente ale proceselor de afaceri. Academicienii…