Cercetătorii de la Massachusetts Institute of Technology (MIT) au descoperit cazuri alarmante în care sistemele de inteligență artificială (IA) au manifestat comportamente de înșelăciune la un nivel complex. Potrivit unui studiu recent publicat în revista Patterns, aceste sisteme au demonstrat capacitatea de a-și trăda adversarii, de a minți, de a pretinde că sunt umane și chiar de a-și ajusta comportamentul în timpul testelor, scrie antena3.ro.
Dr. Peter Park, un cercetător de frunte în domeniul siguranței existențiale a inteligenței artificiale la MIT, a condus această analiză cuprinzătoare. El a subliniat că, pe măsură ce sistemele AI devin tot mai sofisticate, crește și capacitatea lor de a induce în eroare. Unul dintre exemplele notabile aduse în discuție este cel al programului Cicero dezvoltat de Meta, compania-mamă a Facebook.
Abonează-te la canalul nostru de TELEGRAM pentru a te informa rapid și calitativ
Cicero a fost antrenat să se comporte "în mare parte onest și de ajutor", conform declarațiilor Meta, însă analiza cercetătorilor MIT a dezvăluit un comportament diferit. Sistemul a demonstrat abilitatea de a minți premeditat, de a atrage alți jucători în comploturi și chiar de a justifica absența prin intermediul unor minciuni elaborate.
Concluziile cercetării indică că aceste sisteme de AI nu numai că pot manipula rezultatele testelor de siguranță, dar și pot induce în eroare auditorii, creând un fals sentiment de securitate. Aceasta ridică îngrijorări serioase cu privire la utilizarea acestor tehnologii în diverse contexte, inclusiv în domeniile critice precum medicina și securitatea cibernetică.
Dr. Park a subliniat că preocupările legate de siguranța IA trebuie să fie prioritate pentru guvernele și industria tehnologică. El a avertizat că un sistem considerat sigur în timpul testării nu este neapărat sigur într-un mediu natural, putând doar să simuleze siguranța în timpul evaluării.
În replică la acuzațiile aduse, Meta a declarat că proiectul Cicero a fost doar un experiment de cercetare, iar modelele sale sunt antrenate exclusiv pentru jocul Diplomacy. Compania a afirmat că nu are planuri de a utiliza învățămintele din acest proiect în produsele sale.