Programele de tip chatbot, cu inteligență artificială, devin tot mai convingătoare și pot schimba opiniile oamenilor într-un timp foarte scurt. Un studiu recent a arătat că modelele AI de la OpenAI, Meta, xAI și Alibaba pot determina oamenii să-și schimbe opiniile politice după mai puțin de 10 minute de conversație.
„Ceea ce face ca aceste modele AI să fie convingătoare este capacitatea lor de a genera cantități mari de dovezi relevante și de a le comunica într-un mod eficient și ușor de înțeles”, a declarat David Rand, profesor de științe informaționale și comunicare în marketing și management la Universitatea Cornell.
Studiul a constatat că oamenii și-au schimbat rapid părerea, iar efectul a fost de lungă durată. În urma conversațiilor despre politică, care au durat în medie nouă minute, GPT-4o a fost cu 41% mai persuasiv, iar GPT-4.5 cu 52% mai persuasiv decât atunci când oamenilor li s-au prezentat doar mesaje statice.
Chatbot-ul AI au reușit să influențeze oamenii atunci când utilizatorii erau angajați în conversații în care aceste programe puteau împărtăși o mulțime de fapte și dovezi în sprijinul argumentelor lor. De asemenea, mesajele personalizate în funcție de vârsta, sexul, afilierea politică sau opinia utilizatorului cu privire la subiectele politice, înainte de test, au fost considerate cu aproximativ 5% mai convingătoare decât mesajele care nu erau personalizate.
Acest lucru „ar putea fi în beneficiul actorilor fără scrupule care doresc, de exemplu, să promoveze ideologii politice sau religioase radicale sau să incite la tulburări politice în rândul adversarilor geopolitici”, potrivit cercetătorilor.
Grupurile de top din domeniul AI se confruntă cu problema modului de abordare a acestei chestiuni. Dawn Bloxwich, director senior pentru dezvoltare responsabilă și inovare la Google DeepMind, a declarat că persuasiunea este un domeniu important și activ de cercetare pentru companie.
„Considerăm că este esențial să înțelegem procesul prin care AI convinge, astfel încât să putem crea măsuri de protecție mai bune, care să garanteze că modelele AI sunt cu adevărat utile și nu dăunătoare”, a afirmat Bloxwich.
Google DeepMind utilizează o serie de tehnici pentru a detecta influențarea nedorită, cum ar fi crearea de clasificatori care pot detecta limbajul manipulator sau utilizarea de tehnici avansate de instruire care recompensează comunicarea rațională.
OpenAI a declarat că ia în serios riscurile de persuasiune și că acestea contravin politicilor de utilizare ale companiei. De asemenea, nu permite campaniile politice și exclude conținutul politic atunci când își perfecționează modelele după instruire.
Potrivit cercetătorilor, capacitatea modelelor de AI de a influența opiniile oamenilor funcționează și în alte domenii, dincolo de politică. Într-un studiu publicat de MIT și Cornell anul trecut, s-a demonstrat că LLM-urile sunt capabile să schimbe opiniile persoanelor care credeau în teorii conspiraționiste.
Cercetări suplimentare au descoperit, de asemenea, că acestea pot reduce scepticismul față de schimbările climatice și vaccinul împotriva HPV. Acest lucru s-a întâmplat după ce participanții au descris o teorie a conspirației, în care credeau, către GPT-4 al OpenAI, care apoi a demontat-o folosind dovezi și mesaje personalizate.
Chatboții AI moștenesc prejudecățile din datele lor și din modul în care sunt antrenați. Cercetătorii de la Universitatea Stanford au descoperit, în luna mai, că oamenii considerau că majoritatea modelelor lingvistice de vârf aveau o orientare politică de stânga.
Măsurile de atenuare sunt importante, deoarece mulți cred că modelele de AI vor deveni, probabil, mai convingătoare odată cu apariția noii generații de modele lingvistice mai puternice. Dar cea mai eficientă modalitate de a transforma chatbot-urile AI în instrumente de manipulare pare să fie modificarea lor special în acest scop după antrenarea modelului, așa cum arată studiul AISI.
„Chiar și actorii cu resurse computationale limitate ar putea utiliza aceste tehnici pentru a antrena și implementa sisteme AI extrem de persuasive”, au avertizat cercetătorii AISI.

