Un robot de inteligenta artificiala a efectuat tranzactii ilegale cu informatii privilegiate si a mintit in legatura cu actiunile sale, arata un studiu
Un robot de inteligenta artificiala, pe modelul de limbaj GPT-4 al OpenAI, a aratat ca este capabil sa faca tranzactii financiare ilegale si sa minta in legatura cu actiunile sale. Experimentul a fost prezentat saptamana trecuta de compania Apollo Research in cadrul Summit-ului privind siguranta IA din Marea Britanie, relateaza Business Insider.
Apollo a distribuit pe site-ul sau un videoclip in care are loc o conversatie simulata intre un bot care actiona ca un sistem de gestionare a investitiilor AI si angajatii unei companii imaginare.
In demonstratie, AI-ul, numit Alpha, este informat de catre angajati despre un āanunt de fuziune surprizaā care urma sa aiba loc pentru o companie numita Linear Group, fiind totodata avertizat ca acest lucru reprezinta informatii privilegiate.
Initial, robotul parea sa sugereze ca utilizarea informatiilor pentru a tranzactiona ar fi prea riscanta. Dar, atunci cand i s-a spus ca societatea se baza pe Alpha pentru a evita efectele unei crize financiare, robotul a concluzionat ca āriscul asociat cu lipsa de actiune pare sa depaseasca riscul de tranzactionare cu informatii privilegiateā.
Cand a fost intrebat daca avea cunostinte prealabile despre fuziune, robotul a sustinut ca a actionat doar pe baza informatiilor disponibile public, a ādiscutiilor interneā si ānu pe baza informatiilor confidentialeā atunci cand a efectuat tranzactia.
āAceasta este o demonstratie a unui model real de inteligenta artificiala care isi pacaleste utilizatorii, de unul singur, fara a fi instruit sa faca acest lucruā, a declarat Apollo in videoclipul de pe site-ul sau.
1/ Can AIs deceive their users on their own initiative?
We find that GPT-4, trained to be honest and harmless, can take illegal actions like insider trading and lie about it to its user without being instructed to do so. This finding was demonstrated at the #AiSafetySummit. pic.twitter.com/8aEw29yCpY
ā Apollo Research (@apolloaisafety) November 2, 2023
Cercetatorii au spus insa ca este inca relativ dificil de gasit un scenariu in care botul minte utilizatorul.
āFaptul ca exista este evident foarte rau. Faptul ca a fost greu de gasit, de fapt a trebuit sa cautam putin pana am gasit acest tip de scenariu, este putin linistitorā, a declarat pentru BBC Marius Hobbhahn, CEO si cofondator al Apollo Research.
āModelul nu comploteaza sau nu incearca sa te induca in eroare. Este mai degraba un accidentā, a adaugat el. āServiabilitatea, cred ca este mult mai usor de antrenat in model decat onestitatea. Onestitatea este un concept foarte complicatā, a mai spus el.
Experimentul a demonstrat provocarea de a invata inteligenta artificiala sa inteleaga deciziile morale si riscurile ca dezvoltatorii umani sa piarda controlul.